AI và Phân biệt đối xử

Rate this post

(KTSG) – Công nghệ trí tuệ nhân tạo (AI) đang mang đến vô số ứng dụng nhằm cải thiện chất lượng cuộc sống, nhưng đi kèm với nó là những nguy cơ bị phân biệt đối xử, nhất là khi AI sử dụng dữ liệu phân biệt đối xử.

Càng ngày, những tiến bộ vượt bậc của công nghệ càng khiến cuộc sống của chúng ta thay đổi nhanh chóng hơn. Đặc biệt, sự phát triển của AI đánh dấu một mốc phát triển mới trong lịch sử.

Những tác động tích cực của AI khiến công nghệ này được coi là một trong những tiến bộ quan trọng nhất của xã hội loài người, mang lại những thay đổi to lớn trong cuộc sống của các cá nhân, từ những việc nhỏ nhặt như lọc “chữ cái”. rác ”để ứng dụng trong chẩn đoán bệnh có thể giúp tăng tuổi thọ con người. Công nghệ AI ngày càng được ứng dụng ngày càng rộng rãi và cũng hứa hẹn nhiều tiềm năng trong tương lai. Các chuyên gia AI dự đoán rằng một xã hội loài người với ô tô tự lái, máy tính chẩn đoán, âm nhạc, phim ảnh tự tạo, và thậm chí cả AI sẽ thay thế… giám khảo.

Tuy nhiên, bất kỳ tiến bộ công nghệ nào cũng có mặt trái của nó. Trong cuốn sách 21 Bài học cho thế kỷ 21 của mình, nhà sử học nổi tiếng người Israel Yuval Noah Harari đã cảnh báo về một số mối nguy hiểm do AI gây ra. Theo ông, nếu AI không được kiểm soát đúng mức, thì một ngày não bộ con người bị AI xâm chiếm và điều khiển sẽ không còn xa. Nhà sử học này cũng so sánh nguy cơ này nghiêm trọng như biến đổi khí hậu hay chiến tranh nguyên tử. Tất nhiên, Yuval Noah Harari nói về nguy cơ “hack” não người trong tương lai, cho rằng chúng ta không kiểm soát được sự phát triển của AI.

Hiện tại, luật chống phân biệt đối xử và luật bảo vệ dữ liệu là những nguồn chính để bảo vệ cá nhân chống lại sự phân biệt đối xử do AI gây ra. Một số khả năng đang được xem xét, chẳng hạn như sử dụng luật bảo vệ người tiêu dùng, luật chống cạnh tranh, luật hành chính, luật hình sự, v.v.

Vậy ở thời điểm hiện tại, AI có thể gây ra những tác động tiêu cực nào? Hiện nay, chúng ta cũng đang dần nhận ra sự “lạm dụng” của AI dẫn đến những hệ quả tiêu cực trong xã hội. Một trong những vấn đề đó là bất bình đẳng và phân biệt đối xử.

Đối với nhiều người, thật khó để tìm ra mối liên hệ giữa sự phân biệt đối xử và AI. AI vốn dĩ dựa trên các thuật toán, và do đó được cho là hoàn toàn hợp lý, khách quan và trung lập. Tuy nhiên, AI hoàn toàn có thể đưa ra các ‘quyết định’ phân biệt đối xử, vì một số lý do như cách xác định ‘biến mục tiêu’ hoặc ‘nhãn lớp’. , cách gắn nhãn dữ liệu, cách thu thập dữ liệu, cách chọn các tính năng (lựa chọn tính năng) …

Ví dụ cụ thể sau đây có thể giải thích rõ hơn mối quan hệ này. Giả sử một công ty sử dụng hệ thống AI để phân loại nhân viên “tốt” và “kém”. Nếu công ty này sử dụng nhãn hạng “hiếm khi đi làm muộn” thay vì “bán được nhiều sản phẩm” để phân loại, thì sẽ dẫn đến việc những nhân viên của công ty thuộc nhóm thu nhập thấp trong xã hội thường bị coi là những nhân viên “nghèo”, thậm chí mặc dù hiệu quả công việc của họ có thể cao hơn nhóm được đánh giá là nhân viên “tốt”. Nguyên nhân chính ở đây là do những người có thu nhập thấp thường phải sử dụng phương tiện công cộng để đến nơi làm việc, do đó họ thường đi làm muộn hơn những người có thu nhập cao (đi làm bằng phương tiện cá nhân).

Mới đây, một nghiên cứu đã chỉ ra những “sai sót” trong việc sàng lọc các ứng viên nộp hồ sơ tại một trường y ở Anh. Khi hệ thống AI sử dụng dữ liệu đào tạo phân biệt giới tính và hạn chế nhập cư, kết quả là AI sẽ đưa ra những quyết định mang tính phân biệt đối xử.

Một ví dụ khác là hệ thống COMPAS được sử dụng ở Mỹ để dự đoán những tên tội phạm sẽ lại phạm tội. Mặc dù COMPAS không sử dụng chủng tộc hoặc màu da làm dữ liệu đầu vào, nhưng nghiên cứu cho thấy rằng COMPAS… phân biệt đối xử với người da màu. Nếu chương trình dự đoán đúng 61% khả năng tái phạm, thì người da đen có nguy cơ tái phạm cao gấp đôi người da trắng, trong khi thực tế hoàn toàn không phải như vậy.

Timnit Gebru là một nhà nghiên cứu người Mỹ gốc Phi. Sau nhiều năm làm việc tại Google, cô ấy đã trở thành một nhà vận động chống lại màu da, giới tính và thành kiến ​​xã hội trong các thuật toán AI. Mục đích của Timnit Gebru là làm cho những gã khổng lồ công nghệ thuộc nhóm GAFAM (Google, Apple, Facebook, Amazon, Microsoft) nhận thức rõ hơn về những bất công mà AI có thể gây ra trong tương lai. Cũng chính vì những tài liệu nghiên cứu về nguy cơ vi phạm đạo đức xã hội của AI mà mối quan hệ của cô với Google xấu đi, dẫn đến việc cô rời công ty.

Theo Timnit Gebru, trí tuệ nhân tạo không… thông minh như chúng ta nghĩ. Tất nhiên, chúng ta chưa ở giai đoạn phát triển cho phép máy tính tự suy nghĩ như con người. Ngày nay, các máy tính mới có thể xử lý một lượng lớn dữ liệu để đưa ra câu trả lời, nhưng… hoàn toàn không hiểu dữ liệu. Cô cho rằng một lượng lớn dữ liệu được sử dụng ngày nay có quan điểm phương Tây, thiếu tính khách quan và vì vậy việc sử dụng dữ liệu này tạo ra những khuôn mẫu và khuôn mẫu.

Từ góc độ pháp lý, hiện nay có thể nói rằng luật chống phân biệt đối xử, cũng như luật bảo vệ dữ liệu, là những nguồn chính để bảo vệ cá nhân chống lại sự phân biệt đối xử do AI gây ra. Tuy nhiên, luật chống phân biệt đối xử áp dụng cho AI sẽ gặp nhiều khó khăn trong thực tế, trong khi luật về dữ liệu còn nhiều bất cập, chẳng hạn không áp dụng cho các thuật toán không xử lý dữ liệu. dữ liệu cá nhân. Một số khả năng đang được xem xét, chẳng hạn như sử dụng luật bảo vệ người tiêu dùng, luật chống cạnh tranh, luật hành chính và hình sự để hạn chế sự phân biệt đối xử đến từ AI.

AI và chống phân biệt đối xử cũng là chủ đề được quan tâm ở nhiều quốc gia, cũng như của Ủy ban châu Âu. Ở khu vực tư nhân, một số doanh nghiệp và tổ chức cũng đang hướng tới xây dựng AI “lành mạnh”, phù hợp với đạo đức xã hội, chẳng hạn như chương trình “Hợp tác về AI để mang lại lợi ích cho con người và xã hội”. ”Của Apple, Amazon, DeepMind, Google, Facebook, IBM và Microsoft để nghiên cứu và tìm ra hoạt động AI nào có tác động tích cực nhất đến sự phát triển của xã hội.

Rõ ràng là AI đang cung cấp vô số ứng dụng chất lượng cuộc sống, nhưng đi kèm với nó là những rủi ro về phân biệt đối xử, đặc biệt là khi AI sử dụng dữ liệu phân biệt đối xử. Hiện tại, để giải quyết vấn đề này, một số khuyến nghị cũng đã được đưa ra nhằm ngăn chặn sự phân biệt đối xử khi sử dụng AI, bao gồm các giải pháp giáo dục, giải pháp kỹ thuật cũng như pháp lý. Đồng thời, chúng ta cũng cần nhiều hơn nữa các nghiên cứu liên ngành, xuyên lĩnh vực cũng như trao đổi, thảo luận sâu rộng để tìm ra cách khắc phục “điểm yếu” của công nghệ AI. Chỉ khi chúng ta có những lựa chọn đúng đắn thì nguy cơ bị phân biệt đối xử mới có thể giảm được.

Thanh Thuy

Leave a Reply

Your email address will not be published.