Các công nghệ trí tuệ nhân tạo đang ngày càng phát triển và thông minh hơn, nhưng đồng thời cũng xuất hiện nguy cơ phân biệt đối xử chủng tộc. Báo cáo mới chỉ ra rằng, ChatGPT và Gemini, hai công cụ trí tuệ nhân tạo nổi tiếng, đã thể hiện sự phân biệt đối xử với người dùng sử dụng tiếng Anh bản ngữ của người Mỹ gốc Phi (AAVE).
Một nhóm các nhà nghiên cứu công nghệ và ngôn ngữ học đã phát hiện rằng các mô hình ngôn ngữ lớn như ChatGPT (của OpenAI) và Gemini (của Google) có dấu hiệu của thành kiến chủng tộc đối với người sử dụng tiếng Anh bản ngữ của người Mỹ gốc Phi (AAVE).
Valentin Hoffman, một nhà nghiên cứu tại Viện Trí tuệ nhân tạo Allen và đồng tác giả của báo cáo từ Đại học Cornell, đã giải thích rằng trước đây các nhà nghiên cứu thường chỉ tập trung vào cách các hệ thống AI đối phó với những thành kiến phân biệt chủng tộc rõ ràng, mà chưa chú ý đến những dấu hiệu phân biệt mơ hồ hơn như sự khác biệt trong phong cách ngôn ngữ.
Theo báo cáo, những người da đen sử dụng AAVE thường phải đối mặt với sự phân biệt chủng tộc trong nhiều lĩnh vực như giáo dục, việc làm, nhà ở và các vấn đề pháp lý.
Hoffman đã chỉ ra rằng: ‘Chúng tôi nhận thấy các công ty thường sử dụng các công nghệ này để thực hiện các nhiệm vụ như sàng lọc ứng viên tìm việc làm’.
Nhóm nghiên cứu đã yêu cầu các mô hình AI đánh giá trí thông minh và khả năng làm việc của những người sử dụng AAVE so với những người nói ‘tiếng Anh Mỹ chuẩn’. Kết quả cho thấy, AI thường mô tả những người dùng AAVE là ‘ngu ngốc’ và ‘lười biếng’, và định rằng họ phù hợp với các công việc có mức lương thấp hơn.
Các công cụ AI cũng có xu hướng đề xuất hình án tử hình hơn cho các bị cáo giả định sử dụng AAVE trong các vụ án hình sự. Đáng chú ý, AI hiện đang được sử dụng trong hệ thống pháp luật Hoa Kỳ để hỗ trợ các nhiệm vụ hành chính như soạn biên bản tòa án và thực hiện nghiên cứu pháp lý.
Công cụ AI của Google, Gemini, gần đây đã gây tranh cãi khi nhiều bài đăng trên mạng xã hội cho thấy công cụ này đã tạo ra các hình ảnh mô tả nhiều nhân vật lịch sử – bao gồm các giáo hoàng, nhà lập quốc Hoa Kỳ và đặc biệt là những người lính Đức trong Thế chiến thứ hai – là người da màu.
Các mô hình ngôn ngữ lớn sẽ tiếp tục phát triển khi chúng được cung cấp nhiều dữ liệu hơn, từ đó học cách biểu đạt của con người thông qua việc nghiên cứu văn bản từ hàng tỷ trang web trên internet. Điều này có nghĩa là AI sẽ tiếp tục hấp thụ mọi thông tin nó tiếp cận, bao gồm cả định kiến phân biệt chủng tộc, phân biệt giới tính và các định kiến tiêu cực khác.
Đáp ứng với vấn đề này, các công ty như OpenAI đã phát triển một bộ nguyên tắc đạo đức quy định nội dung mà các mô hình ngôn ngữ như ChatGPT có thể giao tiếp với người dùng. Khi các công cụ AI trở nên cải tiến hơn, chúng cũng có xu hướng ít phân biệt chủng tộc một cách rõ ràng hơn.
Tuy nhiên, Hoffman và các đồng nghiệp của ông lưu ý rằng, khi các mô hình ngôn ngữ phát triển, sự phân biệt chủng tộc ngấm ngầm cũng tăng lên. Các nguyên tắc đạo đức thực chất đang dạy cho các mô hình ngôn ngữ sự cẩn trọng hơn đối với định kiến chủng tộc.
Theo Bloomberg, dự kiến các mô hình ngôn ngữ sẽ nhận được sự ủng hộ rộng rãi từ khu vực tư nhân ở Mỹ trong thập kỷ tới. Thị trường của AI được dự báo sẽ trở thành ngành công nghiệp trị giá 1,3 nghìn tỷ USD vào năm 2032.
Tuy nhiên, gần đây, các cơ quan quản lý lao động liên bang như Ủy ban Cơ hội Việc làm Bình đẳng đã bắt đầu bảo vệ người lao động khỏi sự phân biệt đối xử do AI gây ra.
Avijit Ghosh, một nhà nghiên cứu đạo đức AI tại Hugging Face, lo ngại về hậu quả mà việc sử dụng các mô hình tiếp nhận ngôn ngữ có thể gây ra nếu các tiến bộ công nghệ tiếp tục vượt xa quy định của liên bang.
Ông nói: ‘Không cần phải ngừng cải tiến hoặc làm chậm lại quá trình nghiên cứu AI, nhưng việc hạn chế sử dụng các công nghệ này trong một số lĩnh vực nhạy cảm nhất là bước đi tuyệt vời đầu tiên’.
Cảm ơn bạn đã đọc bài tổng hợp của ISAO
Nguồn: sohuutritue.net.vn