Khi công nghệ phát triển với tốc độ nhanh chóng, trí tuệ nhân tạo (AI) đang đóng vai trò ngày càng quan trọng trong quá trình ra quyết định. Con người ngày càng dựa vào các thuật toán để xử lý thông tin, đề xuất các hành vi nhất định và thậm chí thực hiện hành động thay mặt họ.
Tuy nhiên, nếu AI thực sự được phép giúp đỡ hoặc thậm chí thay thế chúng ta trong việc đưa ra quyết định, đặc biệt là những quyết định liên quan đến chủ quan, đạo đức và luân lý, bạn có thể chấp nhận không?
Gần đây, một nhóm nghiên cứu từ Đại học Hiroshima đã khám phá cách con người phản ứng với việc đưa ra quyết định bằng trí tuệ nhân tạo. Cụ thể, họ khám phá câu hỏi: "Liệu xã hội đã sẵn sàng cho việc ra quyết định có đạo đức của AI chưa?" bằng cách nghiên cứu sự tương tác của con người với xe tự lái.
Nhóm nghiên cứu đã công bố phát hiện của mình vào ngày 6 tháng 5 năm 2022 trên Tạp chí Kinh tế Hành vi và Thực nghiệm.
Trong thí nghiệm đầu tiên, các nhà nghiên cứu đã đưa ra cho 529 đối tượng những tình huống khó xử về mặt đạo đức mà người lái xe có thể gặp phải. Trong kịch bản do các nhà nghiên cứu tạo ra, người lái xe phải quyết định có nên đâm xe vào nhóm người này hay nhóm người khác hay không và va chạm là điều không thể tránh khỏi. Nghĩa là, tai nạn sẽ gây ra thương tích nghiêm trọng cho một nhóm người nhưng lại cứu sống được một nhóm người khác.
Những người tham gia thí nghiệm phải đánh giá các quyết định do tài xế xe đưa ra, có thể là con người hoặc trí tuệ nhân tạo. Với điều này, các nhà nghiên cứu muốn đo lường mức độ thiên vị mà mọi người có thể có liên quan đến việc ra quyết định có đạo đức của AI.
(Nguồn: Đại học Hiroshima)
Trong thí nghiệm thứ hai, 563 đối tượng đã trả lời các câu hỏi do các nhà nghiên cứu đưa ra để xác định cách mọi người sẽ phản ứng với các quyết định có đạo đức về AI khi nó trở thành một phần của xã hội.
Trong thí nghiệm này, có hai tình huống. Một giả thuyết liên quan đến một chính phủ giả định đã quyết định cho phép xe tự lái đưa ra các quyết định đạo đức; cách còn lại cho phép mọi người "bỏ phiếu" về việc có nên cho phép xe tự lái đưa ra quyết định về mặt đạo đức hay không. Trong cả hai trường hợp, đối tượng có thể lựa chọn ủng hộ hoặc phản đối quyết định mà công nghệ đưa ra.
Thí nghiệm thứ hai được thiết kế để kiểm tra tác động của hai cách thay thế để đưa AI vào xã hội.
Các nhà nghiên cứu quan sát thấy rằng khi các đối tượng được yêu cầu đánh giá các quyết định về mặt đạo đức của người lái xe hoặc AI, họ không có sự ưu tiên rõ ràng cho cả hai. Tuy nhiên, khi những người tham gia được hỏi ý kiến rõ ràng về việc liệu AI có được phép đưa ra quyết định có đạo đức trên đường hay không, họ có ý kiến mạnh mẽ hơn về những chiếc xe do AI điều khiển.
(Nguồn: Jonesday)
Các nhà nghiên cứu tin rằng sự khác biệt giữa hai kết quả là do sự kết hợp của hai yếu tố.
Yếu tố đầu tiên là nhiều người tin rằng xã hội nói chung không muốn AI đưa ra quyết định có đạo đức, vì vậy khi được hỏi quan điểm của họ về vấn đề này, họ sẽ bị ảnh hưởng bởi chính ý tưởng của họ.
Johann Caro-Burnett, phó giáo sư tại Khoa Sau đại học về Khoa học Xã hội và Nhân văn thuộc Đại học Hiroshima, cho biết: "Trên thực tế, khi những người tham gia được yêu cầu phân biệt rõ ràng câu trả lời của họ với câu trả lời của xã hội, thì sự khác biệt giữa AI và người lái xe đã biến mất".
Yếu tố thứ hai là hậu quả của việc cho phép thảo luận về chủ đề có liên quan này khi đưa công nghệ mới này vào xã hội, tùy theo từng quốc gia. Caro-Burnett cho biết: "Ở những khu vực mà người dân tin tưởng chính phủ và có các thể chế chính phủ mạnh, thông tin và quyền ra quyết định giúp các đối tượng đánh giá các quyết định đạo đức AI. Ngược lại, ở những khu vực mà người dân không tin tưởng chính phủ và có các thể chế yếu, quyền ra quyết định làm xấu đi cách các đối tượng đánh giá các quyết định đạo đức AI".
"Chúng tôi phát hiện ra rằng có một nỗi sợ xã hội về việc ra quyết định có đạo đức của AI. Tuy nhiên, gốc rễ của nỗi sợ này không phải là bản chất của cá nhân. Trên thực tế, sự từ chối AI này xuất phát từ những gì cá nhân coi là quan điểm của xã hội", Shinji Kaneko, giáo sư tại Khoa Khoa học Xã hội và Nhân văn thuộc Đại học Hiroshima, cho biết.
Hình ảnh | Trung bình, mọi người đánh giá các quyết định đạo đức của tài xế AI không khác gì so với tài xế con người. Tuy nhiên, mọi người không muốn AI đưa ra quyết định đạo đức trên đường (Nguồn: Đại học Hiroshima)
Do đó, khi không được hỏi một cách rõ ràng, mọi người không biểu hiện bất kỳ dấu hiệu thiên vị nào đối với việc ra quyết định có đạo đức của AI. Tuy nhiên, khi được hỏi một cách rõ ràng, mọi người lại tỏ ra không thích AI. Hơn nữa, với sự gia tăng thảo luận và thông tin về chủ đề này, mức độ chấp nhận AI đã tăng lên ở các nước phát triển và giảm xuống ở các nước đang phát triển.
Các nhà nghiên cứu tin rằng sự từ chối công nghệ mới này, phần lớn là do niềm tin cá nhân về quan điểm của xã hội, có khả năng cũng áp dụng cho các máy móc và robot khác. "Do đó, điều quan trọng là phải xác định cách sở thích cá nhân tổng hợp thành sở thích xã hội. Hơn nữa, như kết quả của chúng tôi cho thấy, những kết luận như vậy cũng phải khác nhau giữa các quốc gia", Kaneko nói.
Tài liệu tham khảo:
https://www.hiroshima-u.ac.jp/en/news/71302
https://linkinghub.elsevier.com/retrieve/pii/S2214804322000556