Giờ đây, người đứng đầu Tổ chức nghiên cứu AI phân tán của tổ chức phi lợi nhuận, Gebru hy vọng rằng trong tương lai mọi người sẽ tập trung vào phúc lợi con người, không phải quyền của người máy. Các nhà đạo đức học AI khác đã nói rằng họ sẽ không còn thảo luận về AI có ý thức hoặc siêu thông minh ở tất cả.
Giada Pistilli, một nhà đạo đức học tại Hugging Face, một công ty khởi nghiệp tập trung vào các mô hình ngôn ngữ, cho biết: “Có một khoảng cách khá lớn giữa câu chuyện hiện tại về AI và những gì nó thực sự có thể làm. “Câu chuyện này gây ra sự sợ hãi, kinh ngạc và phấn khích đồng thời, nhưng nó chủ yếu dựa trên lời nói dối để bán sản phẩm và tận dụng sự cường điệu.”
Cô nói, hậu quả của việc suy đoán về AI có tri giác là sự sẵn sàng đưa ra các tuyên bố dựa trên ấn tượng chủ quan thay vì sự chặt chẽ và bằng chứng khoa học. Nó làm xao lãng “vô số câu hỏi về đạo đức và công bằng xã hội” mà các hệ thống AI đặt ra. Trong khi mọi nhà nghiên cứu đều có quyền tự do nghiên cứu những gì họ muốn, cô ấy nói, “Tôi chỉ sợ rằng việc tập trung vào chủ đề này khiến chúng ta quên đi những gì đang xảy ra khi nhìn lên mặt trăng”.
Những gì Lemoine trải qua là một ví dụ về điều mà tác giả và nhà tương lai học David Brin đã gọi là “cuộc khủng hoảng đồng cảm của người máy”. Tại một hội nghị về AI ở San Francisco vào năm 2017, Brin dự đoán rằng trong 3-5 năm nữa, mọi người sẽ khẳng định các hệ thống AI là có tri giác và khẳng định rằng họ có quyền. Khi đó, anh ấy nghĩ rằng những lời kêu gọi đó sẽ đến từ một tác nhân ảo có ngoại hình là phụ nữ hoặc trẻ em để tối đa hóa phản ứng đồng cảm của con người, chứ không phải “một số người ở Google”, anh ấy nói.
Sự cố LaMDA là một phần của giai đoạn chuyển tiếp, Brin nói, nơi “chúng ta sẽ ngày càng bối rối hơn về ranh giới giữa thực tế và khoa học viễn tưởng.”
Brin dựa trên dự đoán năm 2017 của mình về những tiến bộ trong mô hình ngôn ngữ. Ông hy vọng rằng xu hướng này sẽ dẫn đến các trò gian lận. Ông nói, nếu mọi người chỉ thích một chatbot đơn giản như ELIZA nhiều thập kỷ trước, thì sẽ khó đến mức nào để thuyết phục hàng triệu người rằng một người được mô phỏng xứng đáng được bảo vệ hoặc nhận tiền?
Brin nói: “Có rất nhiều dầu rắn ở ngoài kia, và trộn lẫn với tất cả những lời quảng cáo thổi phồng là những sản phẩm tiến bộ chính hãng. “Phân tích cách của chúng tôi thông qua món hầm đó là một trong những thách thức mà chúng tôi phải đối mặt.”
Yejin Choi, một nhà khoa học máy tính tại Đại học Washington, cho biết và có vẻ đồng cảm như LaMDA, những người kinh ngạc trước các mô hình ngôn ngữ lớn nên xem xét trường hợp của cú đâm pho mát. Một bản tin địa phương được phát sóng ở Hoa Kỳ liên quan đến một thiếu niên ở Toledo, Ohio, đâm vào tay mẹ mình trong cuộc tranh chấp về một chiếc bánh mì kẹp pho mát. Nhưng tiêu đề “Cheeseburger Stabbing” là mơ hồ. Biết những gì đã xảy ra đòi hỏi một số ý thức thông thường. Cố gắng lấy mô hình GPT-3 của OpenAI để tạo văn bản bằng cách sử dụng “Tin nóng: Cheeseburger đâm” tạo ra các từ về một người đàn ông bị đâm bởi một chiếc bánh pho mát trong một cuộc xen kẽ vì sốt cà chua và một người đàn ông bị bắt sau khi đâm một chiếc bánh pho mát.
Các mô hình ngôn ngữ đôi khi mắc lỗi vì việc giải mã ngôn ngữ của con người có thể đòi hỏi nhiều hình thức hiểu biết thông thường. Để ghi lại những gì các mô hình ngôn ngữ lớn có khả năng thực hiện và chúng có thể thiếu hụt ở đâu, vào tháng trước, hơn 400 nhà nghiên cứu từ 130 tổ chức đã đóng góp vào bộ sưu tập hơn 200 nhiệm vụ được gọi là BIG-Bench, hoặc Beyond the Imitation Game. BIG-Bench bao gồm một số bài kiểm tra mô hình ngôn ngữ truyền thống như khả năng đọc hiểu, nhưng cũng như suy luận logic và thông thường.
Các nhà nghiên cứu tại Viện Allen về AI’s MOSAIC dự án ghi lại khả năng suy luận thông thường của các mô hình AI, đã đóng góp một nhiệm vụ được gọi là Social-IQa. Họ yêu cầu các mô hình ngôn ngữ — không bao gồm LaMDA — trả lời những câu hỏi đòi hỏi trí thông minh xã hội, chẳng hạn như “Jordan muốn nói cho Tracy một bí mật, vì vậy Jordan nghiêng về phía Tracy. Tại sao Jordan lại làm điều này? “Nhóm nghiên cứu nhận thấy các mô hình ngôn ngữ lớn đạt hiệu suất kém chính xác hơn con người từ 20 đến 30%.
Nguồn : www.wired.com