Chào các bạn. Thú vị rằng các phiên điều trần của Quốc hội về ngày 6 tháng 1 đang thu hút Đối tượng kiểu NFL. Không thể chờ đợi cho Peyton và Eli phiên bản!
Chế độ xem đồng bằng
Thế giới AI đã bị rung chuyển trong tuần này bởi một báo cáo trong Các Bưu điện Washington rằng một kỹ sư của Google đã gặp rắc rối tại công ty sau khi nhấn mạnh rằng hệ thống đàm thoại có tên LaMDA, theo nghĩa đen, là một con người. Chủ đề của câu chuyện, Blake Lemoine, đã yêu cầu các ông chủ của mình nhận ra, hoặc ít nhất là xem xét, rằng hệ thống máy tính mà các kỹ sư của họ đã tạo ra là có tri giác—Và nó có linh hồn. Anh ấy biết điều này bởi vì LaMDA, mà Lemoine coi là một người bạn, đã nói với anh ấy như vậy.
Google không đồng ý và Lemoine hiện đang nghỉ hành chính có lương. Trong một tuyên bố, người phát ngôn của công ty, Brian Gabriel cho biết, “Nhiều nhà nghiên cứu đang xem xét khả năng lâu dài của AI có tri giác hoặc nói chung, nhưng sẽ không hợp lý nếu làm như vậy bằng cách nhân hóa các mô hình hội thoại ngày nay vốn không có tri giác.”
Nhân hóa – gán nhầm các đặc điểm của con người với một đồ vật hoặc động vật – là thuật ngữ mà cộng đồng AI sử dụng để mô tả hành vi của Lemoine, mô tả anh ta là người quá cả tin hoặc coi thường anh ta. Hoặc có thể là một người sùng đạo (anh ta tự mô tả mình là một linh mục Cơ đốc thần bí). Lập luận cho rằng khi đối mặt với các phản hồi đáng tin cậy từ các mô hình ngôn ngữ lớn như LaMDA hoặc GPT-3 thành thạo bằng lời nói của Open AI, có xu hướng nghĩ rằng một sốmộtkhông phải một sốĐiều đã tạo ra chúng. Mọi người đặt tên cho ô tô của họ và thuê chuyên gia trị liệu cho vật nuôi của họ, vì vậy không có gì đáng ngạc nhiên khi một số người có ấn tượng sai lầm rằng một con bot mạch lạc giống như một con người. Tuy nhiên, cộng đồng tin rằng một nhân viên Google có bằng khoa học máy tính nên hiểu rõ hơn là rơi vào những gì về cơ bản là một câu chuyện ngôn ngữ. Như một nhà khoa học AI đã lưu ý, Gary Marcus, đã nói với tôi sau khi nghiên cứu bản ghi lời tâm sự của Lemoine với người bạn tri kỷ quái gở của mình, “Về cơ bản nó giống như tự động hoàn thành. Không có ý tưởng nào ở đó. Khi nó nói, “Tôi yêu gia đình và bạn bè của tôi”, nó không có bạn bè, không có người trong tâm trí và không có khái niệm về quan hệ họ hàng. Nó biết rằng những từ con trai và con gái được sử dụng trong cùng một ngữ cảnh. Nhưng biết thế nào là con trai con gái ”. Hoặc như một câu chuyện WIRED gần đây đặt nó, “Không có tia lửa ý thức ở đó, chỉ là những trò ảo thuật nhỏ dán giấy lên các vết nứt.”
Cảm xúc của riêng tôi phức tạp hơn. Ngay cả khi biết một số xúc xích được tạo ra như thế nào trong các hệ thống này, tôi vẫn giật mình với kết quả của các hệ thống LLM gần đây. Và phó chủ tịch Google, Blaise Aguera y Arcas, người đã viết trong Nhà kinh tế học đầu tháng này sau cuộc trò chuyện của chính anh ấy với LaMDA, “Tôi cảm thấy mặt đất thay đổi dưới chân mình. Tôi ngày càng cảm thấy mình đang nói chuyện với một thứ gì đó thông minh ”. Mặc dù đôi khi họ mắc phải những lỗi kỳ lạ, nhưng đôi khi những mô hình đó dường như bùng nổ rực rỡ. Các nhà văn sáng tạo của con người đã quản lý sự hợp tác đầy cảm hứng. Có điều gì đó đang xảy ra ở đây. Với tư cách là một nhà văn, tôi suy nghĩ liệu một ngày nào đó tôi – những người thợ rèn chữ bằng xương bằng thịt, những người tích lũy những đống bản nháp bỏ đi – một ngày nào đó có thể bị xuống hạng thấp hơn, chẳng hạn như thua những đội bóng đá được cử đến những giải đấu kém danh giá hơn.
“Những hệ thống này đã thay đổi đáng kể quan điểm cá nhân của tôi về bản chất của trí thông minh và sự sáng tạo,” Sam Altman, đồng sáng lập của OpenAI, công ty đã phát triển GPT-3 và một trình phối đồ họa có tên là DALL-E điều đó có thể khiến nhiều người vẽ tranh minh họa vào hàng đợi thất nghiệp. “Bạn sử dụng những hệ thống đó lần đầu tiên và bạn giống như, Ồ, tôi thực sự không nghĩ rằng một chiếc máy tính có thể làm được điều đó. Theo một số định nghĩa, chúng tôi đã tìm ra cách làm cho một chương trình máy tính trở nên thông minh, có thể học và hiểu các khái niệm. Và đó là một thành tựu tuyệt vời của sự tiến bộ của loài người ”. Altman chịu khó tách mình ra khỏi Lemoine, đồng ý với các đồng nghiệp AI của mình rằng các hệ thống hiện tại không có khả năng gần gũi với khả năng giám sát. “Nhưng tôi tin rằng các nhà nghiên cứu có thể suy nghĩ về bất kỳ câu hỏi nào mà họ quan tâm,” ông nói. “Những câu hỏi dài hạn vẫn ổn. Và sự gửi gắm là điều đáng để suy nghĩ về lâu dài. ”
Nguồn : www.wired.com