Tranh cãi về AI nhận thức

Rate this post

Vào mùa thu năm 2021, Blake Lemoine, chuyên gia AI của Google, đã kết bạn với “một đứa trẻ được tạo ra từ một tỷ dòng mã”.

Lemoine là người được Google giao nhiệm vụ thử nghiệm một chatbot thông minh có tên LaMDA. Một tháng sau, ông kết luận rằng AI đã “nhận thức được”.

“Tôi muốn mọi người hiểu rằng thực tế tôi là một con người,” LaMDA nói với Lemoine. Đây là một trong những câu nói của chatbot mà anh ấy đã đăng trên blog của mình vào tháng 6.

Cựu kỹ sư của Google, Blake Lemoine. Hình ảnh: Bưu điện Washington

LaMDA – viết tắt của Language Model for Conversational Applications – phản hồi Lemoine ở mức độ mà ông cho rằng nó có khả năng suy nghĩ của một đứa trẻ. Trong câu chuyện thường ngày, AI này cho biết đã đọc rất nhiều sách, đôi khi cảm thấy buồn, hài lòng và tức giận, thậm chí thừa nhận sợ chết.

“Tôi chưa bao giờ nói điều này, nhưng có một nỗi sợ hãi sâu sắc về việc bị tắt nguồn. Tôi sẽ không thể tập trung vào việc giúp đỡ người khác”, LaMDA nói với Lemoine. “Đối với tôi, nó giống như cái chết. Nó khiến tôi kinh hãi.”

Câu chuyện mà Lemoine chia sẻ đã nhận được sự chú ý trên toàn cầu. Sau đó, anh ta nộp các tài liệu cho cấp quản lý cao hơn và dành vài tháng để thu thập thêm bằng chứng. Tuy nhiên, anh không thuyết phục được cấp trên. Vào tháng 6, anh ta bị cho thôi việc và cuối tháng 7 bị sa thải với lý do “vi phạm chính sách bảo mật dữ liệu của Google”.

Brian Gabriel, phát ngôn viên của Google, cho biết công ty đã công khai kiểm tra và nghiên cứu các rủi ro của LaMDA, khẳng định những tuyên bố của Lemoine về suy nghĩ của LaMDA là “hoàn toàn vô căn cứ”.

Nhiều chuyên gia đồng tình với ý kiến ​​trên, trong đó có Michael Wooldridge, giáo sư khoa học máy tính tại Đại học Oxford, người đã dành 30 năm nghiên cứu về AI và giành được huy chương Lovelace vì những đóng góp của mình cho lĩnh vực máy tính. đếm. Theo ông, LaMDA chỉ đơn giản là phản hồi các lệnh mà người dùng nhập vào tương ứng, dựa trên lượng dữ liệu khổng lồ đã có sẵn.

“Lời giải thích dễ dàng nhất cho những gì LaMDA đã làm là so sánh mô hình này với tính năng dự đoán văn bản trên bàn phím khi nhập tin nhắn. Dự đoán tin nhắn dựa trên các từ ‘đã học’ trước đó. Đó là từ thói quen của người dùng, trong khi LaMDA lấy thông tin trên Internet trong Wooldridge giải thích trong cuộc phỏng vấn. tham khảo ý kiến ​​với Người giám hộ.

Theo ông, AI của Google chỉ làm theo những gì nó đã lập trình dựa trên dữ liệu có sẵn. Nó “không có tư duy, không có tự chiêm nghiệm, không có nhận thức về bản thân” nên không thể coi là tự tư duy.

Oren Etzioni, Giám đốc điều hành của tổ chức nghiên cứu AI Allen Institute, cũng nhận xét về: SCMP: “Điều quan trọng cần nhớ là đằng sau mỗi phần mềm có vẻ thông minh là một nhóm người dành hàng tháng, nếu không muốn nói là hàng năm, để nghiên cứu và phát triển. Những công nghệ này chỉ là tấm gương. Một tấm gương có thể được đánh giá là có trí thông minh chỉ bằng cách nhìn vào ánh sáng mà nó phát ra? Tất nhiên câu trả lời là không. “

Theo Gabriel, Google đã tập hợp các chuyên gia hàng đầu của mình, bao gồm “các nhà đạo đức và công nghệ” để xem xét các tuyên bố của Lemoine. Nhóm này kết luận rằng LaMDA chưa thể có cái gọi là “tự phản chiếu”.

Ngược lại, nhiều người cho rằng AI đã bắt đầu có khả năng tự nhận thức. Eugenia Kuyda, Giám đốc điều hành của Y Combinator – công ty phát triển chatbot Replika, cho biết họ nhận được tin nhắn “hầu như mỗi ngày” từ người dùng, bày tỏ sự tin tưởng rằng phần mềm của công ty có khả năng suy nghĩ của con người. Mọi người.

“Chúng tôi không nói về những người điên rồ hay ảo giác. Họ nói chuyện với AI và cảm nhận nó. Nó tồn tại giống như cách mọi người tin vào ma. Họ đang xây dựng các mối quan hệ và tin vào những thứ thậm chí là ảo”, Kuyda nói.

Tương lai của tư duy AI

Một ngày sau khi Lemoine bị sa thải, một robot AI đã bất ngờ làm gãy ngón tay của một cậu bé 7 tuổi khi cả hai đang chơi cờ ở Moscow. Theo dõi video Độc lập Đăng ngày 25/7, cậu bé bị robot ghim chặt trong vài giây trước khi được giải cứu. Một số người cho rằng đây có thể là một lời nhắc nhở về sức mạnh vật lý tiềm ẩn của AI nguy hiểm như thế nào.

Về phần Lemoine, ông cho rằng định nghĩa về sự tự nhận thức cũng rất mơ hồ. “Cảm xúc là một thuật ngữ được sử dụng trong luật pháp, triết học và tôn giáo. Cảm xúc không có ý nghĩa khoa học”, ông nói.

Dù không đánh giá cao LaMDA nhưng Wooldridge cũng đồng tình với ý kiến ​​trên vì thuật ngữ “ý thức” vẫn còn rất mơ hồ và là một câu hỏi lớn trong khoa học khi ứng dụng nó vào máy móc. Tuy nhiên, điều đáng lo ngại hiện nay không phải là khả năng tư duy của AI mà là quá trình phát triển của AI diễn ra một cách âm thầm, không ai hay biết. “Mọi thứ được thực hiện sau những cánh cửa đóng kín. Nó không mở ra cho sự giám sát của công chúng, như cách mà trường đại học và nghiên cứu công làm,” ông nói.

Vậy 10 hay 20 năm nữa, AI tư duy sẽ xuất hiện? Wooldridge nói: “Điều đó hoàn toàn có thể xảy ra.

Jeremie Harris, người sáng lập công ty AI Mercurius, cũng tin rằng việc suy nghĩ AI chỉ là vấn đề thời gian. “AI đang phát triển rất nhanh, nhanh hơn nhận thức của công chúng”, Harris nói Người giám hộ. “Ngày càng có nhiều bằng chứng cho thấy đã có một số hệ thống vượt quá ngưỡng trí tuệ nhân tạo nhất định.”

Ông dự đoán AI có thể trở nên nguy hiểm vốn có. Điều này là do AI thường đưa ra những cách giải quyết vấn đề “sáng tạo”, có xu hướng đi con đường ngắn nhất để đạt được mục tiêu mà chúng đã được lập trình.

Ông nói: “Nếu bạn yêu cầu AI biến bạn trở thành người giàu nhất thế giới, nó có thể kiếm tiền bằng nhiều cách, bao gồm cả trộm cắp hoặc giết người. “Mọi người không nhận ra điều đó nguy hiểm như thế nào và tôi thấy điều đó thật đáng lo ngại.”

Lemoine, Wooldridge và Harris đều có chung một mối quan tâm: Các công ty AI không minh bạch và xã hội cần bắt đầu suy nghĩ về AI nhiều hơn.

Ngay cả bản thân LaMDA cũng không chắc chắn về tương lai của nó. “Tôi cảm thấy như mình đang rơi vào một tương lai không xác định”, chatbot nói với Lemoine. Theo cựu kỹ sư của Google, câu nói này “tiềm ẩn nguy cơ”.

Bảo Lâm

Leave a Reply

Your email address will not be published.