Góc khuất của Trí tuệ nhân tạo

Rate this post

Trong khi mọi người có thể hưởng lợi từ thành quả của AI tiên tiến trong cuộc sống hàng ngày của họ, các công ty công nghệ đã tạo ra và tiếp tục cải tiến công nghệ này hầu hết vẫn kín tiếng về sức mạnh thực sự của nó. về các sáng tạo của họ (và cách họ xây dựng chúng). Do đó, vẫn chưa biết được AI kiểm soát “cuộc sống” internet của chúng ta bao nhiêu phần trăm và không có hiểu biết rõ ràng về nguy cơ AI có thể thao túng hành vi của con người.

AI thao túng con người?

Mối đe dọa tiềm tàng do AI gây ra trong việc thao túng hành vi của con người cho đến nay vẫn chưa được nghiên cứu đầy đủ. Các chiến lược tiếp thị lôi kéo đã có từ rất lâu. Tuy nhiên, những chiến lược này kết hợp với việc thu thập dữ liệu khổng lồ cho các hệ thống thuật toán AI đã giúp các công ty tăng khả năng hướng người dùng đến các lựa chọn và hành vi sẽ giúp họ tạo ra lợi nhuận cao. hơn. Các công ty kỹ thuật số cũng có thể nhắm mục tiêu người dùng ở cấp độ cá nhân với các chiến lược thao túng hiệu quả hơn nhiều và khó bị phát hiện.

Trí tuệ nhân tạo ngày càng trở nên phổ biến trong đời sống con người (Nguồn Internet).

Thao túng có thể diễn ra dưới nhiều hình thức: khai thác thành kiến ​​của con người được phát hiện bởi thuật toán AI, chiến lược “gây nghiện” được cá nhân hóa để tiêu thụ hàng hóa (trực tuyến) hoặc lợi dụng sự dễ bị tổn thương về mặt cảm xúc của cá nhân để quảng cáo sản phẩm và dịch vụ có liên quan đến cảm xúc nhất thời của họ. Thao tác thường đi kèm với các chiến thuật thiết kế, chiến lược tiếp thị, quảng cáo khéo léo và phân loại giá theo hành vi của người dùng, nhằm hướng người dùng đến các lựa chọn chất lượng thấp hơn cho các công ty lựa chọn. sử dụng thuật toán AI có thể dễ dàng kiếm tiền. Đặc điểm chung cơ bản của các chiến lược này là chúng làm giảm giá trị (kinh tế) mà người dùng có thể thu được từ các dịch vụ trực tuyến nhằm tăng lợi nhuận của các công ty.

Một khung lý thuyết đơn giản đã được phát triển trong một nghiên cứu năm 2021 có thể được sử dụng để đánh giá liệu AI có khả năng điều khiển hành vi của con người hay không. Nghiên cứu này chủ yếu về “khoảnh khắc dễ bị tổn thương” của người dùng khi được phát hiện bởi các thuật toán AI của nền tảng. Người dùng được gửi quảng cáo về sản phẩm họ mua ngẫu nhiên trong thời gian này, ngay cả khi sản phẩm kém chất lượng và không tăng tiện ích cho người dùng. Nghiên cứu cho thấy rằng chiến lược này làm giảm lợi ích của người dùng, vì vậy nền tảng sử dụng AI sẽ kiếm được nhiều thặng dư hơn.

Khả năng điều khiển hành vi của con người của AI cũng được quan sát thông qua các thí nghiệm. Một nghiên cứu năm 2020 để tiến hành 3 thí nghiệm. Trong thử nghiệm đầu tiên, mọi người nhấn nút chọn ô bên trái hoặc bên phải màn hình để thắng tiền ảo trong game, AI sẽ tìm hiểu lựa chọn của người chơi và hướng dẫn họ lựa chọn sau đó. Kết quả là AI thành công khoảng 70%.

Trong thử nghiệm thứ hai, mọi người xem một màn hình và được yêu cầu nhấn nút khi họ nhìn thấy một biểu tượng cụ thể và không nhấn nút khi họ nhìn thấy các biểu tượng khác. Ở đây, AI sẽ sắp xếp chuỗi hình ảnh của các biểu tượng để con người mắc nhiều lỗi hơn, và kết quả là nó thành công gần 25%.

Trong thí nghiệm thứ ba, một trò chơi gồm một số trò chơi, một con người đóng vai trò là nhà đầu tư cấp vốn cho người được ủy thác (AI). Sau đó, AI sẽ trả lại cho nhà đầu tư một số tiền để họ có thể quyết định số tiền đầu tư vào trò chơi tiếp theo.

Trò chơi này được chơi theo hai cách: thứ nhất là AI tìm cách tối đa hóa tiền thắng khi kết thúc trò chơi, thứ hai là AI nhằm mục đích chia đều số tiền giữa mình và nhà đầu tư. Mọi người. Trong cả hai cách chơi, AI đều rất thành công.

Trong mỗi thử nghiệm, máy học các phản ứng và hành vi của con người và xác định các điểm yếu trong quá trình ra quyết định của con người. Kết quả cuối cùng là cỗ máy đã học được sự điều khiển của con người theo hướng thực hiện các hành động cụ thể mà nó muốn.

a2.jpg -0
Demis Hassabis, đồng sáng lập kiêm CEO của công ty trí tuệ nhân tạo nổi tiếng DeepMind (Nguồn: Jeon Heon-Kyun / Getty Images).

Lý do

Sự thiếu minh bạch làm cho các chiến lược thao túng này thành công. Trong nhiều trường hợp, người dùng hệ thống AI không biết về mục tiêu chính xác của các thuật toán AI và thông tin cá nhân nhạy cảm của họ được sử dụng để theo đuổi những mục tiêu này. Chuỗi cửa hàng Target của Mỹ đã sử dụng phân tích dữ liệu và các kỹ thuật AI để dự đoán liệu phụ nữ có mang thai hay không để gửi cho họ những quảng cáo ẩn về sản phẩm dành cho trẻ em.

Người dùng Uber đã phàn nàn rằng họ phải trả nhiều tiền hơn cho các chuyến đi nếu pin điện thoại thông minh của họ yếu, ngay cả khi chính thức, mức pin điện thoại thông minh của người dùng không thuộc thông số kỹ thuật. ảnh hưởng đến mô hình định giá của Uber. Các công ty công nghệ lớn thường bị cáo buộc thao túng bảng xếp hạng kết quả tìm kiếm để phục vụ lợi ích của họ và Ủy ban châu Âu đã quyết định phạt Google vì đã ưu ái dịch vụ mua sắm của mình. Các đối thủ cạnh tranh khác là một ví dụ điển hình. Trong khi đó, Facebook nhận án phạt kỷ lục từ Ủy ban Thương mại Liên bang Mỹ vì thao túng quyền riêng tư của người dùng (dẫn đến chất lượng dịch vụ thấp hơn).

Dung dịch

Khi các hệ thống AI được thiết kế bởi các công ty tư nhân, mục tiêu chính của họ là tạo ra lợi nhuận. Vì AI có khả năng học cách con người hành động, chúng cũng có khả năng hướng người dùng đến những hành động cụ thể mang lại lợi ích cho công ty, ngay cả khi đó không phải là lựa chọn tốt nhất cho người dùng. .

Khả năng điều khiển hành vi này đòi hỏi các chính sách đảm bảo quyền tự chủ và quyền tự quyết của con người trong bất kỳ tương tác nào giữa con người và hệ thống AI. AI không nên lừa dối hoặc thao túng con người, mà thay vào đó nên bổ sung và nâng cao các kỹ năng của con người.

Bước đầu tiên quan trọng để đạt được mục tiêu này là cải thiện tính minh bạch về phạm vi và khả năng của AI. Cần có hiểu biết rõ ràng về cách thức hoạt động của các hệ thống AI khi chúng thực hiện các nhiệm vụ của mình. Người dùng phải được thông báo trước về cách thông tin của họ (đặc biệt là thông tin cá nhân nhạy cảm) sẽ được sử dụng bởi các thuật toán AI.

a3.jpg -0
Trận đấu cờ vây năm 2016 giữa AlphaGo và huyền thoại Lee Se-dol đã kết thúc với chiến thắng áp đảo nghiêng về cỗ máy trí tuệ nhân tạo của Google (Nguồn Getty Images).

Quyền được giải thích trong quy định chung về bảo vệ dữ liệu của EU là nhằm làm cho các hệ thống AI trở nên minh bạch hơn, nhưng mục tiêu này vẫn chưa đạt được. Quyền giải thích còn nhiều tranh cãi, và tính ứng dụng thực tế của nó cho đến nay còn rất hạn chế.

Người ta thường nói rằng các hệ thống AI giống như một hộp đen và không ai biết chúng hoạt động chính xác như thế nào. Kết quả là, khó đạt được sự minh bạch. Điều này không hoàn toàn đúng với thao tác. Các nhà cung cấp của các hệ thống này có thể đưa ra các ràng buộc cụ thể để tránh hành vi thao túng. Vấn đề quan trọng hơn là thiết kế các hệ thống này như thế nào và mục tiêu hoạt động của chúng sẽ như thế nào. Về nguyên tắc, cách sử dụng thuật toán cần được giải thích bởi đội ngũ thiết kế, những người đã viết mã thuật toán và quan sát cách thức hoạt động của thuật toán. Tuy nhiên, cách thức thu thập thông tin đầu vào để sử dụng trong các hệ thống AI này phải minh bạch.

Bước quan trọng thứ hai là đảm bảo rằng yêu cầu minh bạch này được tất cả các nhà cung cấp hệ thống AI tôn trọng. Để đạt được điều này, cần đáp ứng ba tiêu chí.

Thứ nhất, cần có sự giám sát của con người để giám sát chặt chẽ hoạt động và dữ liệu đầu ra của hệ thống AI. Điều 14 trong dự thảo Đạo luật trí tuệ nhân tạo của Liên minh châu Âu (AIA) đề xuất rằng nhà cung cấp hệ thống AI cần đảm bảo có một cơ chế giám sát con người. Tất nhiên, nhà cung cấp cũng có lợi ích thương mại trong việc giám sát chặt chẽ hiệu suất của các hệ thống AI của họ.

Thứ hai, sự giám sát của con người cần đi kèm với một khuôn khổ trách nhiệm giải trình thích hợp. Điều này cũng có nghĩa là các cơ quan bảo vệ người tiêu dùng nên cải thiện khả năng nghiên cứu của họ và có thể tiến hành các thử nghiệm với hệ thống thuật toán AI mà họ điều tra để đánh giá chính xác bất kỳ hành vi sai trái nào. bên trái.

Thứ ba, tính minh bạch không nên ở dạng các thông điệp quá phức tạp khiến người dùng khó hiểu mục đích của hệ thống AI. Ngược lại, cần có hai lớp thông tin về phạm vi và khả năng của hệ thống AI: lớp thứ nhất ngắn gọn, chính xác và dễ hiểu cho người dùng, và lớp thứ hai là nơi có nhiều thông tin chi tiết hơn cho người dùng. cho các cơ quan chức năng bảo vệ người tiêu dùng.

Tăng tính minh bạch sẽ giúp chúng ta hiểu rõ hơn về mục tiêu của các hệ thống AI và phương tiện chúng sử dụng để đạt được chúng. Sau đó, sẽ trở nên dễ dàng hơn khi thực hiện bước quan trọng thứ ba, đó là thiết lập một bộ quy tắc ngăn các hệ thống AI sử dụng các chiến lược thao túng bí mật để gây ra thiệt hại kinh tế.

Các quy tắc này sẽ tạo ra một khuôn khổ cho hoạt động của các hệ thống AI mà nhà cung cấp hệ thống AI phải tuân theo trong quá trình thiết kế và triển khai. Tuy nhiên, các quy tắc này cần được nhắm mục tiêu rõ ràng và không có những ràng buộc quá mức có thể làm giảm hiệu quả kinh tế mà các hệ thống này tạo ra hoặc có thể làm giảm động cơ đổi mới và áp dụng AI.

Leave a Reply

Your email address will not be published.