Trợ lý ảo Alexa có thể bắt chước giọng nói

Rate this post

Amazon cho biết mọi tính năng bắt chước giọng nói sẽ sớm được đưa vào Alexa, nhưng nhiều người đã vẽ ra một viễn cảnh rùng rợn với tính năng này.

Tại sự kiện Amazon lại: MARS 2022 Trong lĩnh vực trí tuệ nhân tạo tuần này, Amazon đã mô tả một hệ thống AI mới cho phép trợ lý ảo Alexa học giọng nói bất kỳ sau khi nghe đoạn ghi âm khoảng một phút trong thời lượng của một người.

Theo Phó chủ tịch cấp cao của Amazon, Rohit Prasad, đây có thể xem là công cụ “hồi sinh” những người đã khuất bằng kỹ thuật số, giúp người dùng lưu giữ nhiều ký ức hơn, đặc biệt là đối với những người đã qua đời. chết trong đại dịch.

Một số mẫu loa hỗ trợ Alexa của Amazon.  Ảnh: Amazon

Một số mẫu loa hỗ trợ Alexa của Amazon. Hình ảnh: Amazon

Trong video trình diễn, một đứa trẻ yêu cầu Alexa đọc câu chuyện cho mình nghe phù thủy xứ Oz bằng giọng của một người bà đã khuất. Alexa chuyển từ giọng nói mặc định sang giọng nói nhẹ nhàng hơn. Prasad nói: “Mặc dù AI không thể xóa bỏ nỗi đau mất mát, nhưng nó chắc chắn có thể khiến ký ức tồn tại lâu hơn trong con người.

Bắt chước giọng nói là một mục tiêu mới mà Amazon đang khám phá, theo ông, dựa trên những tiến bộ gần đây trong công nghệ chuyển văn bản thành giọng nói. Công nghệ này hứa hẹn tạo ra giọng nói chất lượng cao, yêu cầu ít dữ liệu, thay vì yêu cầu hàng giờ ghi âm trong phòng thu chuyên nghiệp.

Tuy nhiên, tính năng Alexa mới nhận được nhiều ý kiến ​​trái chiều. Trên mạng xã hội, nhiều bình luận đề cập đến yếu tố rùng rợn của công nghệ, chẳng hạn dùng lời nói của người đã khuất để dọa người khác. Bên cạnh đó, công nghệ này có thể bị lạm dụng, chẳng hạn như giả giọng người khác để nói điều gì đó mặc dù họ không nói.

“Chắc chắn có những lợi ích đối với công nghệ chuyển đổi giọng nói mà Amazon đang phát triển, nhưng chúng cũng có thể bị lạm dụng. Kẻ xấu có thể giả làm thành viên gia đình hoặc bạn bè để gọi điện và xin tiền.” Bloomberg.

Trước Amazon, một số công ty khác cũng phát triển công nghệ bắt chước người thật sau khi họ chết. Ví dụ, ứng dụng Replika có thể mô phỏng cách nói chuyện của một người hoặc HereAfter AI bắt chước tính cách của ai đó dựa trên câu chuyện cuộc đời của họ, sau đó có thể phản hồi lại người khác thông qua một chiếc loa thông minh.

Hầu hết các chuyên gia lo ngại những ứng dụng này có thể gây ra những lo ngại về đạo đức. Một số người cho rằng công nghệ bắt chước con người cần được các cơ quan quản lý giám sát chặt chẽ hơn.

Bảo Lâm

Leave a Reply

Your email address will not be published.