(KGO) - Theo bài đăng trên blog của OpenAI chia sẻ kết quả thử nghiệm quy mô nhỏ của "Voice Engine," công cụ này cơ bản có thể sao chép giọng nói của người nào đó dựa trên mẫu âm thanh 15 giây.
Biểu tượng của OpenAI và ChatGPT. OpenAI vừa giới thiệu một công cụ nhân bản giọng nói, nhưng sẽ được kiểm soát chặt chẽ cho đến khi các biện pháp bảo vệ được áp dụng để ngăn chặn các tin giả âm thanh nhằm đánh lừa người nghe. Theo bài đăng trên blog của OpenAI chia sẻ kết quả thử nghiệm quy mô nhỏ của "Voice Engine", công cụ này cơ bản có thể sao chép giọng nói của người nào đó dựa trên mẫu âm thanh 15 giây. OpenAI thừa nhận việc tạo ra giọng nói tiềm ẩn những rủi ro nghiêm trọng, đặc biệt là trong năm bầu cử. Tuy nhiên, công ty này cho biết đang hợp tác với các đối tác trong nước và quốc tế từ chính phủ, các cơ quan truyền thông, giải trí, giáo dục, xã hội dân sự và các lĩnh vực khác với mục đích tiếp thu các ý kiến phản hồi để xây dựng phát triển công cụ này an toàn. OpenAI cho biết đã triển khai một bộ các biện pháp an toàn, bao gồm đánh dấu nguồn gốc của bất kỳ âm thanh nào được Voice Engine tạo ra cũng như chủ động theo dõi cách thức sử dụng công cụ này. Các nhà nghiên cứu về thông tin sai lệch lo ngại những nguy cơ từ việc lạm dụng ồ ạt các ứng dụng chạy bằng AI trong năm bầu cử quan trọng do các công cụ nhân bản giọng nói đang gia tăng, giá rẻ, dễ sử dụng và khó truy vết. Một trong những ví dụ là cuộc gọi được tạo ra bằng AI, sản phẩm trí tuệ của một nhân viên vận động hành lang cho nghị sỹ Minnesota Dean Phillips, có giọng nói giống như Tổng thống Joe Biden kêu gọi mọi người không bỏ phiếu trong cuộc bầu cử sơ bộ New Hampshire vào tháng 1-2024. Sự cố này khiến các chuyên gia lo ngại về một làn sóng thông tin sai lệch dạng deepfake (âm thanh hoặc video giả mạo) do AI tạo ra trong cuộc đua vào Nhà Trắng năm 2024 cũng như các cuộc bầu cử quan trọng khác trên toàn cầu trong năm nay.
Nguồn: baokiengiang.vn
Số lần đọc: 2461
|
Tin liên quan
|