Trong một sự kiện gần đây của Cục Dự trữ Liên bang Mỹ (FED) về tác động kinh tế và xã hội của trí tuệ nhân tạo (AI), Sam Altman, CEO của OpenAI – công ty đứng sau ChatGPT, đã lên tiếng cảnh báo về những rủi ro tiềm ẩn mà công nghệ AI đang tạo ra. Ông Altman bày tỏ sự lo ngại sâu sắc về khả năng AI có thể giả mạo giọng nói và hình ảnh với độ chính xác đáng alarm, đến mức có thể vượt qua nhiều hình thức xác thực hiện tại.
Ông Altman chỉ ra rằng vẫn còn các tổ chức tài chính chấp nhận sử dụng giọng nói như một phương thức xác minh để chuyển tiền hoặc thực hiện các hành động quan trọng khác. Điều này, theo ông, là “thực sự nguy hiểm” bởi AI hiện đã có khả năng đánh bại gần như toàn bộ các phương thức xác thực hiện tại, ngoại trừ mật khẩu. Sự phát triển nhanh chóng của AI đã khiến ông lo ngại về viễn cảnh siêu AI bị các thế lực thù địch lạm dụng trong khi phần còn lại của thế giới chưa đủ khả năng phòng thủ.
Một trong những nguy cơ mà ông Altman nhấn mạnh là việc một kẻ xấu có thể tạo ra siêu AI trước phần còn lại của thế giới và sử dụng nó để tấn công vào các cơ sở hạ tầng quan trọng như lưới điện hoặc chế tạo vũ khí sinh học. Ông cũng bày tỏ sự lo lắng về việc thế giới chưa sẵn sàng đối mặt với những công nghệ mới như video và cuộc gọi AI giả mạo, vốn có thể không thể phân biệt được với người thật.
Trước những rủi ro này, ông Altman cũng lên tiếng về nhu cầu cấp thiết của việc tìm kiếm giải pháp để kiểm soát AI. Ông ủng hộ sáng kiến The Orb – một thiết bị giúp xác minh người dùng là con người thật trong môi trường kỹ thuật số. Ông kỳ vọng dự án này sẽ trở thành một nền tảng “chứng thực nhân dạng” trong thế giới mà AI có thể dễ dàng giả mạo mọi thứ.
Ông Altman khẳng định OpenAI không phát triển các công cụ tạo video hay giọng nói giả mạo, nhưng ông thừa nhận các công nghệ đó đang tiến bộ rất nhanh, không chỉ ở Mỹ mà còn trên toàn thế giới. Ông bày tỏ lo lắng về một cuộc khủng hoảng toàn cầu về sự thật và lòng tin khi AI ngày càng có khả năng tạo ra những nội dung giả mạo thuyết phục.
Trước đó, đã có nhiều sự cố liên quan đến deepfake gây chấn động dư luận. Gần đây, các chuyên gia tại Việt Nam cũng lên tiếng trước một số trào lưu sử dụng deepfake để tạo nội dung câu like, câu view. Luật sư Đăng Ngọc Duệ, Giám đốc Công ty Luật TNHH Phụng Sự Công Lý, cho biết tùy thuộc vào nội dung hình ảnh, video được dàn dựng, mục đích của người sản xuất/phát tán sẽ có các lỗi và quy định xử lý riêng. Điều này cho thấy sự cần thiết của việc quản lý và kiểm soát nội dung deepfake để tránh những hậu quả tiêu cực.
Cục Dự trữ Liên bang Mỹ đã tổ chức một sự kiện quan trọng để thảo luận về tác động của AI. Trong khi đó, OpenAI và các công ty công nghệ khác đang nỗ lực để giải quyết những thách thức do AI tạo ra.