Ngày 22/7 vừa qua, tại một sự kiện của Cục Dự trữ Liên bang Mỹ (FED) tập trung vào việc thảo luận về tác động kinh tế và xã hội của trí tuệ nhân tạo (AI), Sam Altman, CEO của OpenAI – công ty đứng sau ChatGPT, đã bày tỏ sự lo ngại sâu sắc về sự phát triển nhanh chóng của AI và những rủi ro tiềm ẩn mà công nghệ này mang lại. Một trong những vấn đề ông Altman nhấn mạnh là khả năng giả mạo giọng nói và hình ảnh bằng AI đang đạt đến mức độ tinh vi, có thể vượt qua nhiều hình thức xác thực hiện tại.
Ông Altman chỉ ra rằng vẫn còn các tổ chức tài chính chấp nhận sử dụng giọng nói như một phương thức xác minh để chuyển tiền hoặc thực hiện các hành động quan trọng, điều mà ông coi là “thực sự nguy hiểm”. Theo ông, AI hiện đã có khả năng đánh bại gần như toàn bộ các phương thức xác thực hiện có, ngoại trừ mật khẩu. Điều này đặt ra một thách thức lớn trong việc đảm bảo an ninh và bảo mật trong giao dịch tài chính cũng như các hoạt động trực tuyến khác.
Không chỉ dừng lại ở đó, ông Altman còn bày tỏ lo ngại về viễn cảnh siêu AI bị các thế lực thù địch lạm dụng trong khi phần còn lại của thế giới chưa đủ khả năng phòng thủ. Ông sợ rằng một kẻ xấu có thể tạo ra siêu AI trước phần còn lại của thế giới và dùng nó để tấn công lưới điện hay chế tạo vũ khí sinh học. Những rủi ro này, theo ông, đòi hỏi thế giới phải có những giải pháp kiểm soát AI hiệu quả hơn.
Ông Altman cũng lên tiếng về việc thế giới chưa sẵn sàng đối mặt với những công nghệ mới như video và cuộc gọi AI giả mạo, điều này có thể không thể phân biệt được với người thật. Điều này không chỉ ảnh hưởng đến vấn đề an ninh mà còn đặt ra thách thức lớn trong việc xác định tính xác thực của thông tin trong kỷ nguyên kỹ thuật số.
Song song với việc cảnh báo về những rủi ro, ông Altman cũng ủng hộ sáng kiến The Orb – một thiết bị giúp xác minh người dùng là con người thật trong môi trường kỹ thuật số. Ông kỳ vọng dự án này sẽ trở thành một nền tảng “chứng thực nhân dạng” trong thế giới mà AI có thể dễ dàng giả mạo mọi thứ. Việc tìm kiếm giải pháp kiểm soát AI và đảm bảo an toàn cho người dùng trở nên cấp thiết hơn bao giờ hết.
Altman khẳng định OpenAI không phát triển các công cụ tạo video hay giọng nói giả mạo, nhưng ông thừa nhận các công nghệ đó đang tiến bộ rất nhanh, không chỉ tại Mỹ mà còn trên toàn thế giới. Ông bày tỏ lo lắng về một cuộc khủng hoảng toàn cầu về sự thật và lòng tin khi AI ngày càng có khả năng tạo ra những nội dung giả mạo một cách thuyết phục.
Trước những cảnh báo của ông Altman, đã có nhiều sự cố liên quan đến deepfake gây chấn động dư luận. Tại Việt Nam, các chuyên gia cũng đã lên tiếng trước một số trào lưu sử dụng deepfake để tạo nội dung câu like, câu view. Về vấn đề này, luật sư Đăng Ngọc Duệ, Giám đốc Công ty Luật TNHH Phụng Sự Công Lý, cho biết tùy thuộc vào nội dung hình ảnh, video được dàn dựng và mục đích của người sản xuất/phát tán, sẽ có các lỗi và quy định xử lý riêng.
Tóm lại, sự phát triển nhanh chóng của AI và khả năng giả mạo ngày càng tinh vi đang đặt ra những thách thức lớn cho xã hội, từ vấn đề bảo mật đến tính xác thực của thông tin. Nhằm đối phó với những thách thức này, việc tìm kiếm và áp dụng các giải pháp kiểm soát AI, cũng như nâng cao nhận thức của cộng đồng về những rủi ro tiềm ẩn, trở nên quan trọng hơn bao giờ hết.