
Hình ảnh như thật do công cụ AI Veo 3 của Google tạo ra - Ảnh: GOOGLE DEEPMIND
Cuộc chiến thông tin bùng nổ song song với các đợt không kích của Israel vào cơ sở quân sự và hạt nhân Iran, cho thấy khủng hoảng số ngày càng nghiêm trọng khi công cụ AI tiên tiến làm mờ ranh giới giữa thực và giả.
Việc các nền tảng công nghệ lớn nới lỏng kiểm duyệt và giảm vai trò của người kiểm chứng, khiến người dùng dễ bị tác động bởi thông tin sai lệch.
Theo chuyên gia của tổ chức Misbar ngày 1-7, trong số các công cụ AI lan truyền thông tin sai suốt 12 ngày xung đột Israel - Iran có Veo 3 của Google, chatbot Grok của mạng xã hội X và nhiều nền tảng khác.
Các công nghệ này giúp người dùng dễ dàng tạo, phát tán hình ảnh và nội dung bịa đặt, góp phần làm trầm trọng thêm sự hỗn loạn thông tin trong cuộc xung đột.
Veo 3 của Google
Công cụ tạo video tiên tiến này đã đóng vai trò trung tâm trong một số chiến dịch gần đây khi cho phép người dùng tạo ra nội dung trông như thật đến mức khó phân biệt với cảnh quay thực tế.
Với Veo 3, người dùng có thể tạo đoạn video dài tám giây chỉ từ một đoạn văn bản ngắn. Ra mắt vào tháng 6, Veo 3 được xem là một trong những công cụ AI miễn phí và tinh vi nhất hiện nay, có khả năng tạo hình ảnh và âm thanh chân thật đến mức trở thành thách thức lớn trong việc phát hiện và ngăn chặn thông tin giả trên mạng.
Theo Đài Al Jazeera, nhiều chuyên gia lo ngại việc Google tung ra Veo 3 khi chưa tích hợp đầy đủ các tính năng an toàn cần thiết.
Ông Joshua McKenty, giám đốc điều hành công ty phát hiện deepfake Polyguard, chỉ trích Google vì vội vàng đưa sản phẩm ra thị trường để cạnh tranh với các đối thủ như OpenAI và Microsoft - những bên đã phát hành nền tảng AI thân thiện và phổ biến hơn.
Đáp lại các chỉ trích, Google khẳng định công ty vẫn giữ cam kết phát triển AI một cách có trách nhiệm.

AFP đưa tin về khuyết điểm của công cụ Grok trong việc kiểm chứng thông tin trong xung đột Israel - Iran - Ảnh: MISBAR
Grok của X
Ngoài ra nghiên cứu mới đây của phòng thí nghiệm nghiên cứu pháp y kỹ thuật số (DFRLab) của Hội đồng Atlantic (Mỹ) chỉ ra rằng chatbot Grok đã đưa ra các phản hồi mâu thuẫn và không chính xác khi người dùng cố gắng kiểm chứng thông tin về cuộc xung đột Israel - Iran.
Khi các nền tảng công nghệ giảm bớt phụ thuộc vào người kiểm tra thông tin thực tế, ngày càng nhiều người dùng chuyển sang dùng các công cụ hỗ trợ AI như Grok để tìm thông tin.
Tuy nhiên nghiên cứu cho thấy những công cụ này thường góp phần vào việc lan truyền thông tin sai sự thật hơn là hạn chế chúng.
DFRLab đã phân tích gần 130.000 bài đăng bằng nhiều ngôn ngữ trên mạng xã hội X và phát hiện rằng Grok gặp khó trong việc xác định và nhận diện tin tức do AI tạo ra, làm phức tạp thêm các nỗ lực chống tin giả trực tuyến.
Trong suốt cuộc xung đột Israel - Iran vừa qua, các chuyên gia Misbar đã giám sát chặt chẽ sự lan truyền thông tin sai lệch trên mạng xã hội, phát hiện nhiều video do AI tạo ra được người dùng của cả hai bên xung đột lan truyền.
Misbar đã dùng công cụ phát hiện AI Hive Moderation để phân tích hình ảnh trong các đoạn video nhằm xác định những nội dung do AI tạo ra, từ đó vạch trần nhiều cảnh quay không có thật trong cuộc xung đột Israel - Iran được lan truyền trên mạng xã hội.
Tối đa: 1500 ký tự
Hiện chưa có bình luận nào, hãy là người đầu tiên bình luận