
Người dùng mạng xã hội ngày càng tin tưởng chatbot AI để kiểm chứng thông tin.
Chatbot AI Grok của Elon Musk đã đưa ra các phản hồi không chính xác và mâu thuẫn khi người dùng tìm kiếm kiểm chứng sự kiện trong cuộc xung đột Israel-Iran, theo một nghiên cứu công bố vào thứ Ba, làm dấy lên hoài nghi mới về độ tin cậy của công cụ này trong việc bác bỏ tin giả.
Khi các nền tảng công nghệ giảm dần sự phụ thuộc vào chuyên gia kiểm chứng thủ công, người dùng ngày càng sử dụng chatbot AI — bao gồm Grok của xAI — để tìm kiếm thông tin đáng tin cậy, nhưng các phản hồi của chúng thường cũng có nguy cơ sai lệch.
Nghiên cứu từ Phòng Thí Nghiệm Nghiên Cứu Pháp Y Kỹ Thuật Số (DFRLab) thuộc Hội Đồng Đại Tây Dương, một tổ chức nghiên cứu của Mỹ, cho biết: “Cuộc điều tra hiệu suất của Grok trong những ngày đầu tiên của xung đột Israel-Iran đã tiết lộ những lỗi và giới hạn đáng kể trong khả năng cung cấp thông tin chính xác, đáng tin cậy và nhất quán trong thời kỳ khủng hoảng của chatbot AI này.”
Grok cho thấy nó gặp khó khăn trong việc xác minh các sự kiện đã được xác nhận, phân tích hình ảnh giả mạo, và tránh các khẳng định không có cơ sở.
DFRLab đã phân tích khoảng 130.000 bài đăng bằng nhiều ngôn ngữ trên nền tảng X, nơi chatbot AI này được tích hợp, và phát hiện Grok “gặp khó khăn trong việc xác thực phương tiện do AI tạo ra.”
Sau các cuộc phản công của Iran nhằm vào Israel, Grok đã đưa ra các phản hồi rất khác nhau đối với các câu hỏi tương tự về một video do AI tạo về sân bay bị phá hủy, video này thu hút hàng triệu lượt xem trên X, theo nghiên cứu.
Grok dao động — thậm chí trong cùng một phút — giữa việc phủ nhận và xác nhận sân bay bị phá hủy do các cuộc tấn công, nghiên cứu cho biết.
Trong một số phản hồi, Grok cho rằng một quả tên lửa do phiến quân Yemen phóng là nguyên nhân gây thiệt hại. Ở những phản hồi khác, nó nhầm lẫn sân bay do AI tạo với sân bay ở Beirut, Gaza hoặc Tehran.
Khi người dùng chia sẻ một video khác do AI tạo cho thấy các tòa nhà sụp đổ sau một cuộc tấn công được cho là của Iran tại Tel Aviv, Grok lại trả lời rằng video này có vẻ là thật.
Cuộc xung đột Israel-Iran dẫn đến các cuộc không kích của Mỹ nhắm vào chương trình hạt nhân Tehran vào cuối tuần qua đã tạo ra một làn sóng thông tin sai lệch trực tuyến, bao gồm các video do AI tạo và hình ảnh chiến tranh tái sử dụng từ các xung đột khác.
Các chatbot AI cũng góp phần khuếch đại các thông tin sai lệch.
Khi cuộc chiến Israel-Iran trở nên căng thẳng, trên mạng xã hội lan truyền các tin đồn sai sự thật rằng Trung Quốc đã cử máy bay chở hàng quân sự đến Tehran để hỗ trợ.
Khi người dùng hỏi các tài khoản AI trên X thuộc các công ty AI như Perplexity và Grok về tính xác thực của tin này, cả hai đều trả lời sai rằng tin đó là đúng, theo tổ chức giám sát tin giả NewsGuard.
Các nhà nghiên cứu cho biết Grok từng mắc sai sót khi xác minh thông tin liên quan đến các cuộc khủng hoảng như xung đột Ấn Độ-Pakistan gần đây và các cuộc biểu tình chống nhập cư ở Los Angeles.
Tháng trước, Grok bị chỉ trích vì đã đưa ra thuật ngữ “diệt chủng người da trắng” tại Nam Phi, một thuyết âm mưu cực hữu, trong các truy vấn không liên quan.
Startup của Musk là xAI đã đổ lỗi cho một “sự chỉnh sửa trái phép” khiến phản hồi này xuất hiện không mong muốn.
Musk, tỷ phú sinh tại Nam Phi, trước đây từng lan truyền tuyên bố không có căn cứ rằng các lãnh đạo Nam Phi “đang công khai thúc đẩy diệt chủng” người da trắng.
Musk cũng chỉ trích Grok sau khi chatbot này dẫn nguồn từ Media Matters — một tổ chức giám sát truyền thông mang xu hướng tự do mà Musk đã kiện nhiều lần — trong một số phản hồi liên quan đến thông tin sai lệch.
“Thật xấu hổ cho anh, Grok,” Musk viết trên X. “Nguồn tin của anh tệ quá.”
Nguồn: Grok Shows ‘Flaws’ In Fact-checking Israel-Iran War: Study | IBTimes