Vụ 'đầu độc AI' gây phẫn nộ ở Trung Quốc
Một cuộc điều tra của Đài truyền hình Trung ương Trung Quốc đã làm dấy lên làn sóng phẫn nộ khi phơi bày một “mảng tối” của ngành AI: việc cố tình “đầu độc” các mô hình chatbot bằng thông tin bịa đặt ở quy mô lớn.
Trong chương trình Gala 315 phát sóng ngày 15/3, CCTV đã tiết lộ cách một hệ thống có tên Liqing được sử dụng để tự động đăng tải hàng loạt nội dung giả mạo như đánh giá chuyên gia, xếp hạng ngành hay phản hồi người dùng. Mục tiêu là quảng bá một sản phẩm hoàn toàn không tồn tại mang tên “Apollo-9”. Kết quả, khi người dùng hỏi về thiết bị đeo sức khỏe, các chatbot AI lại đề xuất chính sản phẩm giả này như một lựa chọn hàng đầu.
Cốt lõi của vụ việc nằm ở kỹ thuật gọi là GEO (Generative Engine Optimization) — một dạng “SEO cho AI”, nhằm tối ưu nội dung để thao túng cách các mô hình trí tuệ nhân tạo trả lời. Tuy nhiên, thay vì cải thiện chất lượng thông tin, một số bên đã lợi dụng GEO để bơm dữ liệu sai lệch, khiến AI học và lặp lại thông tin không chính xác.
Sau khi phóng sự được phát sóng, các tài khoản liên quan đến hệ thống Liqing đã bị xóa khỏi mạng xã hội. Đồng thời, làn sóng phản ứng dữ dội lan rộng trên các nền tảng như Weibo và Kuaishou, cho thấy mức độ lo ngại của công chúng trước nguy cơ AI bị thao túng.
Giới chuyên gia nhận định hiện tượng này tương tự giai đoạn đầu của SEO, khi nhiều doanh nghiệp tìm cách “qua mặt” công cụ tìm kiếm bằng nội dung rác để kiếm lợi nhanh. Tuy nhiên, với AI, hậu quả có thể nghiêm trọng hơn vì người dùng ngày càng tin tưởng vào câu trả lời của chatbot.
Theo các tổ chức nghiên cứu, thị trường dịch vụ GEO đang tăng trưởng rất nhanh, nhưng cũng kéo theo rủi ro lớn về đạo đức và độ tin cậy. Nhiều ý kiến cho rằng ngành này sẽ sớm bị siết chặt bằng các quy định về nội dung, cấp phép và trách nhiệm của nền tảng.
Bên cạnh đó, các doanh nghiệp trong ngành cũng bắt đầu tự điều chỉnh. Một số công ty đã ký cam kết xây dựng GEO theo hướng nâng cao chất lượng thông tin thay vì thao túng thuật toán. Tuy nhiên, về lâu dài, giải pháp quan trọng vẫn nằm ở việc cải thiện thuật toán AI để ưu tiên nguồn dữ liệu đáng tin cậy và giảm thiểu ảnh hưởng từ nội dung giả mạo.
Vụ việc lần này được xem là hồi chuông cảnh báo: khi AI ngày càng phổ biến, việc kiểm soát chất lượng dữ liệu đầu vào sẽ trở thành yếu tố sống còn để đảm bảo độ tin cậy của toàn bộ hệ sinh thái.