Nghiên cứu cảnh báo AI có thể tăng cường sự phân cực trên Mạng xã hội
Trí tuệ nhân tạo có thể đẩy mạnh sự cực đoan trên các phương tiện truyền thông xã hội, cảnh báo các nhà nghiên cứu và sinh viên của Concordia, đưa ra những mối quan tâm về tự do ngôn luận và thông tin sai lệch.
Đang vội? Dưới đây là những thông tin cần biết:
- Thuật toán AI có thể tạo ra sự chia rẽ chỉ với số lượng người theo dõi và các bài đăng gần đây.
- Các bot học tăng cường nhanh chóng thích ứng để khai thác lỗ hổng trên mạng xã hội.
- Các chuyên gia cảnh báo các nền tảng có nguy cơ hoặc kiểm duyệt hoặc bị thao túng không kiểm soát.
Mặc dù sự phân cực trên mạng xã hội không phải là điều mới, nhưng các nhà nghiên cứu và những người hoạt động sinh viên tại Đại học Concordia cảnh báo rằng trí tuệ nhân tạo có thể làm cho vấn đề trở nên tồi tệ hơn nhiều.
“Thay vì được xem những đoạn video về những gì đang xảy ra hoặc nội dung từ những nhà báo đang báo cáo về nó, chúng ta thay vào đó đang thấy nghệ thuật AI quá đà về những vấn đề chúng ta nên quan tâm về chính trị […] Điều này thực sự tạo khoảng cách giữa mọi người và loại bỏ trách nhiệm” – Danna Ballantyne, điều phối viên đối ngoại và động viên cho Hội Sinh viên Concordia, phát biểu như được dẫn trong The Link nói.
Những lo ngại của cô phản ánh nghiên cứu mới từ Concordia, nơi giáo sư Rastko R. Selmic và nghiên cứu sinh tiến sĩ Mohamed N. Zareer đã chỉ ra cách các bot học tăng cường có thể thúc đẩy sự phân chia trực tuyến. “Mục tiêu của chúng tôi là hiểu được ngưỡng nào mà trí tuệ nhân tạo có thể tác động đến sự cực đoan và mạng xã hội, và mô phỏng nó […] để đo lường cách mà sự cực đoan và bất đồng có thể nảy sinh.” Zareer nói như được dẫn trong The Link.
Các phát hiện cho thấy rằng các thuật toán không cần dữ liệu riêng tư để gây ra sự chia rẽ, nơi mà các dấu hiệu cơ bản như số lượng người theo dõi và các bài đăng gần đây là đủ. “Điều này đáng lo ngại, bởi vì [trong khi] đây không phải là một con robot đơn giản, đó vẫn là một thuật toán mà bạn có thể tạo ra trên máy tính của mình […] Và khi bạn có đủ sức mạnh tính toán, bạn có thể ảnh hưởng đến càng nhiều mạng lưới” Zareer giải thích với The Link.
Điều này phản ánh một lượng lớn các nghiên cứu cho thấy cách học củng cố có thể được khai thác để đẩy các cộng đồng ra xa nhau. Nghiên cứu của Concordia đã sử dụng Double-Deep Q-learning và chứng minh rằng các đại diện AI đối lập có thể “linh hoạt thích nghi với những thay đổi trong mạng lưới, cho phép nó tận dụng hiệu quả các điểm yếu cấu trúc và làm tăng sự chia rẽ giữa người dùng,” như nghiên cứu ghi chú.
Quả thật, Double-Deep Q-learning là một kỹ thuật AI nơi một bot học các hành động tối ưu thông qua thử và sai. Nó sử dụng mạng nơ-ron sâu để xử lý các vấn đề phức tạp và hai ước lượng giá trị để tránh đánh giá quá cao phần thưởng. Trên mạng xã hội, nó có thể lên kế hoạch để lan truyền nội dung một cách chiến lược nhằm tăng cường sự phân cực với lượng dữ liệu tối thiểu.
Zareer cảnh báo rằng các nhà hoạch định chính sách đang đối mặt với sự cân nhắc khó khăn. “Có một đường mảnh mai giữa việc giám sát và kiểm duyệt và cố gắng kiểm soát mạng,” anh đã nói với The Link. Quá ít sự giám sát cho phép bot thao túng các cuộc hội thoại, trong khi quá nhiều có thể đe dọa đến tự do ngôn luận.
Trong khi đó, các sinh viên như Ballantyne lo rằng AI đang xóa bỏ những trải nghiệm thực tế. “AI hoàn toàn phá hủy điều đó,” cô ấy nói với The Link.