
Image by Dr. Frank Gaeth, from Wikimedia Commons
Thủ tướng Thụy Điển bị chỉ trích vì sử dụng ChatGPT trong các quyết định của chính phủ
Thủ tướng Thụy Điển Ulf Kristersson đối mặt với nhiều ý kiến phê phán sau khi ông thừa nhận đã sử dụng ChatGPT để tạo ra ý tưởng cho các quyết định của chính phủ.
Đang bận rộn? Dưới đây là những thông tin nhanh:
- Thủ tướng Thụy Điển thừa nhận đã sử dụng ChatGPT để ra quyết định chính trị.
- Người phát ngôn của ông khẳng định không có dữ liệu nhạy cảm nào được chia sẻ với các công cụ AI.
- Các nhà phê bình cho rằng việc sử dụng AI trong chính phủ là nguy hiểm và không dân chủ.
Thủ tướng Thụy Điển Ulf Kristersson đối mặt với sự phản đối ngày càng tăng từ công chúng sau khi ông tiết lộ việc sử dụng ChatGPT và LeChat để hỗ trợ quyết định chính thức của mình.
“Tôi thường xuyên sử dụng nó. Nếu không vì lý do gì khác thì cũng chỉ để có một ý kiến thứ hai,” Kristersson đã nói như báo cáo của The Guardian. “Người khác đã làm gì? Và chúng ta có nên nghĩ hoàn toàn ngược lại không? Những câu hỏi như vậy.”
Phát biểu của ông đã gây phản ứng mạnh, với Aftonbladet cáo buộc ông bị “hố sâu tâm lý AI của các tỷ phú” quyến rũ, theo như báo cáo của The Guardian. Các nhà phê bình cho rằng dựa vào AI để đưa ra quyết định chính trị vừa thiếu thận trọng vừa trái với dân chủ.
“Chúng ta phải đòi hỏi sự đáng tin cậy có thể được đảm bảo. Chúng tôi không bầu cử cho ChatGPT,” Virginia Dignum, giáo sư về AI có trách nhiệm tại Đại học Umeå, nói.
Phát ngôn viên của Kristersson, Tom Samuelsson, đã giảm nhẹ sự tranh cãi, nói: “Tất nhiên, đó không phải là thông tin nhạy cảm về an ninh mà kết thúc ở đó. Nó được sử dụng nhiều hơn như một sân chơi,” như được báo cáo bởi The Guardian.
Nhưng các chuyên gia công nghệ cho biết rủi ro vượt quá việc dữ liệu nhạy cảm. Giáo sư Simone Fischer-Hübner của Đại học Karlstad khuyên không nên sử dụng ChatGPT và các công cụ tương tự cho các nhiệm vụ làm việc chính thức, như được The Guardian đề cập.
Nhà nghiên cứu AI David Bau đã cảnh báo rằng các mô hình AI có thể bị thao túng. “Họ đã chỉ ra một cách để mọi người lén lút đưa các chương trình riêng của họ vào dữ liệu đào tạo mà rất khó để phát hiện.” Nghiên cứu cho thấy tỷ lệ thành công 95% trong việc đánh lừa các hệ thống AI bằng cách sử dụng tiêm bộ nhớ hoặc tấn công “Rules File Backdoor“, gây ra nỗi lo về sự can thiệp vô hình trong quyết định chính trị.
Những rủi ro khác đến từ khả năng của AI làm suy yếu nền dân chủ. Một nghiên cứu gần đây cảnh báo rằng các hệ thống AI trong lực lượng cảnh sát tập trung quyền lực, giảm sự giám sát và có thể thúc đẩy chủ nghĩa độc tài.