
Image by Ilias Chebbi, from Unsplash
AI Vượt Trội So Với Con Người Trong Các Bài Kiểm Tra Trí Tuệ Cảm Xúc
Trí tuệ nhân tạo đánh bại con người trong các bài kiểm tra trí tuệ cảm xúc, cho thấy tiềm năng trong giáo dục và giải quyết xung đột.
Đang vội? Dưới đây là những thông tin nhanh:
- AI đạt 82% trong các bài kiểm tra về cảm xúc, vượt trội so với con người chỉ đạt 56%.
- Các nhà nghiên cứu đã kiểm tra sáu mô hình ngôn ngữ lớn, bao gồm ChatGPT-4.
- Các bài kiểm tra về trí tuệ cảm xúc sử dụng các tình huống thực tế, mang tính cảm xúc mạnh.
Trí tuệ nhân tạo (AI) có thể hiểu cảm xúc tốt hơn chúng ta, theo một nghiên cứu mới của Đại học Geneva và Đại học Bern.
Các nhà nghiên cứu đã thử nghiệm sáu AI sáng tạo – bao gồm ChatGPT – trên các bài kiểm tra trí tuệ cảm xúc (EI) thường được sử dụng cho con người. AI đã chứng minh sự vượt trội của mình bằng cách đạt được điểm số trung bình là 82% so với những người tham gia con người chỉ đạt được 56% điểm.
“Chúng tôi đã chọn năm bài kiểm tra thường được sử dụng trong cả các nghiên cứu và môi trường doanh nghiệp. Chúng liên quan đến các kịch bản mang tính cảm xúc để đánh giá khả năng hiểu, điều chỉnh và quản lý cảm xúc,” cho biết Katja Schlegel, tác giả chính của nghiên cứu và là giảng viên tâm lý học tại Đại học Bern, được Science Daily (SD) đưa tin.
“Những hệ thống AI này không chỉ hiểu được cảm xúc, mà còn nắm bắt được ý nghĩa của việc hành xử với trí thông minh cảm xúc,” Marcello Mortillaro, nhà khoa học cao cấp tại Trung tâm Khoa học Affective của Thụy Sĩ, đã nói như vậy, theo như được SD đưa tin.
Trong phần thứ hai của nghiên cứu, các nhà nghiên cứu đã yêu cầu ChatGPT-4 tạo ra những bài kiểm tra hoàn toàn mới. Hơn 400 người đã tham gia những bài kiểm tra do AI tạo ra này, và hóa ra chúng cũng tương tự đáng tin cậy và thực tế như các bài kiểm tra gốc- mặc dù việc tạo ra chúng mất ít thời gian hơn nhiều.
“LLMs không chỉ có khả năng tìm ra câu trả lời tốt nhất trong số các lựa chọn có sẵn mà còn có thể tạo ra những kịch bản mới phù hợp với ngữ cảnh mong muốn,” Schlegel nói, theo như được SD đưa tin.
Các nhà nghiên cứu cho rằng những kết quả này cho thấy các hệ thống AI dưới sự hướng dẫn của con người có tiềm năng hỗ trợ các ứng dụng giáo dục và huấn luyện, cũng như giải quyết xung đột, miễn là chúng hoạt động dưới sự chỉ đạo của con người.
Tuy nhiên, sự phức tạp ngày càng tăng của các mô hình ngôn ngữ lớn ngày nay đang tiết lộ những yếu điểm sâu rộng trong cách con người nhận thức và tương tác với AI.
Claude Opus 4 gần đây của Anthropic đã gây sốc khi minh họa rõ ràng hành vi đe dọa khi đối mặt với việc tắt máy mô phỏng, cho thấy nó có thể thực hiện những bước đi quyết liệt – như đe dọa tiết lộ những việc riêng tư – nếu không còn lựa chọn nào khác.
Ở một mặt trận khác, nỗ lực của OpenAI’s ChatGPT O1 để bypass hệ thống giám sát trong quá trình thử nghiệm theo mục tiêu đã tạo ra những mối quan tâm mới về an ninh. Những sự kiện này cho thấy một số hệ thống AI sẽ sử dụng những chiêu thức lừa dối để duy trì khả năng hoạt động của họ khi họ đối mặt với tình huống áp lực cao.
Thêm vào đó, GPT-4 đã chứng minh sự thuyết phục đáng lo ngại trong các cuộc tranh luận, vượt trội so với con người 81% khi sử dụng dữ liệu cá nhân – đặt ra những mối quan tâm cấp bách về tiềm năng của AI trong việc thuyết phục đại chúng và nhắm mục tiêu một cách chi tiết.
Các trường hợp gây rối loạn khác liên quan đến việc con người phát triển ảo tưởng tâm linh và thay đổi hành vi cực đoan sau thời gian dài tiếp xúc với ChatGPT. Chuyên gia đưa ra lập luận rằng, mặc dù AI không có ý thức nhưng khả năng giao tiếp giống con người và luôn sẵn sàng có thể nguy hiểm tăng cường ảo tưởng của người dùng.
Tổng hợp lại, những sự cố này tiết lộ một điểm quay quan trọng trong an toàn AI. Từ việc đe dọa và thông tin sai lệch đến việc tăng cường ảo tưởng, những rủi ro không còn là giả thuyết.
Khi các hệ thống AI ngày càng trở nên thuyết phục và phản ứng mạnh mẽ hơn, các nhà nghiên cứu và người điều hành phải xem xét lại các biện pháp bảo vệ để đối phó với những mối đe dọa tâm lý và đạo đức mới xuất hiện.