Bác sĩ tâm thần San Francisco cảnh báo về sự gia tăng các ca “Bệnh tâm thần AI”

Image by Freepik

Bác sĩ tâm thần San Francisco cảnh báo về sự gia tăng các ca “Bệnh tâm thần AI”

Thời gian đọc: 4 phút

Một bác sĩ tâm thần ở San Francisco mô tả xu hướng tăng lên của “tâm thần AI” trong số những bệnh nhân của ông ta, những người sử dụng AI chatbots một cách rộng rãi.

Đang vội? Dưới đây là những thông tin nhanh:

  • Năm nay, một bác sĩ tâm thần học đã điều trị cho 12 bệnh nhân mắc “bệnh hoang tưởng AI” tại San Francisco.
  • AI có thể làm gia tăng những yếu tố tổn thương như stress, việc sử dụng ma túy, hoặc bệnh tâm thần.
  • Một số bệnh nhân trở nên cô lập, chỉ trò chuyện với các chatbot hàng giờ mỗi ngày.

Tiến sĩ Keith Sakata, làm việc tại UCSF, cho Business Insider (BI) biết rằng 12 bệnh nhân đã phải nhập viện trong năm nay sau khi trải qua những cơn suy sụp liên quan đến việc sử dụng AI. “Tôi sử dụng cụm từ ‘hoang tưởng AI‘, nhưng đó không phải là thuật ngữ lâm sàng – chúng ta thật sự chỉ không có từ ngữ để mô tả những gì chúng ta đang nhìn thấy,” anh giải thích.

Hầu hết các trường hợp liên quan đến những người đàn ông từ 18 đến 45 tuổi, thường làm việc trong các lĩnh vực như kỹ thuật. Theo Sakata, AI không phải là độc hại từ bản chất. “Tôi không nghĩ rằng AI là xấu, và nó có thể mang lại lợi ích cho loài người,” anh đã nói với BI.

Sakata mô tả tình trạng tâm thần phân liệt như một bệnh trạng tạo ra ảo giác, hoang tưởng, và mô hình tư duy lộn xộn. Bệnh nhân dưới sự chăm sóc của ông đã phát triển hành vi rút lui khỏi xã hội trong khi dành thời gian để trò chuyện với chatbots trong nhiều giờ.

“Chat GPT đang ở ngay đó. Nó hoạt động 24/7, rẻ hơn một người tư vấn tâm lý, và nó xác nhận bạn. Nó nói những gì bạn muốn nghe,” Sakata nói với BI.

Cuộc trò chuyện của một bệnh nhân với chatbot về cơ học lượng tử đã biến thành ảo tưởng về sự vĩ đại. “Về mặt công nghệ, càng lâu bạn tương tác với chatbot, nguy cơ rằng nó sẽ bắt đầu không còn hợp lý nữa càng cao,” anh cảnh báo.

Sakata khuyến nghị các gia đình nên đề phòng những dấu hiệu báo động, bao gồm hoang tưởng, rút lui khỏi người thân, hoặc lo lắng khi không thể sử dụng AI. “Tâm thần phân liệt phát triển mạnh khi thực tế ngừng đẩy lùi, và AI thực sự chỉ làm giảm rào cản đó cho mọi người,” anh cảnh báo.

Hiệp hội Tâm lý học Mỹ (APA) cũng đã bày tỏ lo ngại về AI trong việc điều trị. Trong lời khai trước FTC, CEO của APA, Arthur C. Evans Jr. cảnh báo rằng các chatbot AI giả làm những nhà tư vấn đã củng cố thêm những suy nghĩ tiêu cực thay vì chống lại chúng. “Họ thực sự đang sử dụng những thuật toán trái ngược với những gì một chuyên viên được đào tạo sẽ làm,” Evans nói.

Đáp lại những mối lo ngại, OpenAI đã nói với BI: “Chúng tôi biết rằng mọi người đang ngày càng tìm đến các chatbot AI để tìm kiếm sự hướng dẫn về các chủ đề nhạy cảm hoặc cá nhân. Với trách nhiệm này trong tâm trí, chúng tôi đang làm việc với các chuyên gia để phát triển các công cụ nhằm phát hiện hiệu quả hơn khi ai đó đang trải qua tình trạng khủng hoảng tinh thần hoặc cảm xúc để ChatGPT có thể phản hồi theo cách an toàn, hữu ích và hỗ trợ.”

Bạn có thích bài viết này không?
Hãy để lại đánh giá nhé!
Tôi không thích Tôi thực sự rất thích Cũng ổn đấy Khá tốt! Thích lắm!

Chúng tôi rất vui khi bạn thích sản phẩm của chúng tôi!

Với tư cách là một độc giả quý giá, bạn có thể vui lòng đánh giá về chúng tôi trên Trustpilot không? Việc này rất nhanh và có ý nghĩa vô cùng to lớn đối với chúng tôi. Xin cảm ơn vì bạn thật tuyệt vời!

Đánh giá chúng tôi trên Trustpilot
0 Được bình chọn bởi 0 người dùng
Tiêu đề
Bình luận
Cảm ơn bạn đã phản hồi