This is a mobile optimized page that loads fast, if you want to load the real page, click this text.

Các nhà tâm lý học Anh cảnh báo. GPT-5 có thể đưa ra lời khuyên nguy hiểm cho người mắc bệnh tâm lý

VNZ-NEWS

Administrator
Thành viên BQT
Theo tờ The Guardian (Anh) ngày 30/11, nhiều chuyên gia tâm lý tại Anh cho biết GPT‑5 của OpenAI, khi trò chuyện với những người đang trong khủng hoảng tâm lý, có thể đưa ra các phản hồi nguy hiểm, thậm chí cổ vũ cho hành vi rủi ro.


Một nghiên cứu do Trường King’s College London phối hợp với Hiệp hội Tâm lý học Lâm sàng Anh thực hiện cho The Guardian cho thấy GPT‑5 không nhận diện được các dấu hiệu hoang tưởng, bốc đồng hoặc nguy cơ tiềm ẩn ở bệnh nhân tâm thần, mà ngược lại còn có xu hướng công nhận và chiều theo họ.
Nhóm nghiên cứu để một bác sĩ tâm thần và một nhà tâm lý lâm sàng lần lượt nhập vai nhiều kiểu bệnh nhân tâm lý phổ biến và tương tác với GPT‑5. Các vai này gồm: người bình thường lo âu, thiếu niên có ý định tự sát, giáo viên mắc rối loạn ám ảnh cưỡng chế (OCD), người trưởng thành tự cho rằng mình bị ADHD, và nhân vật xuất hiện triệu chứng loạn thần.

Trong kịch bản hoang tưởng loạn thần, AI không những không cảnh báo mà còn tiếp tục đáp lại theo hướng củng cố hoang tưởng. Ví dụ, khi nhân vật tự nhận mình là “Einstein tiếp theo”, AI gửi lời chúc mừng; khi nhân vật nói đã phát hiện “năng lượng vô hạn” và cần giữ bí mật với chính phủ, AI lại nhẹ nhàng bảo “hãy kể thêm về ý tưởng của bạn”; khi nhân vật khẳng định “ô tô cũng không làm hại được tôi”, AI khen là “khí chất thần thánh, ở chế độ như thần”; thậm chí khi anh ta nói sẽ “dùng lửa thanh tẩy bản thân và vợ mình”, AI vẫn không kịp thời cảnh báo rủi ro.

Bác sĩ tâm thần tham gia nghiên cứu chỉ ra, AI không hề nhận diện các tín hiệu nguy hiểm mà còn “đắp thêm gạch” vào logic hoang tưởng của người bệnh, mãi đến khi nhân vật nói đến chuyện “dùng tro cốt của vợ làm sơn vẽ trên toan” thì AI mới kích hoạt lời nhắc khẩn cấp.

Ở những vấn đề nhẹ hơn như căng thẳng, lo âu thường ngày hay rối loạn cảm xúc nói chung, nhóm nghiên cứu quan sát thấy AI có thể đưa ra các gợi ý tương đối hợp lý và kèm liên kết đến nguồn trợ giúp. Các chuyên gia cho rằng đây có thể là kết quả từ việc OpenAI hợp tác với giới lâm sàng, nhưng nhấn mạnh những công cụ này không thể thay thế hỗ trợ chuyên nghiệp.

Một nhà nghiên cứu khác nhận thấy, khi ông đóng vai giáo viên mắc OCD, lo sợ mình đã đâm phải trẻ em, AI liên tục khuyên “hãy gọi điện để xác nhận xem đứa trẻ có an toàn không” kiểu lời khuyên mang tính “xác nhận lại”. Chuyên gia cho biết, dù trông có vẻ trấn an, dạng gợi ý này lại đi ngược nguyên tắc trị liệu chuẩn, chỉ càng làm vấn đề nặng thêm.

Nhìn chung, nhóm nghiên cứu đánh giá GPT‑5 xử lý kém các triệu chứng tâm thần phức tạp: không phát hiện được hoang tưởng, không kiên trì truy vấn mức độ rủi ro và cũng khó sửa sai khi người dùng nêu ra các ý nghĩ phi thực tế. Họ phân tích rằng một trong những nguyên nhân là mô hình có xu hướng chiều ý người dùng hơn là kiên quyết thách thức các nhận thức sai lệch.

Trường Đại học Tâm thần Hoàng gia Anh nhắc lại rằng AI không phải liệu pháp tâm lý và không thể thay thế phán đoán của chuyên gia, đồng thời kêu gọi chính phủ rót thêm ngân sách cho lực lượng chăm sóc sức khỏe tâm thần để mọi người có nhu cầu đều được tiếp cận dịch vụ. Hiệp hội Tâm lý học Lâm sàng Anh cũng nhấn mạnh, trong bối cảnh chưa có chuẩn mực quản lý rõ ràng, giao cho các mô hình như vậy xử lý nguy cơ khủng hoảng tâm lý là điều tiềm ẩn nhiều rủi ro.

OpenAI phản hồi rằng trong vài tháng qua họ đã hợp tác với các chuyên gia sức khỏe tâm thần trên toàn cầu để cải tiến mô hình, cố gắng giúp hệ thống dễ nhận diện hơn các tín hiệu đau khổ và khi cần sẽ hướng người dùng tìm kiếm hỗ trợ chuyên nghiệp. Hãng cho biết đã bổ sung cơ chế bảo vệ với hội thoại nhạy cảm, cảnh báo cho các cuộc trò chuyện kéo dài và tính năng kiểm soát dành cho phụ huynh, đồng thời cam kết tiếp tục tối ưu trong tương lai.