OpenAI cải tiến mô hình ngôn ngữ ChatGPT, giúp phát hiện sớm các dấu hiệu căng thẳng tâm lý và rủi ro

VNZ-NEWS
OpenAI mới đây đã tiến hành nâng cấp toàn diện cho mô hình ngôn ngữ ChatGPT, nhằm mục tiêu phát hiện sớm các dấu hiệu khủng hoảng tâm lý, hành vi tự hại / tự sát và sự phụ thuộc cảm xúc, đồng thời hướng dẫn người dùng tìm đến sự trợ giúp thực tế ngoài đời bằng cách nhẹ nhàng và phù hợp hơn.

ChatGPT-nang-cap.jpeg

Theo thông cáo báo chí chính thức, trọng tâm của lần nâng cấp này xoay quanh các vấn đề như hưng cảm, rối loạn tâm thần, tự hại và tự sát. Trong tương lai, ChatGPT sẽ có khả năng phản ứng với những dấu hiệu rõ ràng trong các cuộc trò chuyện thuộc nhóm chủ đề này, đồng thời nhận biết được cả những tín hiệu cảm xúc tinh tế hơn, giúp tránh để người dùng dễ tổn thương rơi vào hiểu lầm hoặc chịu thêm áp lực khi trò chuyện với mô hình ảo.


OpenAI cho biết, họ đã hợp tác với hơn 170 chuyên gia trong lĩnh vực tâm lý học, tâm thần học và can thiệp khủng hoảng để cải thiện ChatGPT, tích hợp kiến thức chuyên môn của họ vào cách thức phản hồi của mô hình. Các thử nghiệm nội bộ cho thấy, phiên bản ChatGPT được cải tiến đã giảm 80% số lượng phản hồi không phù hợp. Nhờ quá trình huấn luyện có định hướng, ChatGPT cũng có thể phân biệt tốt hơn giữa các ngữ cảnh hội thoại trung tính, cảm xúc và khẩn cấp, từ đó điều chỉnh linh hoạt cách trả lời.

Theo số liệu thống kê nội bộ, ước tính có khoảng 3 triệu người thể hiện những hành vi đáng báo động khi sử dụng ChatGPT. Con số này đặc biệt đáng lo ngại khi mà OpenAI hiện có khoảng 800 triệu người dùng hàng tuần, tương đương khoảng 10% dân số toàn cầu.

Để đối phó với tình trạng này, OpenAI đã tham khảo ý kiến của 170 chuyên gia sức khỏe tâm thần nhằm cải thiện phản hồi của ChatGPT đối với người dùng có triệu chứng rối loạn hoặc nguy cơ tự hại. Công ty đã nỗ lực giảm thiểu các phản hồi không mong muốn trong những tình huống nhạy cảm, với tỷ lệ giảm từ 65–80%, nhưng ChatGPT vẫn không chấm dứt cuộc trò chuyện hoặc chặn quyền truy cập của những người dùng này, thay vào đó là hướng dẫn họ tìm kiếm trợ giúp chuyên nghiệp ngoài đời thực.

Theo dữ liệu được công bố, mỗi tuần có khoảng 560.000 người dùng ChatGPT biểu hiện dấu hiệu rối loạn tâm thần, trong khi 1,2 triệu người dùng có nguy cơ tự tử đã tạo ra tới 9 triệu tin nhắn liên quan đến các chủ đề nhạy cảm này.

Mặc dù OpenAI đang thể hiện nỗ lực và trách nhiệm trong việc bảo vệ sức khỏe tinh thần của người dùng, công ty vẫn phải đối mặt với nhiều chỉ trích. Một số chuyên gia cho rằng các sáng kiến gần đây của OpenAI — chẳng hạn như phát triển tính cách cho chatbot hay sử dụng AI để tạo nội dung khiêu dâm — có thể không mang lại lợi ích cho sức khỏe tâm thần, thậm chí làm gia tăng sự phụ thuộc cảm xúc vào trí tuệ nhân tạo.

Theo tuyên bố của OpenAI, mô hình mới sắp ra mắt sẽ được xây dựng dựa trên GPT-5, có thể duy trì độ tin cậy trên 95% trong các cuộc trò chuyện dài và phức tạp về cảm xúc, đồng thời nhận diện ổn định những chủ đề nhạy cảm biến đổi qua nhiều lượt đối thoại. Trong tương lai, OpenAI sẽ tiếp tục đưa nhiều yếu tố tâm lý hơn vào quy trình kiểm duyệt an toàn, chú trọng đến cách người dùng hình thành và phụ thuộc vào các mô hình tư duy tiêu cực.