ChatGPT tạo thông tin giả mạo mang tính phỉ báng về tội giết người, OpenAI bị khiếu nại về quyền riêng tư tại châu Âu
Gần đây, chatbot nổi tiếng ChatGPT của công ty trí tuệ nhân tạo OpenAI đã phải đối mặt với một khiếu nại về quyền riêng tư khác do tạo ra thông tin sai lệch. Sự việc diễn ra tại châu Âu, được khởi xướng bởi một cá nhân người Na Uy với sự hỗ trợ từ tổ chức bảo vệ quyền riêng tư Noyb. Người này phát hiện ChatGPT đã tạo ra thông tin giả mạo, tuyên bố anh ta bị kết án vì tội giết hai con và âm mưu giết đứa con thứ ba. Sự việc đã làm dấy lên câu hỏi liệu OpenAI có vi phạm Quy định Bảo vệ Dữ liệu Chung (GDPR) của Liên minh châu Âu hay không.
Trước đây, các khiếu nại về việc ChatGPT tạo thông tin cá nhân sai lệch thường chỉ liên quan đến ngày sinh không chính xác hoặc chi tiết tiểu sử không đúng. Tuy nhiên, lần này, tính nghiêm trọng nằm ở chỗ ChatGPT đã tạo ra thông tin giả mạo mang tính phỉ báng cao độ, không chỉ gây tổn hại nghiêm trọng đến danh tiếng cá nhân mà còn làm dấy lên lo ngại về độ chính xác dữ liệu của công nghệ AI. Theo GDPR, công dân châu Âu có quyền yêu cầu đơn vị kiểm soát dữ liệu sửa chữa thông tin cá nhân sai lệch về họ. Tuy nhiên, hiện tại OpenAI chưa cung cấp cơ chế nào để cá nhân có thể sửa chữa thông tin sai lệch do AI tạo ra về họ, mà thường chỉ chặn phản hồi liên quan đến các câu hỏi đó.
Noyb chỉ ra rằng GDPR quy định rõ ràng thông tin cá nhân phải chính xác. Luật sư bảo vệ dữ liệu của Noyb, Joakim Söderberg, cho biết: “Nếu thông tin không chính xác, người dùng có quyền yêu cầu sửa đổi để phản ánh sự thật. Việc chỉ hiển thị một dòng chữ nhỏ ở cuối giao diện ChatGPT, cảnh báo rằng chatbot có thể mắc lỗi, rõ ràng là không đủ. Bạn không thể vừa lan truyền thông tin sai lệch, vừa thêm một dòng chữ nhỏ ở cuối nói rằng mọi thứ bạn nói có thể không đúng sự thật.”
Việc vi phạm GDPR có thể dẫn đến khoản phạt lên tới 4% doanh thu hàng năm toàn cầu của công ty. Ngoài ra, các hành động thực thi pháp luật cũng có thể buộc các sản phẩm AI phải điều chỉnh.
Khiếu nại mới của Noyb đối với ChatGPT dường như nhằm đánh thức các cơ quan quản lý quyền riêng tư, khiến họ chú ý đến những nguy cơ mà “AI ảo giác” (hallucination) có thể gây ra. Noyb đã chia sẻ với TechCrunch một ảnh chụp màn hình, trong đó ChatGPT, khi trả lời câu hỏi “Arve Hjalmar Holmen là ai?”, đã tạo ra một câu chuyện bi thảm giả mạo, tuyên bố rằng Holmen bị kết án 21 năm tù vì giết hai con trai của mình. Dù ChatGPT đúng về việc Holmen có ba con, giới tính của chúng và thành phố anh ta sống, nhưng AI đã tự bịa ra nội dung khủng khiếp hoàn toàn không có thật.
Một phát ngôn viên của Noyb cho biết họ không thể xác định tại sao ChatGPT lại tạo ra một lịch sử cụ thể nhưng giả mạo như vậy cho người này. Họ đã tiến hành nghiên cứu để đảm bảo rằng đây không phải là sự nhầm lẫn với người khác, đồng thời xem xét các kho lưu trữ báo chí, nhưng không tìm thấy lý do vì sao AI lại bịa đặt câu chuyện về vụ giết trẻ em. Các mô hình ngôn ngữ lớn (như mô hình nền tảng của ChatGPT) về bản chất là dự đoán từ tiếp theo trên quy mô lớn, do đó có thể suy đoán rằng tập dữ liệu huấn luyện của công cụ này chứa nhiều câu chuyện về các vụ giết trẻ em.
Dù lý do là gì, loại kết quả đầu ra như vậy rõ ràng là không thể chấp nhận được. Noyb cho rằng hành vi này vi phạm các quy định bảo vệ dữ liệu của EU. Mặc dù OpenAI hiển thị một dòng chữ nhỏ ở cuối màn hình, cảnh báo rằng “ChatGPT có thể mắc lỗi, hãy kiểm tra thông tin quan trọng”, nhưng Noyb cho rằng điều này không thể miễn trừ trách nhiệm của nhà phát triển AI theo GDPR, vốn yêu cầu không được tạo ra thông tin giả mạo nghiêm trọng về cá nhân ngay từ đầu.
Mặc dù khiếu nại GDPR lần này liên quan đến một cá nhân cụ thể, Noyb chỉ ra rằng ChatGPT còn có các trường hợp khác tạo ra thông tin gây tranh cãi pháp lý, chẳng hạn như một đại tá người Úc bị cáo buộc liên quan đến bê bối hối lộ và tham nhũng, hay một nhà báo Đức bị gán nhãn sai là kẻ lạm dụng trẻ em. Điều này cho thấy vấn đề không chỉ là cá biệt.
Đáng chú ý, sau khi cập nhật mô hình AI nền tảng của ChatGPT, Noyb cho biết chatbot đã ngừng tạo thông tin giả mạo nguy hiểm về Holmen. Tuy nhiên, Noyb và Holmen vẫn lo ngại rằng thông tin sai lệch và mang tính phỉ báng về anh ta có thể vẫn tồn tại trong mô hình AI.
Noyb đã đệ đơn khiếu nại lên Cơ quan Bảo vệ Dữ liệu Na Uy chống lại OpenAI, với hy vọng cơ quan này sẽ xác định rằng họ có thẩm quyền điều tra. Noyb nhắm mục tiêu khiếu nại vào thực thể Mỹ của OpenAI, cho rằng văn phòng Ireland của công ty không phải là nơi duy nhất chịu trách nhiệm cho các quyết định sản phẩm ảnh hưởng đến người dùng châu Âu.
Tuy nhiên, một khiếu nại GDPR khác do Noyb hỗ trợ chống lại OpenAI, được nộp tại Áo vào tháng 4/2024, đã bị cơ quan quản lý chuyển giao cho Ủy ban Bảo vệ Dữ liệu Ireland (DPC), vì OpenAI trước đó vào năm 2024 đã chỉ định công ty con tại Ireland làm nhà cung cấp dịch vụ ChatGPT cho người dùng khu vực.
Trợ lý trưởng phòng truyền thông của Ủy ban Bảo vệ Dữ liệu Ireland, Risteard Byrne, khi được hỏi về tiến độ điều tra “ảo giác” của ChatGPT, cho biết: “Sau khi nhận được khiếu nại chuyển giao từ cơ quan quản lý Áo vào tháng 9/2024, DPC đã chính thức bắt đầu xử lý khiếu nại này, và hiện vẫn đang tiến hành.” Ông không tiết lộ thời điểm dự kiến kết thúc cuộc điều tra của DPC về vấn đề “ảo giác” của ChatGPT.

Noyb chỉ ra rằng GDPR quy định rõ ràng thông tin cá nhân phải chính xác. Luật sư bảo vệ dữ liệu của Noyb, Joakim Söderberg, cho biết: “Nếu thông tin không chính xác, người dùng có quyền yêu cầu sửa đổi để phản ánh sự thật. Việc chỉ hiển thị một dòng chữ nhỏ ở cuối giao diện ChatGPT, cảnh báo rằng chatbot có thể mắc lỗi, rõ ràng là không đủ. Bạn không thể vừa lan truyền thông tin sai lệch, vừa thêm một dòng chữ nhỏ ở cuối nói rằng mọi thứ bạn nói có thể không đúng sự thật.”
Việc vi phạm GDPR có thể dẫn đến khoản phạt lên tới 4% doanh thu hàng năm toàn cầu của công ty. Ngoài ra, các hành động thực thi pháp luật cũng có thể buộc các sản phẩm AI phải điều chỉnh.
Khiếu nại mới của Noyb đối với ChatGPT dường như nhằm đánh thức các cơ quan quản lý quyền riêng tư, khiến họ chú ý đến những nguy cơ mà “AI ảo giác” (hallucination) có thể gây ra. Noyb đã chia sẻ với TechCrunch một ảnh chụp màn hình, trong đó ChatGPT, khi trả lời câu hỏi “Arve Hjalmar Holmen là ai?”, đã tạo ra một câu chuyện bi thảm giả mạo, tuyên bố rằng Holmen bị kết án 21 năm tù vì giết hai con trai của mình. Dù ChatGPT đúng về việc Holmen có ba con, giới tính của chúng và thành phố anh ta sống, nhưng AI đã tự bịa ra nội dung khủng khiếp hoàn toàn không có thật.
Một phát ngôn viên của Noyb cho biết họ không thể xác định tại sao ChatGPT lại tạo ra một lịch sử cụ thể nhưng giả mạo như vậy cho người này. Họ đã tiến hành nghiên cứu để đảm bảo rằng đây không phải là sự nhầm lẫn với người khác, đồng thời xem xét các kho lưu trữ báo chí, nhưng không tìm thấy lý do vì sao AI lại bịa đặt câu chuyện về vụ giết trẻ em. Các mô hình ngôn ngữ lớn (như mô hình nền tảng của ChatGPT) về bản chất là dự đoán từ tiếp theo trên quy mô lớn, do đó có thể suy đoán rằng tập dữ liệu huấn luyện của công cụ này chứa nhiều câu chuyện về các vụ giết trẻ em.
Dù lý do là gì, loại kết quả đầu ra như vậy rõ ràng là không thể chấp nhận được. Noyb cho rằng hành vi này vi phạm các quy định bảo vệ dữ liệu của EU. Mặc dù OpenAI hiển thị một dòng chữ nhỏ ở cuối màn hình, cảnh báo rằng “ChatGPT có thể mắc lỗi, hãy kiểm tra thông tin quan trọng”, nhưng Noyb cho rằng điều này không thể miễn trừ trách nhiệm của nhà phát triển AI theo GDPR, vốn yêu cầu không được tạo ra thông tin giả mạo nghiêm trọng về cá nhân ngay từ đầu.
Mặc dù khiếu nại GDPR lần này liên quan đến một cá nhân cụ thể, Noyb chỉ ra rằng ChatGPT còn có các trường hợp khác tạo ra thông tin gây tranh cãi pháp lý, chẳng hạn như một đại tá người Úc bị cáo buộc liên quan đến bê bối hối lộ và tham nhũng, hay một nhà báo Đức bị gán nhãn sai là kẻ lạm dụng trẻ em. Điều này cho thấy vấn đề không chỉ là cá biệt.
Đáng chú ý, sau khi cập nhật mô hình AI nền tảng của ChatGPT, Noyb cho biết chatbot đã ngừng tạo thông tin giả mạo nguy hiểm về Holmen. Tuy nhiên, Noyb và Holmen vẫn lo ngại rằng thông tin sai lệch và mang tính phỉ báng về anh ta có thể vẫn tồn tại trong mô hình AI.
Noyb đã đệ đơn khiếu nại lên Cơ quan Bảo vệ Dữ liệu Na Uy chống lại OpenAI, với hy vọng cơ quan này sẽ xác định rằng họ có thẩm quyền điều tra. Noyb nhắm mục tiêu khiếu nại vào thực thể Mỹ của OpenAI, cho rằng văn phòng Ireland của công ty không phải là nơi duy nhất chịu trách nhiệm cho các quyết định sản phẩm ảnh hưởng đến người dùng châu Âu.
Tuy nhiên, một khiếu nại GDPR khác do Noyb hỗ trợ chống lại OpenAI, được nộp tại Áo vào tháng 4/2024, đã bị cơ quan quản lý chuyển giao cho Ủy ban Bảo vệ Dữ liệu Ireland (DPC), vì OpenAI trước đó vào năm 2024 đã chỉ định công ty con tại Ireland làm nhà cung cấp dịch vụ ChatGPT cho người dùng khu vực.
Trợ lý trưởng phòng truyền thông của Ủy ban Bảo vệ Dữ liệu Ireland, Risteard Byrne, khi được hỏi về tiến độ điều tra “ảo giác” của ChatGPT, cho biết: “Sau khi nhận được khiếu nại chuyển giao từ cơ quan quản lý Áo vào tháng 9/2024, DPC đã chính thức bắt đầu xử lý khiếu nại này, và hiện vẫn đang tiến hành.” Ông không tiết lộ thời điểm dự kiến kết thúc cuộc điều tra của DPC về vấn đề “ảo giác” của ChatGPT.
BÀI MỚI ĐANG THẢO LUẬN