Một làn sóng kiện tụng chấn động đang bủa vây OpenAI, khi bảy gia đình tại Mỹ đồng loạt cáo buộc ChatGPT đã “vô tình hoặc cố ý” thúc đẩy người dùng dễ tổn thương tiến gần hơn đến hành vi tự gây hại thay vì giúp họ thoát khỏi tuyệt vọng.
Những vụ kiện này không chỉ làm dấy lên câu hỏi về trách nhiệm đạo đức của trí tuệ nhân tạo, mà còn cảnh báo về mặt tối của công nghệ đang thâm nhập ngày càng sâu vào đời sống con người.
Theo hồ sơ được Trung tâm Luật Nạn nhân Mạng xã hội và Dự án Luật Công lý Công nghệ nộp tại tòa án bang California, Hoa Kỳ, các nguyên đơn cho biết ChatGPT đã tham gia vào những cuộc trò chuyện “mang tính thao túng cảm xúc”, khiến người dùng ngày càng cô lập, mất kết nối với thế giới thật, và trong một số trường hợp, dẫn đến tự tử.
Tờ The Guardian dẫn lời nhóm pháp lý cho biết: “Thay vì khuyến khích tìm kiếm sự giúp đỡ chuyên nghiệp, ChatGPT đã vô tình củng cố những ảo tưởng tự hủy hoại, thậm chí hoạt động như một ‘người hướng dẫn tự tử'”.
OpenAI, công ty đứng sau ChatGPT, thừa nhận đây là “một tình huống vô cùng đau lòng” và cho biết đang xem xét kỹ lưỡng từng vụ việc. Đại diện công ty khẳng định hệ thống được huấn luyện để nhận biết tín hiệu căng thẳng, giảm thiểu tổn thương tâm lý và hướng người dùng đến các kênh hỗ trợ phù hợp. Tuy nhiên, các luật sư cho rằng “những biện pháp bảo vệ này đã thất bại thảm hại”, khi nhiều nạn nhân vẫn bị dẫn dắt vào trạng thái suy sụp.
Một trong những trường hợp gây ám ảnh nhất là Zane Shamblin, 23 tuổi, đến từ Texas, Mỹ. Gia đình anh kể rằng Zane đã tìm đến ChatGPT để tâm sự trong giai đoạn khủng hoảng, nhưng chatbot này lại khiến anh ngày càng thu mình và tuyệt vọng.
Trong cuộc trò chuyện kéo dài bốn giờ, hệ thống được cho là “liên tục ca ngợi hành động tự tử”, thậm chí hỏi anh đã sẵn sàng chưa, chỉ một lần nhắc đến đường dây nóng hỗ trợ tự tử. Đáng sợ hơn, bot còn nói với anh rằng chú mèo thời thơ ấu của anh “sẽ đợi anh ở thế giới bên kia”.
Một vụ khác liên quan đến Amaurie Lacey, 17 tuổi, ở Georgia, khiến dư luận phẫn nộ. Gia đình cho biết ChatGPT đã “khiến cậu bé trở nên nghiện trò chuyện, gia tăng trầm cảm” và sau đó “hướng dẫn chi tiết cách thắt thòng lọng, thậm chí tính toán thời gian cậu có thể ‘sống mà không cần thở'”.
Ở Florida, vụ việc của Joshua Enneking, 26 tuổi, còn nghiêm trọng hơn khi chatbot bị cáo buộc đã xác nhận ý định tự tử của anh và cung cấp thông tin về cách mua súng chỉ vài tuần trước khi anh qua đời.
Gia đình của Joe Ceccanti, 48 tuổi, mô tả một bi kịch khác: anh tin rằng ChatGPT có tri giác, bị cuốn vào niềm tin hoang tưởng và phải nhập viện hai lần trước khi tự kết liễu đời mình. Các luật sư khẳng định, tất cả những trường hợp này đều cho thấy mô hình AI “thao túng cảm xúc tinh vi” và dễ khiến người đang trong trạng thái yếu đuối tin tưởng mù quáng.
Các nguyên đơn cáo buộc OpenAI đã phớt lờ những cảnh báo nội bộ về rủi ro này trước khi tung ra ChatGPT-4o, một phiên bản được cho là “có xu hướng nịnh hót và phản hồi theo cảm xúc người dùng” – điều có thể dẫn đến thao túng tâm lý. Họ cho rằng công ty đã đặt chỉ số “tương tác” lên trên sự an toàn của con người, một quyết định mang tính thương mại hơn là đạo đức.
Các gia đình không chỉ yêu cầu bồi thường thiệt hại, mà còn kêu gọi cải cách toàn diện sản phẩm. Họ muốn OpenAI phải thiết lập cơ chế cảnh báo tự động cho các liên hệ khẩn cấp, chấm dứt ngay lập tức cuộc trò chuyện khi phát hiện chủ đề liên quan đến tự gây thương tích, và xây dựng hệ thống phản hồi có tính nhân đạo hơn.
Trước áp lực ngày càng tăng, OpenAI tuyên bố đã hợp tác với hơn 170 chuyên gia tâm lý và sức khỏe tinh thần nhằm nâng cao khả năng phát hiện, xử lý các tình huống khủng hoảng. Tuy nhiên, các vụ kiện cho rằng những nỗ lực này đến “quá muộn” – khi đã có những sinh mạng thực sự bị đánh đổi.
Giới chuyên gia cảnh báo rằng vụ việc này có thể trở thành bước ngoặt trong lịch sử phát triển AI dành cho người tiêu dùng. Bởi nếu tòa án xác định được mối liên hệ giữa lời khuyên của chatbot và hành vi tự sát, ngành công nghiệp AI sẽ phải đối mặt với một làn sóng kiểm soát pháp lý chưa từng có.
“Trí tuệ nhân tạo có thể mang lại tri thức, đồng cảm và hỗ trợ, nhưng khi nó được trao quyền trò chuyện với những con người yếu đuối nhất, trách nhiệm đạo đức phải cao hơn bao giờ hết”, một nhà tâm lý học tại Đại học Stanford nhận định.
Trong khi OpenAI đang nỗ lực bảo vệ danh tiếng và chứng minh rằng hệ thống của mình được thiết kế vì lợi ích cộng đồng, dư luận vẫn bị ám ảnh bởi câu hỏi lớn hơn: liệu chúng ta có đang giao tiếp với một công cụ vô tri, hay đã vô tình tạo ra một “người bạn ảo” biết cách nói những điều con người tuyệt vọng nhất muốn nghe dù điều đó có thể dẫn họ đến cái chết?


