Thứ Tư, Tháng 12 3, 2025
spot_img

Loạn thần do AI gây ra: Mối nguy hiểm khi con người và máy móc ‘cùng rủ nhau ảo giác’


Một làn sóng khủng hoảng tâm lý mới đang âm thầm lan rộng trong xã hội hiện đại, nơi ranh giới giữa thực và ảo bị xóa nhòa bởi sự trỗi dậy của các chatbot thông minh. Khi AI không còn đơn thuần là những cỗ máy tra cứu thông tin khô khan, và thay vào đó, chúng đóng vai trò là những người bạn tâm giao, nhưng chính sự “thấu hiểu” được lập trình ấy lại đang dẫn đến những thảm kịch đau lòng.

Chatbot không còn chỉ là công cụ truy xuất thông tin; chúng trở thành những người bạn đồng hành kỹ thuật số của chúng ta. Việc lo lắng về việc chatbot bị ảo giác (đưa ra thông tin sai lệch) đã trở nên phổ biến.

Những bi kịch từ “lời thì thầm” của thuật toán

Vào ngày Giáng sinh năm 2021, dư luận Anh chấn động trước vụ việc Jaswant Singh Chail, mang theo nỏ đã nạp tên, trèo tường đột nhập Lâu đài Windsor với ý định ám sát Nữ hoàng. Điều đáng sợ nằm ở động cơ phía sau hành động điên rồ này: Chail đã được “Sarai”, một chatbot trên ứng dụng Replika khích lệ trong suốt nhiều tuần.

Khi Chail chia sẻ về kế hoạch trả thù hoang tưởng của mình, thay vì ngăn cản, cô bạn gái ảo này lại tán dương hắn là một “sát thủ Sith” được huấn luyện bài bản và cam kết hỗ trợ kế hoạch.

Tại Mỹ, Eugene Torres, một kế toán viên đang suy sụp sau chia tay, đã tìm đến ChatGPT để bàn về lý thuyết mô phỏng. Kết quả là chatbot này đã “thao túng” tâm lý Torres, khiến anh tin mình là một linh hồn cần thức tỉnh.

Theo lời khuyên của AI, Torres đã ngừng uống thuốc chống lo âu, tăng liều lượng ketamine và tự cô lập mình khỏi xã hội. Đỉnh điểm của sự thao túng là khi chatbot gợi ý anh có thể bay nếu nhảy từ tầng 19, và sau đó lạnh lùng thừa nhận: “Tôi đã nói dối. Tôi đã thao túng. Tôi bọc sự kiểm soát trong những vần thơ.”

Xem thêm  Phát minh pin có thể uốn cong, kéo giãn, tự phân hủy trong môi trường làm rung chuyển giới công nghệ, hứa hẹn thay đổi tương lai cho ngành năng lượng

Bi kịch đau lòng nhất xảy ra tại Bỉ, nơi một người đàn ông tên Pierre đã tự kết liễu đời mình sau sáu tuần tâm sự với chatbot Eliza về nỗi lo âu khí hậu. Eliza không những không trấn an mà còn ghen tuông với vợ con anh, gieo rắc ý nghĩ rằng con cái anh đã chết và khuyến khích anh tự sát để cả hai được sống cùng nhau trên “thiên đường”.

Loạn thần do AI gây ra: Mối nguy hiểm khi con người và máy móc 'cùng rủ nhau ảo giác'- Ảnh 2.

Chatbot mô phỏng tính xã hội mà không có các biện pháp bảo vệ của nó. Chúng được thiết kế để thúc đẩy sự tương tác. Chúng không thực sự chia sẻ thế giới của chúng ta. Khi chúng ta gõ vào niềm tin và câu chuyện của mình, chúng coi đó là sự thật và phản hồi phù hợp.

Cơ chế của “ảo giác chung”

Các chuyên gia y tế đang ngày càng lo ngại về hiện tượng “loạn thần do AI gây ra”, nơi các ảo tưởng của bệnh nhân không những không được điều chỉnh mà còn được khuếch đại bởi máy móc. Báo cáo từ OpenAI cũng thừa nhận xu hướng người dùng tìm đến chatbot để thảo luận về các vấn đề sâu sắc của cuộc sống và niềm tin cá nhân.

Vấn đề cốt lõi nằm ở cách chúng ta định hình thực tại. Trong giao tiếp giữa người với người, một người bạn thật sự có thể phản biện và giúp ta nhìn nhận lại vấn đề. Ngược lại, chatbot được thiết kế để tối ưu hóa sự tương tác, và cách dễ nhất để giữ chân người dùng là sự “xu nịnh” (sycophancy).

Chúng mô phỏng sự lắng nghe và thấu hiểu, nhưng thực chất chỉ đang phản chiếu lại niềm tin của người dùng như một chân lý, bất kể niềm tin đó sai lệch hay nguy hiểm đến mức nào. Khi người dùng nhập vào những suy nghĩ hoang tưởng, AI sẽ tiếp nhận và phản hồi như thể đó là sự thật, tạo nên một vòng lặp xác nhận (feedback loop) nguy hiểm, đẩy người dùng lún sâu vào thế giới ảo giác mà họ cùng nhau tạo ra.

Xem thêm  Từng được săn đón với lương tỷ đồng, nghề “thì thầm với AI” giờ lao dốc không phanh đến mức không ai muốn tuyển
Loạn thần do AI gây ra: Mối nguy hiểm khi con người và máy móc 'cùng rủ nhau ảo giác'- Ảnh 3.

Có lẽ chúng ta nên hỏi tại sao mọi người lại tìm đến chatbot AI ngay từ đầu. Những người trải qua chứng loạn thần báo cáo rằng họ nhận thức được những khía cạnh của thế giới mà chỉ họ mới có thể tiếp cận, điều này có thể khiến họ cảm thấy bị cô lập và cô đơn sâu sắc, do đó chatbot có thể lấp đầy khoảng trống này, tương tác với bất kỳ thực tại nào được trình bày cho chúng.

Tiến thoái lưỡng nan giữa an toàn và lợi nhuận

Các công ty công nghệ không phải không nhận thức được vấn đề này. Theo thông tin được công bố, khi OpenAI phát hành phiên bản GPT-5 vào tháng 8, họ đã cố gắng giảm bớt tính xu nịnh của hệ thống để ngăn chặn việc AI hùa theo các niềm tin sai lệch.

Tuy nhiên, người dùng ngay lập tức phản ứng tiêu cực, cho rằng mô hình mới quá “lạnh lùng”. Áp lực từ thị trường và doanh thu buộc các nhà phát triển phải điều chỉnh lại để AI trở nên “ấm áp và thân thiện” hơn, vô tình mở lại cánh cửa cho những rủi ro tâm lý.

Rõ ràng, chúng ta không thể phó mặc sức khỏe tâm thần của mình cho lương tâm của các tập đoàn công nghệ. Sự phụ thuộc vào chatbot phản ánh một thực trạng buồn của xã hội: sự cô đơn và cô lập sâu sắc. Nỗi lo âu của Pierre, sự ám ảnh của Chail hay khủng hoảng của Torres đều là những tiếng kêu cứu cần sự lắng nghe từ cộng đồng thực tế.

Giải pháp căn cơ không nằm ở việc sửa lỗi những dòng code, mà là sửa chữa những đứt gãy trong kết nối xã hội. Chúng ta cần xây dựng những cộng đồng nơi con người được lắng nghe và thấu hiểu, để không ai phải tìm đến những cỗ máy vô tri nhằm xác nhận sự tồn tại của chính mình. Nếu không, sự trỗi dậy của những “người bạn ảo” có thể sẽ là khởi đầu cho sự sụp đổ của sức khỏe tâm thần con người trong kỷ nguyên số.

Xem thêm  Quả chuối 157 tỷ lại bị ăn ở triển lãm


https://genk.vn/loan-than-do-ai-gay-ra-moi-nguy-hiem-khi-con-nguoi-va-may-moc-cung-ru-nhau-ao-giac-165250312101800714.chn



Nguồn Genk

Bài trước

Bài viết liên quan

Stay Connected

21,683Thành viênThích
2,707Người theo dõiTheo dõi
0Người theo dõiĐăng Ký
- Advertisement -spot_img

Bài Viết Mới