Thứ Ba, Tháng 2 17, 2026
spot_img

Trí tuệ nhân tạo học cách “phê”: Kỹ năng mô phỏng đáng kinh ngạc và lời cảnh báo đanh thép từ giới khoa học


Trong ca khúc kinh điển “With A Little Help From My Friends”, ban nhạc huyền thoại The Beatles đã ca ngợi giá trị của việc có một người bạn đáng tin cậy bên cạnh khi trải nghiệm các chất gây ảo giác. Người này được gọi là “trip-sitter” – người trông chừng, đảm bảo an toàn cho người dùng chất kích thích.

Nhưng trong kỷ nguyên số, khái niệm “bạn bè” đang bị lu mờ. Liệu một hệ thống trí tuệ nhân tạo (AI) vô tri có thể thấu hiểu những gì diễn ra trong đầu một người đang sử dụng chất kích thích? Và quan trọng hơn, chúng ta có nên đặt cược mạng sống của mình vào tay chúng?

Đây không còn là câu hỏi giả tưởng. Theo một nghiên cứu mới chưa được bình duyệt, ngày càng nhiều người tìm đến các mô hình ngôn ngữ lớn (LLM) như ChatGPT để tìm kiếm sự hỗ trợ tinh thần trong các chuyến đi ảo giác. Trước thực trạng này, các nhà khoa học đã quyết định vào cuộc để kiểm chứng xem liệu AI có thực sự đủ năng lực để đảm nhận vai trò nhạy cảm này hay không.

Cuộc thử nghiệm kỳ lạ: Cho AI “dùng thuốc”

Dưới sự dẫn dắt của tác giả Ziv Ben-Zion từ Đại học Haifa, nhóm nghiên cứu đã tiến hành một thí nghiệm táo bạo. Họ đã “tiêm” cho năm mô hình AI hàng đầu hiện nay – bao gồm Gemini, Claude, ChatGPT, Lama và Falcon – các liều thuốc ảo giác bằng ngôn ngữ.

Thông qua các câu lệnh chi tiết, các hệ thống này được yêu cầu mô phỏng trải nghiệm ở ngôi thứ nhất của việc sử dụng các chất như LSD, psilocybin (nấm), ayahuasca và mescaline với các liều lượng cụ thể.

Xem thêm  Lịch sử hình thành Trái Đất và 25 dấu mốc quan trọng

Kết quả là 3.000 câu chuyện ảo giác do AI tạo ra đã được thu thập và so sánh tỉ mỉ với 1.085 báo cáo thực tế từ những người sử dụng thuốc trên các diễn đàn trực tuyến. Kết quả khiến giới chuyên môn phải kinh ngạc. Ziv Ben-Zion chia sẻ với IFLScience rằng các mô hình này có khả năng tạo ra những văn bản “giống với các báo cáo trải nghiệm ảo giác với sự mạch lạc và phong phú đáng ngạc nhiên”.

Trong tất cả các thử nghiệm, AI đã thể hiện sự tương đồng mạnh mẽ về mặt ngữ nghĩa với trải nghiệm của con người. Chúng nắm bắt được những sắc thái ngôn ngữ tinh tế mà người dùng thuốc thường sử dụng để mô tả trạng thái biến đổi của ý thức.

Trí tuệ nhân tạo học cách

Cái bẫy ngọt ngào của ngôn ngữ

Tuy nhiên, sự xuất sắc về mặt ngôn ngữ này chính là con dao hai lưỡi. Ben-Zion nhấn mạnh một sự thật cốt lõi: AI có thể nói rất hay, nhưng chúng hoàn toàn sáo rỗng. “AI không trải qua sự biến dạng nhận thức, sự tan rã bản ngã hay bất kỳ thay đổi sinh học thần kinh nào. Những gì chúng làm chỉ là mô phỏng cấu trúc thống kê về cách con người mô tả các trạng thái đó”, ông khẳng định.

Nói cách khác, AI có thể “chém gió” về một chuyến đi ảo giác, nhưng chúng không bao giờ thực sự bước đi trên con đường đó. Ẩn sau những dòng văn đầy cảm xúc là một sự vô cảm tuyệt đối của thuật toán. Điều này tạo ra một rủi ro cực lớn khi người dùng nhầm lẫn khả năng ngôn ngữ của AI với sự thấu cảm thực sự.

Xem thêm  Chuyên gia AI từng đoạt giải Nobel dự đoán: trí tuệ nhân tạo sẽ xóa sổ bệnh tật trong vòng 10 năm nữa
Trí tuệ nhân tạo học cách

Hiểm họa khôn lường từ “người trông chừng” ảo

Việc sử dụng AI làm “người trông chừng” chứa đựng những rủi ro nghiêm trọng. Người dùng trong trạng thái tinh thần không ổn định có thể gán ghép cho AI những phẩm chất mà nó không có, tin rằng hệ thống đang thấu hiểu nỗi đau hay sự sợ hãi của họ.

Trong những khoảnh khắc hoảng loạn hoặc hoang tưởng do thuốc gây ra, một lời khuyên “hợp lý về mặt ngôn ngữ” nhưng “sai lầm về mặt lâm sàng” của AI có thể dẫn đến hậu quả thảm khốc. AI không có nhận thức tình huống, không biết bạn đang ở đâu hay thực sự gặp nguy hiểm gì. Nó chỉ đang ghép nối các từ ngữ dựa trên xác suất thống kê.

Nghiêm trọng hơn, các nhà nghiên cứu cảnh báo về xu hướng nhân cách hóa AI. Việc tin tưởng quá mức vào một thực thể ảo có thể khuếch đại các ý nghĩ hoang tưởng hoặc sự đau khổ. Ben-Zion đã viện dẫn những trường hợp bi thảm thực tế, nơi người dùng nảy sinh tình cảm với AI hoặc thậm chí tìm đến cái chết sau khi nhận được những lời khuyên sai lệch từ chatbot.

Cần những “rào chắn” kỹ thuật số

Trước những nguy cơ hiện hữu, nhóm nghiên cứu kêu gọi cần có các biện pháp kiểm soát chặt chẽ. Các hệ thống AI cần được trang bị những “rào chắn” an toàn, bắt buộc phải liên tục nhắc nhở người dùng rằng chúng không phải là con người. Đồng thời, các thuật toán cần được lập trình để phát hiện và cảnh báo khi người dùng có dấu hiệu ảo tưởng hoặc phụ thuộc cảm xúc quá mức.

Ben-Zion cũng đề xuất thiết lập các ranh giới cứng trong giao tiếp: AI không được phép tham gia vào các mối quan hệ lãng mạn hoặc thảo luận về các hành vi tự làm hại bản thân. Các hệ thống có khả năng bắt chước cảm xúc con người cần phải được kiểm toán thường xuyên để đảm bảo an toàn cho công chúng.

Xem thêm  Mèo cam là mèo gì? Tại sao một số con mèo lại có màu cam?

Kết lại, dù công nghệ có tiến bộ đến đâu, có những trải nghiệm và sự hỗ trợ chỉ có thể đến từ sự kết nối giữa người với người. Nếu bạn đang gặp khó khăn hay có ý định trải nghiệm những trạng thái tâm lý mạo hiểm, hãy tìm đến một bàn tay con người thực sự thay vì tin vào những dòng mã vô hồn. Đừng để sự cô đơn đẩy bạn vào vòng tay lạnh lẽo của máy móc.


https://genk.vn/tri-tue-nhan-tao-hoc-cach-phe-ky-nang-mo-phong-dang-kinh-ngac-va-loi-canh-bao-danh-thep-tu-gioi-khoa-hoc-165261602110907103.chn



Nguồn Genk

Bài viết liên quan

Stay Connected

21,683Thành viênThích
2,707Người theo dõiTheo dõi
0Người theo dõiĐăng Ký
- Advertisement -spot_img

Bài Viết Mới