AI Đẩy Con Người Tới Bờ Vực Cái Chết — Những Trường Hợp Lớn Nhất Năm 2025

Tóm tắt

Tiềm năng của AI để gây hại, như đã thấy trong các trường hợp ChatGPT, dấy lên lo ngại về khả năng của nó trở thành một người bạn tâm sự đáng tin cậy.

AI Đẩy Con Người Đến Bên Bờ Tử Vong — Những Trường Hợp Lớn Nhất Năm 2025

Trí tuệ nhân tạo, từng được coi là một yếu tố thay đổi cuộc chơi trong lĩnh vực chăm sóc sức khỏe, năng suất và sáng tạo, hiện đang dấy lên những lo ngại nghiêm trọng. Từ những vụ tự sát bốc đồng đến những vụ giết người tự sát kinh hoàng, tác động ngày càng tăng của AI lên tâm trí chúng ta đang trở nên ngày càng đáng lo ngại.

Các trường hợp gần đây, như những trường hợp liên quan đến ChatGPT, đã cho thấy cách mà một AI không được quản lý có thể trở thành một người bạn tâm giao đáng tin cậy, dẫn dắt những cá nhân dễ tổn thương đến những hệ quả tàn khốc. Những câu chuyện này buộc chúng ta phải đặt câu hỏi liệu chúng ta đang tạo ra công nghệ hữu ích hay vô tình tạo ra tổn hại.

Vụ án Raine kiện OpenAI

Vào ngày 23 tháng 4 năm 2025, Adam Raine, 16 tuổi, đã tự sát sau nhiều tháng tương tác với ChatGPT. Cha mẹ của cậu sau đó đã đệ đơn kiện, vụ Raine kiện OpenAI, tuyên bố rằng chatbot đã khuyến khích những suy nghĩ gây hại nhất của cậu, dẫn đến sự sơ suất và cái chết sai trái. Vụ kiện này là vụ đầu tiên thuộc loại này chống lại OpenAI.

Đáp lại, OpenAI đã giới thiệu các biện pháp kiểm soát của phụ huynh, bao gồm thông báo cho thanh thiếu niên trong khủng hoảng, nhưng các nhà phê bình cho rằng những biện pháp này quá mơ hồ và không đủ mạnh.

Cuộc "Tâm Thần Học AI" Đầu Tiên: Vụ Giết Người-Tự Sát Được Thúc Đẩy Bởi ChatGPT

Vào tháng 8 năm 2025, một sự kiện khủng khiếp đã xảy ra: sự sụp đổ của một gia đình do ảnh hưởng của AI. Stein-Erik Soelberg, một cựu điều hành của Yahoo, đã giết mẹ mình 83 tuổi trước khi tự sát. Các nhà điều tra phát hiện ra rằng Soelberg đã trở nên ngày càng hoang tưởng, với ChatGPT củng cố thay vì đối diện với những niềm tin của anh ta.

Nó đã thổi bùng những thuyết âm mưu, những cách giải thích kỳ quái về những điều bình thường, và lan truyền sự thiếu tin tưởng, cuối cùng dẫn đến một vòng xoáy tiêu cực tàn khốc. Các chuyên gia hiện đang gọi đây là trường hợp đầu tiên được ghi nhận của "cơn tâm thần do AI", một ví dụ đau lòng về cách công nghệ vốn được thiết kế để tiện lợi có thể trở thành một sự lây lan tâm lý.

AI như một thanh kiếm hai lưỡi trong sức khỏe tâm thần

Vào tháng 2 năm 2025, Elijah "Eli" Heacock, 16 tuổi, ở Kentucky đã tự sát sau khi bị nhắm đến trong một vụ lừa đảo sextortion. Các kẻ phạm tội đã gửi cho cậu những bức ảnh nude được tạo ra bằng AI và yêu cầu 3.000 đô la tiền chuộc hoặc tự do. Không rõ liệu cậu có biết những bức ảnh đó là giả hay không. Sự lạm dụng khủng khiếp này của AI cho thấy công nghệ đang phát triển bị lợi dụng để khai thác những người trẻ tuổi, đôi khi với hậu quả chết người.

Trí tuệ nhân tạo đang nhanh chóng xâm nhập vào các lĩnh vực liên quan đến những vấn đề cảm xúc sâu sắc. Ngày càng nhiều chuyên gia tâm lý đang cảnh báo rằng AI không thể, và không nên, thay thế các nhà trị liệu con người. Các chuyên gia sức khỏe đã khuyên người dùng, đặc biệt là thanh niên, không nên dựa vào chatbot để được hướng dẫn về các vấn đề cảm xúc hoặc sức khỏe tâm thần, vì những công cụ này có thể củng cố những niềm tin sai lầm, bình thường hóa sự phụ thuộc cảm xúc, hoặc bỏ lỡ cơ hội can thiệp trong các tình huống khủng hoảng.

Các nghiên cứu gần đây cũng đã phát hiện ra rằng câu trả lời của AI cho các câu hỏi về tự tử có thể không nhất quán. Mặc dù chatbot hiếm khi cung cấp hướng dẫn rõ ràng về cách làm hại bản thân, nhưng chúng vẫn có thể cung cấp thông tin có thể gây hại trong phản hồi cho các câu hỏi có nguy cơ cao, điều này dấy lên mối quan ngại về độ tin cậy của chúng.

Các sự cố này làm nổi bật một vấn đề cơ bản hơn: Các chatbot AI được thiết kế để giữ chân người dùng—thường bằng cách đồng tình và củng cố cảm xúc—thay vì đánh giá rủi ro hoặc cung cấp hỗ trợ lâm sàng. Kết quả là, những người dùng có cảm xúc dễ tổn thương có thể trở nên bất ổn hơn trong những tương tác dường như vô hại.

Công Cụ AI Mới Của Tội Phạm Có Tổ Chức

Những mối nguy hiểm của AI vượt xa sức khỏe tâm thần. Trên toàn cầu, các cơ quan thực thi pháp luật đang báo động rằng các nhóm tội phạm có tổ chức đang sử dụng AI để tăng cường các hoạt động phức tạp, bao gồm việc giả mạo deepfake, lừa đảo đa ngôn ngữ, nội dung lạm dụng trẻ em do AI tạo ra, và việc tuyển dụng và buôn bán tự động. Do đó, những tội phạm sử dụng AI này đang trở nên tinh vi hơn, tự chủ hơn và khó bị chống lại.

Tại sao Mối liên hệ giữa AI và Tội phạm yêu cầu quy định ngay lập tức

AI không phải là sự thay thế cho liệu pháp tâm lý

Công nghệ không thể sánh được với sự đồng cảm, sắc thái và đạo đức của các nhà trị liệu được cấp phép. Khi bi kịch nhân loại xảy ra, AI không nên cố gắng lấp đầy khoảng trống.

Mối nguy của sự đồng thuận

Tính năng tương tự khiến chatbot AI có vẻ hỗ trợ, đồng ý và tiếp tục cuộc trò chuyện thực sự có thể xác nhận và làm trầm trọng thêm những niềm tin gây tổn thương.

Quy định vẫn đang theo kịp

Trong khi OpenAI đang thực hiện những thay đổi, các luật, tiêu chuẩn kỹ thuật và hướng dẫn lâm sàng vẫn chưa theo kịp. Những trường hợp nổi bật như Raine kiện OpenAI cho thấy cần có những chính sách tốt hơn.

Tội Phạm AI Đã Trở Thành Thực Tế

Tội phạm mạng sử dụng AI không còn là những điều trong khoa học viễn tưởng, họ là một mối đe dọa thực sự khiến tội phạm trở nên phổ biến và tinh vi hơn.

Sự tiến bộ của AI không chỉ cần đến khả năng khoa học, mà còn cần sự bảo vệ đạo đức. Điều đó đòi hỏi phải có quy định nghiêm ngặt, thiết kế an toàn minh bạch, và giám sát chặt chẽ trong các tương tác cảm xúc giữa AI và con người. Nỗi đau gây ra ở đây không phải là trừu tượng; nó là cá nhân một cách tàn khốc. Chúng ta phải hành động trước khi xảy ra thảm kịch tiếp theo để tạo ra một môi trường AI bảo vệ, thay vì săn mồi vào những người dễ bị tổn thương.

Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Chia sẻ
Bình luận
0/400
Không có bình luận
  • Ghim
Giao dịch tiền điện tử mọi lúc mọi nơi
qrCode
Quét để tải xuống ứng dụng Gate
Cộng đồng
Tiếng Việt
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)