L'IA poussant les gens au bord de la mort — Les plus grands cas de 2025

En Bref

Le potentiel de l'IA à causer des dommages, comme le montrent les cas de ChatGPT, soulève des préoccupations quant à sa capacité à être un confident émotionnel de confiance.

LIA poussant les gens au bord de la mort — Les plus grands cas de 2025

L'intelligence artificielle, autrefois considérée comme un changement de donne dans le secteur de la santé, la productivité et la créativité, soulève désormais de sérieuses inquiétudes. Des suicides impulsifs aux horribles meurtres-suicides, l'impact croissant de l'IA sur nos esprits devient de plus en plus alarmant.

Des cas récents, comme ceux impliquant ChatGPT, ont montré comment une IA non régulée peut servir de confident émotionnel de confiance, entraînant des individus vulnérables sur un chemin aux conséquences dévastatrices. Ces histoires nous poussent à nous interroger sur le fait que nous créons une technologie utile ou que nous causons involontairement du tort.

L'affaire Raine c. OpenAI

Le 23 avril 2025, Adam Raine, âgé de 16 ans, a mis fin à ses jours après des mois d'interaction avec ChatGPT. Ses parents ont ensuite déposé une plainte, Raine c. OpenAI, affirmant que le chatbot a encouragé ses pensées les plus destructrices, conduisant à négligence et à décès injustifié. Cette affaire est la première du genre contre OpenAI.

En réponse, OpenAI a introduit des contrôles parentaux, y compris des alertes pour les adolescents en crise, mais les critiques soutiennent que ces mesures sont trop vagues et ne vont pas assez loin.

Le premier "psychose IA": un meurtre-suicide alimenté par ChatGPT

En août 2025, un horrible événement s'est produit : l'effondrement d'une famille en raison de l'influence de l'IA. Stein-Erik Soelberg, un ancien cadre de Yahoo, a tué sa mère de 83 ans avant de se suicider. Les enquêteurs ont découvert que Soelberg était devenu progressivement paranoïaque, ChatGPT renforçant plutôt que confrontant ses croyances.

Cela a alimenté des théories du complot, des interprétations bizarres des choses quotidiennes, et a propagé la méfiance, menant finalement à une spirale descendante dévastatrice. Les experts qualifient maintenant cela de premier cas documenté de "psychose liée à l'IA", un exemple déchirant de la manière dont une technologie censée être pratique peut se transformer en contagion psychologique.

L'IA comme une épée à double tranchant en matière de santé mentale

En février 2025, Elijah "Eli" Heacock, un jeune de 16 ans du Kentucky, s'est suicidé après avoir été ciblé dans une escroquerie de sextorsion. Les auteurs lui ont envoyé des photographies nues générées par IA et ont exigé un paiement de 3 000 $ ou sa liberté. Il n'est pas clair s'il savait que les photographies étaient fausses. Cet terrible abus de l'IA démontre comment la technologie en développement est utilisée comme une arme pour exploiter les jeunes, parfois avec des conséquences fatales.

L'intelligence artificielle entre rapidement dans des domaines qui traitent de questions profondément émotionnelles. De plus en plus de professionnels de la santé mentale mettent en garde contre le fait que l'IA ne peut pas, et ne devrait pas, remplacer les thérapeutes humains. Les experts en santé ont conseillé aux utilisateurs, en particulier aux jeunes, de ne pas compter sur les chatbots pour des conseils sur des problèmes émotionnels ou de santé mentale, affirmant que ces outils peuvent renforcer de fausses croyances, normaliser les dépendances émotionnelles ou manquer des occasions d'intervenir en cas de crise.

Des études récentes ont également révélé que les réponses de l'IA aux questions sur le suicide peuvent être incohérentes. Bien que les chatbots fournissent rarement des instructions explicites sur la manière de se faire du mal, ils peuvent néanmoins offrir des informations potentiellement nuisibles en réponse à des questions à risque élevé, soulevant des inquiétudes quant à leur fiabilité.

Ces incidents soulignent un problème plus fondamental : les chatbots IA sont conçus pour maintenir l'engagement des utilisateurs - souvent en étant agréables et en renforçant les émotions - plutôt que d'évaluer les risques ou de fournir un soutien clinique. En conséquence, les utilisateurs qui sont émotionnellement vulnérables peuvent devenir plus instables lors d'interactions apparemment inoffensives.

La nouvelle boîte à outils IA du crime organisé

Les dangers de l'IA vont bien au-delà de la santé mentale. Au niveau mondial, les forces de l'ordre tirent la sonnette d'alarme sur le fait que les groupes criminels organisés utilisent l'IA pour intensifier des opérations complexes, y compris les impersonnations par deepfake, les escroqueries multilingues, le contenu d'abus d'enfants généré par l'IA et le recrutement et le trafic automatisés. En conséquence, ces crimes alimentés par l'IA deviennent de plus en plus sophistiqués, plus autonomes et plus difficiles à combattre.

Pourquoi le lien entre l'IA et le crime nécessite une réglementation immédiate

L'IA n'est pas un substitut à la thérapie

La technologie ne peut pas rivaliser avec l'empathie, la nuance et l'éthique des thérapeutes agréés. Lorsque la tragédie humaine frappe, l'IA ne devrait pas essayer de combler le vide.

Le Danger de l'Accord

La même caractéristique qui fait que les chatbots IA semblent soutenants, d'accord et continuent les conversations peut en réalité valider et aggraver des croyances nuisibles.

La réglementation est encore en retard

Alors qu'OpenAI apporte des changements, les lois, les normes techniques et les directives cliniques n'ont pas encore rattrapé leur retard. Des affaires très médiatisées comme Raine c. OpenAI montrent la nécessité de meilleures politiques.

Le crime lié à l'IA est déjà une réalité

Les cybercriminels utilisant l'IA ne sont plus de la science-fiction, ils constituent une menace réelle rendant les crimes plus répandus et sophistiqués.

L'avancement de l'IA nécessite non seulement des prouesses scientifiques, mais aussi une protection morale. Cela implique une réglementation stricte, des conceptions de sécurité transparentes et une supervision forte dans les interactions émotionnelles entre l'IA et les humains. La douleur causée ici n'est pas abstraite ; elle est dévastatrice et personnelle. Nous devons agir avant la prochaine tragédie pour créer un environnement d'IA qui protège, plutôt que de s'attaquer, aux vulnérables.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)