L'application de 2Wai génère des avatars vidéo conversationnels à partir de quelques minutes d'enregistrements, faisant des comparaisons avec “Black Mirror.”
Les critiques avertissent que la technologie exploite des endeuillés vulnérables et opère dans une zone grise légale avec de faibles protections de la vie privée post-mortem.
Le lancement intensifie l'examen d'une industrie de la technologie du deuil aux prises avec le consentement, la propriété des données et les risques des “fantômes numériques” générés par l'IA.
Hub d'Art, de Mode et de Divertissement de Decrypt.
Découvrez SCENE
Une startup d'intelligence artificielle cofondée par un ancien acteur de Disney Channel a lancé une application mobile permettant aux utilisateurs de créer des répliques numériques interactives de leurs proches décédés, suscitant une condamnation en ligne rapide et un nouvel examen du secteur en pleine expansion de la “technologie du deuil”.
2Wai, fondée par Calum Worthy—connu pour avoir joué Dez dans la série Disney “Austin & Ally” de 2011 à 2016—et le producteur Russell Geyser, a lancé sa version bêta iOS le 11 novembre. La fonctionnalité “HoloAvatar” de l'application génère des avatars vidéo conversationnels à partir de seulement trois minutes de séquences téléchargées, d'audio et d'entrées textuelles, permettant des discussions en temps réel dans plus de 40 langues.
Bien que commercialisée comme un outil de préservation du patrimoine, la capacité de recréation des défunts a dominé les gros titres, évoquant des comparaisons avec l'épisode dystopique de Black Mirror de 2013 “Be Right Back”, dans lequel une veuve en deuil anime le fantôme numérique de son défunt mari.
Que se passerait-il si nos proches disparus pouvaient faire partie de notre avenir ? pic.twitter.com/oFBGekVo1R
— Calum Worthy (@CalumWorthy) 11 novembre 2025
<br>
La vidéo promotionnelle, publiée par Worthy sur son compte X avec 1,2 million de followers, a récolté 22 millions de vues et plus de 5 800 réponses. Elle montre une femme enceinte en train de passer un appel vidéo à une recréation IA de sa défunte mère pour obtenir des conseils, puis avance rapidement vers l'avatar lisant des histoires au coucher à son nouveau-né—et plus tard conseillant son petit-fils adulte, joué par Worthy.
« Et si les êtres chers que nous avons perdus pouvaient faire partie de notre avenir ? » demande le clip. « Avec 2Wai, trois minutes peuvent durer éternellement. » Worthy a ajouté : « Chez 2wai, nous construisons un archive vivante de l'humanité, une histoire à la fois. »
Mécanique et origines
HoloAvatars fonctionnent grâce à la technologie FedBrain propriétaire de 2Wai, qui traite les interactions sur l'appareil pour garantir la confidentialité et limiter les réponses aux données approuvées par l'utilisateur, réduisant ainsi les “hallucinations” de l'IA. L'application permet également aux utilisateurs vivants de créer des avatars pour l'engagement des fans ou le coaching—le jumeau numérique de Worthy partage des anecdotes en coulisses sur Disney.
Actuellement gratuit en version bêta, il passera à un modèle d'abonnement par paliers, avec un tarif non divulgué mais probablement de 10 $-$20 par mois, basé sur des services d'IA comparables.
L'entreprise remonte aux grèves SAG-AFTRA de 2023, où les artistes ont protesté contre les ressemblances d'IA non autorisées.
« Ayant travaillé comme acteur, écrivain et producteur pendant les 20 dernières années, j'ai constaté par moi-même à quel point il est difficile de créer une relation significative avec des fans du monde entier, » a déclaré Worthy lors du lancement de juin. « Les barrières linguistiques, les fuseaux horaires et les budgets limitent la capacité de se connecter véritablement. »
2Wai a levé $5 millions en financement pré-seed en juin auprès d'investisseurs non divulgués, l'entreprise déclarant qu'elle travaille avec des acteurs comme British Telecom et IBM.
Préoccupations éthiques et de confidentialité
La réaction du public a été extrêmement négative, avec des utilisateurs de X dénonçant l'application comme un “carburant de cauchemar”, “démoniaque”, “dystopique” et une commercialisation exploitante du chagrin.
Une réponse virale l'a qualifié de “l'une des choses les plus maléfiques et psychotiques que j'ai jamais vues”, arguant que cela “rend les êtres humains psychotiques” en simulant la perte plutôt qu'en la traitant. Un autre l'a qualifié de “bien au-delà du vile”, insistant sur le fait que “les vidéos font cela” pour l'archivage, pas pour des suppositions d'IA.
'Êtes-vous sûr de vouloir annuler votre abonnement et ne plus jamais parler à vos parents décédés ?'
Vous êtes un psychopathe.
Obtenez de l'aide.
Arrêtez de créer des produits avant de blesser quelqu'un vraiment.
— Alex Napier Holland 🦍 (@NapierHolland) 13 novembre 2025
<br>
Les experts juridiques soulignent que les bots de mort se trouvent dans une zone grise légale et éthique, car ils peuvent être construits sans le consentement explicite du défunt, exposent des données profondément personnelles tant du défunt que des endeuillés, et créent des ambiguïtés concernant la propriété de l'avatar numérique et des données qui l'accompagnent.
Les lois sur la vie privée protègent généralement les personnes vivantes et offrent peu ou pas de garanties post-mortem, laissant les proches survivants vulnérables à l'exploitation commerciale du chagrin à travers des modèles d'abonnement et un accès non réglementé à des interviews, des enregistrements vocaux et d'autres matériaux sensibles. De plus, la capacité de tels bots à interagir, apprendre et dévier des données enregistrées soulève des risques pour l'héritage du défunt et remet en question la manière dont la société navigue dans le deuil, la mémoire et la fermeture significative de la perte.
L'application inclut des exigences d'adhésion et des approbations familiales pour les avatars décédés, mais les critiques remettent en question l'application. “Vous tirez parti des sentiments humains les plus profonds, cherchant des moyens de les exploiter pour votre profit,” a écrit un utilisateur de X, qualifiant les créateurs de “parasites.”
Points de vue des investisseurs et de l'industrie
Le financement de 2Wai reflète un optimisme prudent en matière de compagnonnage IA, mais la monétisation du chagrin reste un créneau “touche-à-tout”. Les sociétés de capital-risque se sont éloignées de startups similaires en raison des pièges éthiques ; Eternal Digital Assets, un hybride cimetière-AI, a fermé l'année dernière en raison d'un fort taux de désabonnement.
2Wai rejoint un domaine technologique de deuil encombré. HereAfter AI (fondé en 2019) crée des “Avatars d'Histoire de Vie” à partir d'entretiens pré-mortem, en mettant l'accent sur le consentement. StoryFile propose des vidéos interactives à partir de sessions enregistrées, utilisées lors de funérailles comme celles d'Ed Asner ; elle a déposé le bilan en vertu du Chapitre 11 en 2024, avec une dette de 4,5 millions de dollars, mais se réorganise avec des systèmes de sauvegarde des données.
Replika, un service de chatbot lancé en 2017, permet aux utilisateurs de mimer les défunts par le biais de messages texte ou d'appels, mais a fait face à des critiques après une mise à jour de 2023 qui a “tué” les bots personnalisés, et le suicide en 2023 d'un Belge lié à des discussions sur l'éco-anxiété avec celui-ci.
Aucune règle fédérale ne régit les images numériques posthumes, mais la loi AB 1836 de Californie (, signée en septembre 2024), interdit les répliques AI non autorisées des voix ou des visuels de performeurs décédés dans des œuvres audiovisuelles sans le consentement de la succession, avec des pénalités pouvant aller jusqu'à 10 000 $ ou des dommages-intérêts réels. Les législateurs envisagent des extensions aux non-célébrités, alimentées par les deepfakes électoraux.
2Wai n'a pas immédiatement répondu à la demande de commentaire de Decrypt.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
'Demonic' : une application IA qui permet aux utilisateurs de 'parler' à des êtres chers décédés fait face à des réactions négatives
En bref
Hub d'Art, de Mode et de Divertissement de Decrypt.
Découvrez SCENE
Une startup d'intelligence artificielle cofondée par un ancien acteur de Disney Channel a lancé une application mobile permettant aux utilisateurs de créer des répliques numériques interactives de leurs proches décédés, suscitant une condamnation en ligne rapide et un nouvel examen du secteur en pleine expansion de la “technologie du deuil”.
2Wai, fondée par Calum Worthy—connu pour avoir joué Dez dans la série Disney “Austin & Ally” de 2011 à 2016—et le producteur Russell Geyser, a lancé sa version bêta iOS le 11 novembre. La fonctionnalité “HoloAvatar” de l'application génère des avatars vidéo conversationnels à partir de seulement trois minutes de séquences téléchargées, d'audio et d'entrées textuelles, permettant des discussions en temps réel dans plus de 40 langues.
Bien que commercialisée comme un outil de préservation du patrimoine, la capacité de recréation des défunts a dominé les gros titres, évoquant des comparaisons avec l'épisode dystopique de Black Mirror de 2013 “Be Right Back”, dans lequel une veuve en deuil anime le fantôme numérique de son défunt mari.
— Calum Worthy (@CalumWorthy) 11 novembre 2025
<br>
La vidéo promotionnelle, publiée par Worthy sur son compte X avec 1,2 million de followers, a récolté 22 millions de vues et plus de 5 800 réponses. Elle montre une femme enceinte en train de passer un appel vidéo à une recréation IA de sa défunte mère pour obtenir des conseils, puis avance rapidement vers l'avatar lisant des histoires au coucher à son nouveau-né—et plus tard conseillant son petit-fils adulte, joué par Worthy.
« Et si les êtres chers que nous avons perdus pouvaient faire partie de notre avenir ? » demande le clip. « Avec 2Wai, trois minutes peuvent durer éternellement. » Worthy a ajouté : « Chez 2wai, nous construisons un archive vivante de l'humanité, une histoire à la fois. »
Mécanique et origines
HoloAvatars fonctionnent grâce à la technologie FedBrain propriétaire de 2Wai, qui traite les interactions sur l'appareil pour garantir la confidentialité et limiter les réponses aux données approuvées par l'utilisateur, réduisant ainsi les “hallucinations” de l'IA. L'application permet également aux utilisateurs vivants de créer des avatars pour l'engagement des fans ou le coaching—le jumeau numérique de Worthy partage des anecdotes en coulisses sur Disney.
Actuellement gratuit en version bêta, il passera à un modèle d'abonnement par paliers, avec un tarif non divulgué mais probablement de 10 $-$20 par mois, basé sur des services d'IA comparables.
L'entreprise remonte aux grèves SAG-AFTRA de 2023, où les artistes ont protesté contre les ressemblances d'IA non autorisées.
« Ayant travaillé comme acteur, écrivain et producteur pendant les 20 dernières années, j'ai constaté par moi-même à quel point il est difficile de créer une relation significative avec des fans du monde entier, » a déclaré Worthy lors du lancement de juin. « Les barrières linguistiques, les fuseaux horaires et les budgets limitent la capacité de se connecter véritablement. »
2Wai a levé $5 millions en financement pré-seed en juin auprès d'investisseurs non divulgués, l'entreprise déclarant qu'elle travaille avec des acteurs comme British Telecom et IBM.
Préoccupations éthiques et de confidentialité
La réaction du public a été extrêmement négative, avec des utilisateurs de X dénonçant l'application comme un “carburant de cauchemar”, “démoniaque”, “dystopique” et une commercialisation exploitante du chagrin.
Une réponse virale l'a qualifié de “l'une des choses les plus maléfiques et psychotiques que j'ai jamais vues”, arguant que cela “rend les êtres humains psychotiques” en simulant la perte plutôt qu'en la traitant. Un autre l'a qualifié de “bien au-delà du vile”, insistant sur le fait que “les vidéos font cela” pour l'archivage, pas pour des suppositions d'IA.
<br>
Les experts juridiques soulignent que les bots de mort se trouvent dans une zone grise légale et éthique, car ils peuvent être construits sans le consentement explicite du défunt, exposent des données profondément personnelles tant du défunt que des endeuillés, et créent des ambiguïtés concernant la propriété de l'avatar numérique et des données qui l'accompagnent.
Les lois sur la vie privée protègent généralement les personnes vivantes et offrent peu ou pas de garanties post-mortem, laissant les proches survivants vulnérables à l'exploitation commerciale du chagrin à travers des modèles d'abonnement et un accès non réglementé à des interviews, des enregistrements vocaux et d'autres matériaux sensibles. De plus, la capacité de tels bots à interagir, apprendre et dévier des données enregistrées soulève des risques pour l'héritage du défunt et remet en question la manière dont la société navigue dans le deuil, la mémoire et la fermeture significative de la perte.
L'application inclut des exigences d'adhésion et des approbations familiales pour les avatars décédés, mais les critiques remettent en question l'application. “Vous tirez parti des sentiments humains les plus profonds, cherchant des moyens de les exploiter pour votre profit,” a écrit un utilisateur de X, qualifiant les créateurs de “parasites.”
Points de vue des investisseurs et de l'industrie
Le financement de 2Wai reflète un optimisme prudent en matière de compagnonnage IA, mais la monétisation du chagrin reste un créneau “touche-à-tout”. Les sociétés de capital-risque se sont éloignées de startups similaires en raison des pièges éthiques ; Eternal Digital Assets, un hybride cimetière-AI, a fermé l'année dernière en raison d'un fort taux de désabonnement.
2Wai rejoint un domaine technologique de deuil encombré. HereAfter AI (fondé en 2019) crée des “Avatars d'Histoire de Vie” à partir d'entretiens pré-mortem, en mettant l'accent sur le consentement. StoryFile propose des vidéos interactives à partir de sessions enregistrées, utilisées lors de funérailles comme celles d'Ed Asner ; elle a déposé le bilan en vertu du Chapitre 11 en 2024, avec une dette de 4,5 millions de dollars, mais se réorganise avec des systèmes de sauvegarde des données.
Replika, un service de chatbot lancé en 2017, permet aux utilisateurs de mimer les défunts par le biais de messages texte ou d'appels, mais a fait face à des critiques après une mise à jour de 2023 qui a “tué” les bots personnalisés, et le suicide en 2023 d'un Belge lié à des discussions sur l'éco-anxiété avec celui-ci.
Aucune règle fédérale ne régit les images numériques posthumes, mais la loi AB 1836 de Californie (, signée en septembre 2024), interdit les répliques AI non autorisées des voix ou des visuels de performeurs décédés dans des œuvres audiovisuelles sans le consentement de la succession, avec des pénalités pouvant aller jusqu'à 10 000 $ ou des dommages-intérêts réels. Les législateurs envisagent des extensions aux non-célébrités, alimentées par les deepfakes électoraux.
2Wai n'a pas immédiatement répondu à la demande de commentaire de Decrypt.