Des vidéos falsifiées par IA vous apprennent la liberté financière ? Une entreprise japonaise a publié la dernière technologie pour distinguer les animations truquées, fabriquées par IA.

Lao Gao a créé une chaîne Youtube expérimentale, Mr Tabby Tales, prouvant que tant que vous pouvez utiliser l’IA, vous pouvez faire de fausses vidéos courtes pour atteindre la liberté financière ?! Il a utilisé l’IA générative pour produire une série de vidéos du chat et de la souris, qui ont attiré 380 000 abonnés en ne téléchargeant que 12 vidéos, ce qui a également mis en évidence un problème, les médias en ligne regorgent de fausses informations et de fausses vidéos, ces courts métrages deviennent de plus en plus élaborés, comment juger de l’authenticité ? Les médias japonais ont interviewé une start-up pour publier la dernière technologie d’IA permettant de détecter et d’analyser la possibilité de fraude dans la vidéo, dont on peut dire qu’elle contient de l’IA avec de l’IA, afin que l’IA générée ne tombe pas entre les mains de gangsters et ne devienne pas un outil de fraude.

Génération d'un processus de production vidéo court accéléré par l'IA, difficile à distinguer entre la vraie et la fausse vidéo.

L'intelligence artificielle générative (IA générative) se développe rapidement, rendant la production de vidéos et de sons autrefois complexe rapide et simple. Le Youtuber Lao Gao, qui compte six millions de souscriptions, a récemment créé une série de courtes vidéos sur des chats qui attrapent des souris grâce à l'IA générative. Il montre à travers ses créations que, si elle est utilisée correctement, l'IA peut facilement produire des vidéos à fort trafic pour attirer les spectateurs, et même permettre d'atteindre la liberté financière à court terme!

Cependant, ce type de courtes vidéos se propage trop facilement sur Internet. Le niveau de sophistication des vidéos rend difficile pour les spectateurs de distinguer le vrai du faux. Si elles sont utilisées pour des escroqueries ou pour diffuser des rumeurs, elles peuvent également induire en erreur le public, entraînant des pertes.

La technologie innovante de la société japonaise NABLAS équilibre l'IA par l'IA.

Face au problème de la prolifération des faux contenus alimentée par l'IA générative, la société japonaise NABLAS développe une technologie avancée d'IA spécialement conçue pour identifier les vidéos fausses générées par IA. Le système de NABLAS analyse les détails des vidéos et vérifie les mouvements non naturels et les incohérences qui peuvent survenir lors du processus de génération.

Le fonctionnement consiste d'abord à utiliser l'IA pour décomposer la vidéo en une série d'images, numériser chaque image image après image pour une analyse image par image, puis le système vérifie les mouvements non naturels dans les images, c'est-à-dire les petits points de désalignement qui apparaissent dans la vidéo, ce qui est généralement un défaut inévitable dans le processus de création de l'IA générative.

Le directeur de NABLAS, Miyauchi Suzuki, a souligné que lorsque l'intelligence artificielle génère chaque scène, l'image peut être désalignée, créant ainsi des nœuds non naturels. Ces subtilités non naturelles sont la clé pour identifier les fausses vidéos.

Plus important encore, cette technologie va également vérifier les personnages dans la vidéo, en particulier si leurs visages ont été traités par de l'IA. L'IA générative laisse souvent des traces de modifications manuelles, que des systèmes d'IA spécialement conçus peuvent détecter.

Dans la pratique, le système NABLAS peut effectuer une détection détaillée des vidéos. Dans une vidéo générée par une IA, l'IA décompose les images et vérifie le début de la vidéo, les résultats montrent que cette vidéo a été éditée par une IA générative, avec une probabilité de falsification allant jusqu'à 94 %.

Suzuki Muneo a déclaré que NABLAS prévoit de déployer cette technologie à la fin du mois. Le lancement de cette technologie contribuera à sensibiliser le public aux vidéos fausses et à freiner efficacement la propagation de la désinformation.

L'application de l'IA est déjà profondément intégrée dans la vie quotidienne, l'IA générative étant au centre de l'actualité technologique. Il ne suffit pas d'apprendre à utiliser des outils d'IA pour soutenir la création et la vie quotidienne, mais il est également nécessaire de disposer des technologies appropriées pour garantir la véracité des informations.

Suzuki Muneo a souligné que l'objectif initial du développement de cette technologie était d'assurer une utilisation raisonnable de l'IA. Il a noté que l'IA générative et les fausses informations peuvent apparaître dans divers contextes, et que la société doit traiter sérieusement le problème de la prolifération de vidéos falsifiées. L'objectif de NABLAS est d'appliquer cette technologie dans davantage de domaines pour aider les utilisateurs à identifier les fausses vidéos et promouvoir une utilisation correcte de la technologie AI.

Cet article sur les vidéos FAKE AI vous enseigne la liberté financière ? Une entreprise japonaise a publié une nouvelle technologie pour identifier les animations falsifiées, l'AI fabriquant de l'AI est apparu pour la première fois dans les nouvelles de la chaîne ABMedia.

Voir l'original
Le contenu est fourni à titre de référence uniquement, il ne s'agit pas d'une sollicitation ou d'une offre. Aucun conseil en investissement, fiscalité ou juridique n'est fourni. Consultez l'Avertissement pour plus de détails sur les risques.
  • Récompense
  • Commentaire
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)