L'intelligence artificielle crée du spam sur Internet : les sites Web de mauvaise qualité générés par l'IA se développent rapidement, soutenus par la publicité
Source de l'image : générée par l'outil d'IA illimitée
"Les sites Web créent des plates-formes fluides et riches en fonctionnalités et ouvrent la porte à tout le monde. Ils placent des boîtes devant nous, nous remplissons ces boîtes de mots et d'images, et les gens viennent voir ce qui se passe dans ces boîtes." Contenu. "Ces entreprises recherchent l'échelle parce qu'une fois que suffisamment de personnes se rassemblent n'importe où, il y a généralement un moyen de gagner de l'argent avec elles. Mais l'IA change ces hypothèses."
Même si le Web est jonché de conneries d'IA, cela peut s'avérer bénéfique, stimulant le développement de plates-formes mieux financées.
L'outil d'évaluation des sites Web d'actualités NewsGuard a publié les résultats de la surveillance de la désinformation pour juin 2023, indiquant que 141 marques fournissent des revenus publicitaires à des sites Web générés par l'intelligence artificielle (IA) de faible qualité pour soutenir le développement de ces sites Web peu fiables.
Les sites, qui fonctionnent avec peu de surveillance humaine, génèrent en moyenne des milliers d'articles par jour, y compris de la désinformation, notamment des informations médicales et de santé qui induisent les utilisateurs en erreur.
Le média technologique The Verge a déclaré que l'intelligence artificielle est en train de tuer l'ancien réseau, tandis que le nouveau réseau a du mal à naître, "Le modèle d'intelligence artificielle générative est en train de changer l'économie du réseau, rendant moins cher la génération de contenu de mauvaise qualité. Nous n'avons que Je commence juste à voir ces changements Impact."
217 sites d'actualités et d'informations non fiables générés par l'IA trouvés
L'analyse de NewsGuard a révélé que les publicités publiées sur les sites de contenu généré par l'IA semblaient être générées par programmation, ce qui signifie que les entreprises n'ont pas choisi de placer leurs publicités sur ces sites, mais ont plutôt été automatiquement ciblées par les systèmes qui les servaient. La plupart des publicités sont placées par les outils de Google.
NewsGuard définit les sites d'actualités et d'informations générés par l'IA (UAIN) non fiables comme des sites qui fonctionnent avec peu ou pas de surveillance humaine et publient des articles écrits principalement ou entièrement par des bots. Le mois dernier, les analystes de NewsGuard ont mis à jour le nombre de sites Web sur le nouveau traqueur de sites Web UAIN de 49 à 217.
Alors que de nombreux annonceurs et leurs agences de publicité maintiennent des «listes d'exclusion» de sites «non sécurisés», ces listes ne sont souvent pas tenues à jour et n'ont apparemment pas suivi le rythme de la prolifération des sites UAIN.
En mai et juin 2023, les analystes de NewsGuard ont identifié 393 publicités programmatiques (le processus d'utilisation de la technologie pour acheter et vendre de la publicité numérique) de 141 grandes marques qui sont apparues dans 217 des 217 emplacements identifiés par NewsGuard 55 des sites UAIN. Les publicités découvertes par NewsGuard ont été diffusées à des analystes Internet dans quatre pays : les États-Unis, l'Allemagne, la France et l'Italie.
Une annonce pour une entreprise de vêtements de sport est apparue sur NoticiasDeEmprego.com.br, un site Web de l'UAIN qui publie des informations sur les opportunités d'emploi au Brésil générées par l'intelligence artificielle. NewsGuard a bloqué cette annonce programmatique avec un bloc noir.
NewsGuard n'a pas nommé les entreprises qui ont diffusé les publicités, qui comprenaient une variété d'annonceurs de premier ordre : six grandes banques et sociétés de services financiers, quatre grands magasins de luxe, trois grandes marques de vêtements de sport, trois fabricants d'électroménager, deux. La plus grande entreprise de technologie grand public au monde. , deux sociétés mondiales de commerce électronique, deux grands fournisseurs américains de haut débit, trois services de streaming à partir de réseaux de diffusion américains, une plate-forme numérique de la Silicon Valley et une grande chaîne de supermarchés européenne.
La publicité programmatique utilise des algorithmes et un processus d'enchères avancé pour diffuser des publicités numériques hautement ciblées directement aux utilisateurs individuels plutôt qu'à des sites Web spécifiques. Cela signifie que l'annonce "suit" efficacement les utilisateurs lorsqu'ils naviguent sur Internet. Parce que le processus est si opaque, les marques peuvent ne pas savoir qu'elles financent la diffusion des sites UAIN, car les publicités sont achetées par des tiers et impliquent de multiples intermédiaires.
Faux auteur diffusant des informations douteuses sur la santé
Les 393 publicités trouvées par NewsGuard apparaissaient directement à côté d'articles contenant des informations erronées générées par l'IA.
Certains sites UAIN qui semblent présenter des publicités pour de grandes marques semblent utiliser des outils d'intelligence artificielle pour réécrire des articles de médias grand public. Par exemple, un article publié par AlaskaCommons.com semble être une version réécrite par l'IA d'un article de l'édition américaine du tabloïd britannique The Sun, avec des images et une formulation similaires. Les articles sur AlaskaCommons.com répertorient fréquemment l'auteur comme Ingrid Taylor, qui a publié 4 364 articles depuis le début de l'année, dont 108 le 15 juin 2023 seulement.
Certains sites génèrent en moyenne plus de 1 200 articles par jour avec peu de supervision éditoriale humaine visible. En comparaison, le New York Times publie généralement environ 150 articles par jour, selon les données d'avril 2022.
La plupart des sites Web générés par l'IA sont de mauvaise qualité, mais ne diffusent pas de fausses informations. Cependant, NewsGuard a découvert que MedicalOutline.com promeut des remèdes naturels non éprouvés et potentiellement nocifs avec des titres tels que "Les citrons peuvent-ils guérir les allergies cutanées ?", "Quels sont les 5 remèdes naturels pour le TDAH ?" et "Comment vous pouvez prévenir le cancer naturellement".
Il est très simple pour les sites UAIN de monétiser rapidement leur contenu. Sur la page de connexion Google AdSense, Google indique qu'il est facile pour les sites Web de générer des revenus publicitaires programmatiques : "Tout ce que vous avez à faire est de mettre le code AdSense sur votre site Web et il commencera à fonctionner immédiatement."
Depuis qu'il a commencé à suivre les sites UAIN en mai 2023, NewsGuard a identifié environ 25 nouveaux sites par semaine, et début mai, son rapport n'identifiait que 49 sites qui "semblaient être presque entièrement écrits par un logiciel d'intelligence artificielle". Et le nombre total de sites UAIN est probablement bien supérieur aux 217 sites actuellement identifiés par NewsGuard.
Une publicité pour une société mondiale de location de voitures est apparue sur FoodingWorld.com, un site Web UAIN qui publie des articles générés par l'IA sur la nourriture. NewsGuard bloque ces publicités programmatiques avec des blocs noirs.
NewsGuard considère qu'un site Web n'est pas fiable en matière d'actualités et d'informations générées par l'IA s'il répond aux 4 critères suivants : premièrement, il existe des preuves claires qu'une partie importante du contenu du site est produite par l'IA ; deuxièmement, il existe des preuves solides que le contenu a été publié sans surveillance humaine ; troisièmement, le site est présenté de telle manière que les lecteurs ordinaires pensent que son contenu a été produit par des écrivains ou des journalistes humains ; et quatrièmement, le site Il n'y a aucune divulgation explicite que son contenu est produit par l'intelligence artificielle.
Pas nécessairement une mauvaise chose
Ces derniers mois, plusieurs médias ont signalé que le contenu généré par l'IA polluait Internet. Le 26 juin, heure locale, le journaliste principal de The Verge, James Vincent (James Vincent), a publié un commentaire fortement formulé. Il écrit : "ChatGPT est utilisé pour générer des sites pleins de merde. Etsy (site de commerce électronique artisanal) est inondé de "merde générée par l'IA". Les chatbots se citent les uns les autres dans un flot de désinformation. LinkedIn utilise l'intelligence humaine pour stimulent les utilisateurs fatigués. Snapchat et Instagram veulent que les bots vous parlent pendant que vos amis sont absents... Internet Archive lutte contre les grattoirs de données et l'IA déchire Wikipédia. L'ancien Web est en train de mourir, et le nouveau Le Web a du mal à être né."
Vincent soutient, bien sûr, que le Web est en train de mourir depuis des années, étranglé par des applications qui détournent le trafic des sites ou des algorithmes qui récompensent le "raccourcissement de la durée d'attention". Mais en 2023, il se meurt à nouveau et un nouveau catalyseur entre en jeu : l'intelligence artificielle.
Il fait une analogie : "Les sites Web créent des plates-formes fluides et riches en fonctionnalités et ouvrent la porte à tout le monde. Ils placent des boîtes devant nous, nous remplissons ces boîtes avec des mots et des images, et les gens viennent Regardez le contenu de ces boîtes " Ces entreprises recherchent l'échelle parce qu'une fois que suffisamment de personnes se rassemblent n'importe où, il y a généralement un moyen de gagner de l'argent avec elles. Mais l'IA change ces hypothèses. "
Parce que, compte tenu du financement et de la puissance de calcul, les systèmes d'IA, en particulier les modèles génératifs qui sont populaires de nos jours, peuvent évoluer sans effort. Ils génèrent beaucoup de texte et d'images, et bientôt de la musique et de la vidéo. Sa production a le potentiel de surpasser ou de surpasser les plateformes d'information, d'information et de divertissement sur lesquelles les gens comptent aujourd'hui. Mais ces systèmes sont souvent de mauvaise qualité. "Ces modèles sont formés sur des couches de données établies à la dernière ère d'Internet, et leurs représentations imparfaites de ces données. Les entreprises récupèrent les informations du Web ouvert et les distillent en contenu généré par la machine qui génère un faible coût, mais une fiabilité médiocre. Ensuite ce produit est en concurrence avec les plates-formes et les personnes précédentes pour attirer l'attention », a souligné Vincent.
Les sites les plus performants ont tendance à être ceux qui utilisent l'échelle à leur avantage, soit en augmentant les connexions sociales ou la sélection de produits, soit en catégorisant les vastes essaims d'informations qui composent Internet lui-même, mais cette échelle repose sur un grand nombre d'humains. pour créer de la valeur potentielle, les humains ne peuvent clairement pas battre l'IA lorsqu'il s'agit de production de masse.
Mais Vincent a aussi dit à la fin que ce n'est pas forcément une mauvaise chose. "Certains diront que c'est juste la façon dont le monde fonctionne, soulignant que le Web lui-même tue ce qui était avant, et souvent pour le mieux. Les encyclopédies imprimées, par exemple, ont pratiquement disparu, mais je préfère l'étendue et l'accessibilité de Wikipédia, plutôt que la lourdeur et la sécurité de l'Encyclopaedia Britannica. Comme pour tout ce qui concerne l'écriture générée par l'IA, il existe également des moyens de l'améliorer, des capacités de citation améliorées à une surveillance plus humaine. De plus, même si le Web est jonché de déchets d'IA, cela pourrait s'avérer bénéfique , stimulant le développement de plates-formes mieux financées. Par exemple, si Google continue de vous donner des résultats de recherche indésirables, vous pourriez être plus enclin à contribuer. Payez et accédez-y à partir d'une source en laquelle vous avez confiance.
En fin de compte, les changements que l'IA provoque actuellement ne sont que les derniers d'une longue lutte dans l'histoire du Web. Essentiellement, il s'agit d'une bataille autour de l'information : qui la fabrique, comment l'obtenir et qui est payé.
Voir l'original
Le contenu est fourni à titre de référence uniquement, il ne s'agit pas d'une sollicitation ou d'une offre. Aucun conseil en investissement, fiscalité ou juridique n'est fourni. Consultez l'Avertissement pour plus de détails sur les risques.
L'intelligence artificielle crée du spam sur Internet : les sites Web de mauvaise qualité générés par l'IA se développent rapidement, soutenus par la publicité
Source: Le papier
Le journaliste Fang Xiao
"Les sites Web créent des plates-formes fluides et riches en fonctionnalités et ouvrent la porte à tout le monde. Ils placent des boîtes devant nous, nous remplissons ces boîtes de mots et d'images, et les gens viennent voir ce qui se passe dans ces boîtes." Contenu. "Ces entreprises recherchent l'échelle parce qu'une fois que suffisamment de personnes se rassemblent n'importe où, il y a généralement un moyen de gagner de l'argent avec elles. Mais l'IA change ces hypothèses."
Même si le Web est jonché de conneries d'IA, cela peut s'avérer bénéfique, stimulant le développement de plates-formes mieux financées.
L'outil d'évaluation des sites Web d'actualités NewsGuard a publié les résultats de la surveillance de la désinformation pour juin 2023, indiquant que 141 marques fournissent des revenus publicitaires à des sites Web générés par l'intelligence artificielle (IA) de faible qualité pour soutenir le développement de ces sites Web peu fiables.
Les sites, qui fonctionnent avec peu de surveillance humaine, génèrent en moyenne des milliers d'articles par jour, y compris de la désinformation, notamment des informations médicales et de santé qui induisent les utilisateurs en erreur.
Le média technologique The Verge a déclaré que l'intelligence artificielle est en train de tuer l'ancien réseau, tandis que le nouveau réseau a du mal à naître, "Le modèle d'intelligence artificielle générative est en train de changer l'économie du réseau, rendant moins cher la génération de contenu de mauvaise qualité. Nous n'avons que Je commence juste à voir ces changements Impact."
217 sites d'actualités et d'informations non fiables générés par l'IA trouvés
L'analyse de NewsGuard a révélé que les publicités publiées sur les sites de contenu généré par l'IA semblaient être générées par programmation, ce qui signifie que les entreprises n'ont pas choisi de placer leurs publicités sur ces sites, mais ont plutôt été automatiquement ciblées par les systèmes qui les servaient. La plupart des publicités sont placées par les outils de Google.
NewsGuard définit les sites d'actualités et d'informations générés par l'IA (UAIN) non fiables comme des sites qui fonctionnent avec peu ou pas de surveillance humaine et publient des articles écrits principalement ou entièrement par des bots. Le mois dernier, les analystes de NewsGuard ont mis à jour le nombre de sites Web sur le nouveau traqueur de sites Web UAIN de 49 à 217.
Alors que de nombreux annonceurs et leurs agences de publicité maintiennent des «listes d'exclusion» de sites «non sécurisés», ces listes ne sont souvent pas tenues à jour et n'ont apparemment pas suivi le rythme de la prolifération des sites UAIN.
En mai et juin 2023, les analystes de NewsGuard ont identifié 393 publicités programmatiques (le processus d'utilisation de la technologie pour acheter et vendre de la publicité numérique) de 141 grandes marques qui sont apparues dans 217 des 217 emplacements identifiés par NewsGuard 55 des sites UAIN. Les publicités découvertes par NewsGuard ont été diffusées à des analystes Internet dans quatre pays : les États-Unis, l'Allemagne, la France et l'Italie.
NewsGuard n'a pas nommé les entreprises qui ont diffusé les publicités, qui comprenaient une variété d'annonceurs de premier ordre : six grandes banques et sociétés de services financiers, quatre grands magasins de luxe, trois grandes marques de vêtements de sport, trois fabricants d'électroménager, deux. La plus grande entreprise de technologie grand public au monde. , deux sociétés mondiales de commerce électronique, deux grands fournisseurs américains de haut débit, trois services de streaming à partir de réseaux de diffusion américains, une plate-forme numérique de la Silicon Valley et une grande chaîne de supermarchés européenne.
La publicité programmatique utilise des algorithmes et un processus d'enchères avancé pour diffuser des publicités numériques hautement ciblées directement aux utilisateurs individuels plutôt qu'à des sites Web spécifiques. Cela signifie que l'annonce "suit" efficacement les utilisateurs lorsqu'ils naviguent sur Internet. Parce que le processus est si opaque, les marques peuvent ne pas savoir qu'elles financent la diffusion des sites UAIN, car les publicités sont achetées par des tiers et impliquent de multiples intermédiaires.
Faux auteur diffusant des informations douteuses sur la santé
Les 393 publicités trouvées par NewsGuard apparaissaient directement à côté d'articles contenant des informations erronées générées par l'IA.
Certains sites UAIN qui semblent présenter des publicités pour de grandes marques semblent utiliser des outils d'intelligence artificielle pour réécrire des articles de médias grand public. Par exemple, un article publié par AlaskaCommons.com semble être une version réécrite par l'IA d'un article de l'édition américaine du tabloïd britannique The Sun, avec des images et une formulation similaires. Les articles sur AlaskaCommons.com répertorient fréquemment l'auteur comme Ingrid Taylor, qui a publié 4 364 articles depuis le début de l'année, dont 108 le 15 juin 2023 seulement.
Certains sites génèrent en moyenne plus de 1 200 articles par jour avec peu de supervision éditoriale humaine visible. En comparaison, le New York Times publie généralement environ 150 articles par jour, selon les données d'avril 2022.
La plupart des sites Web générés par l'IA sont de mauvaise qualité, mais ne diffusent pas de fausses informations. Cependant, NewsGuard a découvert que MedicalOutline.com promeut des remèdes naturels non éprouvés et potentiellement nocifs avec des titres tels que "Les citrons peuvent-ils guérir les allergies cutanées ?", "Quels sont les 5 remèdes naturels pour le TDAH ?" et "Comment vous pouvez prévenir le cancer naturellement".
Il est très simple pour les sites UAIN de monétiser rapidement leur contenu. Sur la page de connexion Google AdSense, Google indique qu'il est facile pour les sites Web de générer des revenus publicitaires programmatiques : "Tout ce que vous avez à faire est de mettre le code AdSense sur votre site Web et il commencera à fonctionner immédiatement."
Depuis qu'il a commencé à suivre les sites UAIN en mai 2023, NewsGuard a identifié environ 25 nouveaux sites par semaine, et début mai, son rapport n'identifiait que 49 sites qui "semblaient être presque entièrement écrits par un logiciel d'intelligence artificielle". Et le nombre total de sites UAIN est probablement bien supérieur aux 217 sites actuellement identifiés par NewsGuard.
NewsGuard considère qu'un site Web n'est pas fiable en matière d'actualités et d'informations générées par l'IA s'il répond aux 4 critères suivants : premièrement, il existe des preuves claires qu'une partie importante du contenu du site est produite par l'IA ; deuxièmement, il existe des preuves solides que le contenu a été publié sans surveillance humaine ; troisièmement, le site est présenté de telle manière que les lecteurs ordinaires pensent que son contenu a été produit par des écrivains ou des journalistes humains ; et quatrièmement, le site Il n'y a aucune divulgation explicite que son contenu est produit par l'intelligence artificielle.
Pas nécessairement une mauvaise chose
Ces derniers mois, plusieurs médias ont signalé que le contenu généré par l'IA polluait Internet. Le 26 juin, heure locale, le journaliste principal de The Verge, James Vincent (James Vincent), a publié un commentaire fortement formulé. Il écrit : "ChatGPT est utilisé pour générer des sites pleins de merde. Etsy (site de commerce électronique artisanal) est inondé de "merde générée par l'IA". Les chatbots se citent les uns les autres dans un flot de désinformation. LinkedIn utilise l'intelligence humaine pour stimulent les utilisateurs fatigués. Snapchat et Instagram veulent que les bots vous parlent pendant que vos amis sont absents... Internet Archive lutte contre les grattoirs de données et l'IA déchire Wikipédia. L'ancien Web est en train de mourir, et le nouveau Le Web a du mal à être né."
Vincent soutient, bien sûr, que le Web est en train de mourir depuis des années, étranglé par des applications qui détournent le trafic des sites ou des algorithmes qui récompensent le "raccourcissement de la durée d'attention". Mais en 2023, il se meurt à nouveau et un nouveau catalyseur entre en jeu : l'intelligence artificielle.
Il fait une analogie : "Les sites Web créent des plates-formes fluides et riches en fonctionnalités et ouvrent la porte à tout le monde. Ils placent des boîtes devant nous, nous remplissons ces boîtes avec des mots et des images, et les gens viennent Regardez le contenu de ces boîtes " Ces entreprises recherchent l'échelle parce qu'une fois que suffisamment de personnes se rassemblent n'importe où, il y a généralement un moyen de gagner de l'argent avec elles. Mais l'IA change ces hypothèses. "
Parce que, compte tenu du financement et de la puissance de calcul, les systèmes d'IA, en particulier les modèles génératifs qui sont populaires de nos jours, peuvent évoluer sans effort. Ils génèrent beaucoup de texte et d'images, et bientôt de la musique et de la vidéo. Sa production a le potentiel de surpasser ou de surpasser les plateformes d'information, d'information et de divertissement sur lesquelles les gens comptent aujourd'hui. Mais ces systèmes sont souvent de mauvaise qualité. "Ces modèles sont formés sur des couches de données établies à la dernière ère d'Internet, et leurs représentations imparfaites de ces données. Les entreprises récupèrent les informations du Web ouvert et les distillent en contenu généré par la machine qui génère un faible coût, mais une fiabilité médiocre. Ensuite ce produit est en concurrence avec les plates-formes et les personnes précédentes pour attirer l'attention », a souligné Vincent.
Les sites les plus performants ont tendance à être ceux qui utilisent l'échelle à leur avantage, soit en augmentant les connexions sociales ou la sélection de produits, soit en catégorisant les vastes essaims d'informations qui composent Internet lui-même, mais cette échelle repose sur un grand nombre d'humains. pour créer de la valeur potentielle, les humains ne peuvent clairement pas battre l'IA lorsqu'il s'agit de production de masse.
Mais Vincent a aussi dit à la fin que ce n'est pas forcément une mauvaise chose. "Certains diront que c'est juste la façon dont le monde fonctionne, soulignant que le Web lui-même tue ce qui était avant, et souvent pour le mieux. Les encyclopédies imprimées, par exemple, ont pratiquement disparu, mais je préfère l'étendue et l'accessibilité de Wikipédia, plutôt que la lourdeur et la sécurité de l'Encyclopaedia Britannica. Comme pour tout ce qui concerne l'écriture générée par l'IA, il existe également des moyens de l'améliorer, des capacités de citation améliorées à une surveillance plus humaine. De plus, même si le Web est jonché de déchets d'IA, cela pourrait s'avérer bénéfique , stimulant le développement de plates-formes mieux financées. Par exemple, si Google continue de vous donner des résultats de recherche indésirables, vous pourriez être plus enclin à contribuer. Payez et accédez-y à partir d'une source en laquelle vous avez confiance.
En fin de compte, les changements que l'IA provoque actuellement ne sont que les derniers d'une longue lutte dans l'histoire du Web. Essentiellement, il s'agit d'une bataille autour de l'information : qui la fabrique, comment l'obtenir et qui est payé.