A desinformação espalha-se mais rápido do que nunca.


As plataformas sociais processam milhões de publicações a cada minuto, e a verificação manual de factos simplesmente não consegue acompanhar.

É aí que se esperava que a IA ajudasse.

Mas há um problema. A própria IA pode gerar informações incorretas. Os grandes modelos de linguagem às vezes produzem respostas confiantes que contêm erros factuais ou fontes fabricadas. Estas alucinações dificultam confiar apenas na IA como solução para a desinformação.

Este é o desafio que projetos como o Mira estão a tentar resolver.

O Mira introduz uma camada de verificação desenhada especificamente para outputs de IA. Em vez de aceitar a resposta de um modelo como uma resposta final, o sistema divide o conteúdo em afirmações factuais menores que podem ser avaliadas de forma independente.

Cada afirmação é então verificada por múltiplos modelos de IA que operam numa rede descentralizada.

Se esses modelos chegarem a um consenso, a afirmação é considerada verificada. Se discordarem, o sistema assinala a informação como incerta, em vez de apresentá-la como um facto. Este processo transforma as respostas de IA de suposições probabilísticas em outputs que foram validamente confirmados coletivamente.

Para a desinformação, esta abordagem pode ser poderosa.

Imagine um artigo de notícias, uma publicação em redes sociais ou um resumo de pesquisa gerado por IA. Em vez de publicar imediatamente, o conteúdo poderia passar por uma rede de verificação. As afirmações individuais seriam verificadas, validadas ou assinaladas antes de chegar ao público.

A arquitetura assemelha-se ao consenso blockchain.

Assim como os validadores descentralizados confirmam transações, os modelos de IA distribuídos confirmam a precisão da informação. A fiabilidade vem do acordo entre verificadores independentes, em vez de confiar num único sistema.

A IA deixaria de ser apenas um gerador de conteúdo. Poderia tornar-se parte de uma infraestrutura que verifica as afirmações antes de estas circularem amplamente.

Parar completamente a desinformação pode ser impossível.

Mas redes de verificação como o Mira sugerem um futuro onde a IA ajuda a filtrar informações incorretas antes de se espalharem em larga escala.

$MIRA @mira\_network #Mira
MIRA-1,04%
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
0/400
Sem comentários
  • Marcar