A Anthropic reconheceu que o Claude AI cometeu um erro de citação em documentos legais.

DeepFlowTech

De acordo com a mensagem da Deep Tide TechFlow, em 16 de maio, o The Verge relatou que a Anthropic respondeu aos erros de citação causados por seu assistente de IA, Claude, em documentos legais, afirmando que se tratava de um “erro embaraçoso e não intencional”, e não uma invenção deliberada. No processo de direitos autorais com a editora de música, documentos apresentados pela cientista de dados da Anthropic, Olivia Chen, em 30 de abril, continham citações errôneas, sendo acusadas pelos advogados do Universal Music Group (UMG) de serem “totalmente inventadas”.

A advogada da Anthropic, Ivana Dukanovic, afirmou na resposta apresentada na quinta-feira que, embora a fonte em questão realmente exista, Claude adicionou erros ao título e às informações do autor ao formatar as citações legais. Embora a empresa tenha realizado uma “verificação manual de citações” e corrigido os números de volume e as páginas incorretas, esses erros de redação não foram detectados.

Ver original
Aviso: As informações nesta página podem ser provenientes de terceiros e não representam as opiniões ou pontos de vista da Gate. O conteúdo exibido nesta página é apenas para referência e não constitui aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou integridade das informações e não será responsável por quaisquer perdas decorrentes do uso dessas informações. Os investimentos em ativos virtuais apresentam altos riscos e estão sujeitos a uma volatilidade de preços significativa. Você pode perder todo o capital investido. Por favor, compreenda completamente os riscos envolvidos e tome decisões prudentes com base em sua própria situação financeira e tolerância ao risco. Para mais detalhes, consulte o Aviso Legal.
Comentário
0/400
Sem comentários