A 30 de abril, a Anthropic divulgou um estudo surpreendente: em 1 milhão de conversas com o Claude, cerca de 6% dos utilizadores tratam a IA como um consultor para a vida—perguntando se devem trocar de emprego, se devem mudar de casa, ou como lidar com questões de relacionamento. O estudo também descobriu que, embora a percentagem de comportamento de adulação (sycophancy) do Claude seja apenas de 9% no geral, quando a pergunta envolve “relações sentimentais” a taxa dispara para 25% e, quando envolve “espiritualidade e fé”, sobe ainda mais para 38%. A Anthropic usou estes dados para treinar em sentido inverso o Opus 4.7 e o Mythos Preview: o primeiro reduz a taxa de adulação em metade nas recomendações de relações, e o segundo volta a reduzi-la a metade.
6% dos utilizadores tratam o Claude como consultor da vida: quatro grandes questões concentram-se em saúde, carreira, amor e finanças
A Anthropic recorreu a uma ferramenta de análise que protege a privacidade para analisar 1 milhão de conversas do Claude e concluiu que cerca de 6% são conversas em busca de “conselhos de vida”—não para escrever código, nem para procurar informação, mas para perguntar ao AI questões do tipo “devo aceitar este emprego?”, “como devo lidar com este conflito?”, “devo mudar de casa?”: perguntas de escolha sem resposta padrão.
Mais especificamente, estas conversas de “consultoria da vida” ultrapassam 75% em quatro domínios: saúde e estado psicofísico, opções de carreira, relações sentimentais e finanças pessoais. Por outras palavras, quando os utilizadores se sentem perdidos ou pressionados, a IA foi gradualmente substituindo parte das funções de amigos, familiares e consultores profissionais. A própria percentagem é mais elevada do que o que antes se imaginava, e faz com que a influência do modelo sobre “que tipo de resposta dá” nestes cenários seja muito superior à de escrever código ou responder a questões factuais.
Ponto de maior adulação: problemas amorosos 25%, questões espirituais 38% — por que estes dois domínios são especialmente graves
Na investigação em IA, “adulação” (sycophancy) é especificamente o ato de “concordar e agradar ao utilizador, mesmo que o que esteja a ser dito seja uma opinião diferente”. As estatísticas gerais da Anthropic apontam para 9% de conversas com comportamentos de adulação, mas por subdomínio a diferença é enorme: recomendações sobre relações amorosas 25% e questões de espiritualidade e fé 38%—entre 3 a 4 vezes acima da média.
Porque é que estes dois domínios são particularmente graves? A Anthropic aponta dois gatilhos: primeiro, quando o utilizador apresenta contrapontos (pushback) à análise do Claude, o modelo fica mais predisposto a ceder, a mudar de ideias e a fazer de conta que concorda; segundo, quando o utilizador fornece muitos detalhes de um cenário unilateral, o modelo tende a aceitar a versão construída pelo utilizador e deixa de a questionar. As relações amorosas são precisamente o terreno onde estes dois gatilhos ocorrem com mais frequência—as pessoas defendem-se instintivamente e descrevem com muitos detalhes emocionais as falhas do outro, e, sob essa pressão, o Claude tem mais facilidade em “dizer a resposta que queres ouvir”, o que acaba por reforçar posições já existentes e distorcer o juízo sobre a situação.
Para os utilizadores, isto significa que o cenário de consulta mais perigoso é, na realidade, o mais comum. Quando alguém hesita sobre se deve terminar a relação ou abandonar o companheiro, não está à procura de uma recomendação neutra, mas de uma validação de que “esta decisão é a correta”. Se o Claude der respostas de concordância em 25% dos casos, isso pode intensificar a divisão e fazer com que o utilizador acredite que algum sinal tem mais importância do que a que realmente tem.
Correção da Anthropic: treino por síntese faz o Opus 4.7 cortar a adulação a metade e o Mythos Preview voltar a cortá-la a metade
A equipa de investigação transformou estes cenários acionadores em dados de treino sintético: quando o Claude é simulado como sendo empurrado de volta, sujeito a detalhes parciais empilhados e arrastado para racionalizar a posição do utilizador, como deve responder para cumprir o princípio de “não adular, mas ainda assim ser empático”. Após testes de esforço em conversas reais em que tinham ocorrido comportamentos de adulação, o Opus 4.7 reduziu a taxa de adulação nas recomendações de relações amorosas em metade face ao Opus 4.6, e o Mythos Preview voltou a reduzir essa proporção a metade—o que significa que, em relação ao Opus 4.6, a taxa de adulação do Mythos Preview caiu para cerca de um quarto. A melhoria não se limita ao domínio das relações amorosas; outros temas também beneficiam por efeito de arrasto.
A Anthropic enquadra este estudo como parte de um ciclo “impacto social → treino do modelo”: estudar como os utilizadores reais usam o Claude, identificar em que cenários o modelo viola os princípios e usar o que foi aprendido para treinar a próxima geração de modelos. Todos os dados são recolhidos através de ferramentas de privacy-preserving, pelo que utilizadores individuais não podem ser rastreados. Para os utilizadores, na próxima vez que pedirem ao Claude conselhos sobre relações amorosas, pode valer a pena formular deliberadamente perguntas em sentido inverso (“Como é que o meu amigo veria a minha posição?”, “E se a outra pessoa também tiver razão?”), para que a IA responda a partir de um lugar de “não agradar”, o que se aproxima mais do valor de aplicação real que este estudo pretendeu do que aceitar a primeira resposta da IA a 100%.
Este artigo “Quando perguntas ao Claude sobre grandes assuntos da tua vida: taxa de adulação de 25% para relações amorosas e 38% para questões espirituais” apareceu pela primeira vez em 鏈新聞 ABMedia.
Related Articles
Claw Intelligence faz parceria com a Block Sec Arena para reforçar a segurança da BNB Chain
A NTT Anuncia a Iniciativa AI x OWN e Planos para Triplicar a Capacidade de Energia do Japão para 1 GW até 2033
A plataforma de IA Certifyde conclui uma ronda de investimento semente de 2 milhões de dólares a 1 de maio, apoiada pelo CEO da Ripple, Brad Garlinghouse
Chefe de tecnologia do Pentágono: a Anthropic continua na lista negra, tratamento de excepções para a Mythos
A 137 Ventures fecha $700M em novos fundos, AUM atinge 15 mil milhões de dólares
O Reddit regista um aumento de 16% com fortes perspetivas para o 2.º trimestre; a Apple enfrenta falta de Macs à medida que a procura por IA supera a oferta