Fonte: CryptoNewsNet
Título Original: CEO da Nansen Explica Por Que a IA Não Pode Substituir a Convicção Humana no Comércio de Criptomoedas
Link Original:
A inteligência artificial tem remodelado múltiplos setores, e por onde quer que vá, a mesma questão surge: Será que ela substituirá os humanos? No mundo das criptomoedas, o impacto já é visível, desde bots de negociação impulsionados por IA até sistemas de negociação agentic.
No entanto, Alex Svanevik, CEO e cofundador da Nansen, argumenta que a IA não é um substituto para o julgamento humano, mas sim uma augmentação. Em uma entrevista exclusiva, Svanevik explora essa mudança em profundidade e delineia o que está por vir para a análise alimentada por IA.
O Debate sobre IA em Cripto: CEO da Nansen Defende Augmentação, Não Substituição
Em 21 de janeiro, a Nansen anunciou o lançamento de sua funcionalidade de negociação on-chain alimentada por IA. Isso marca uma mudança significativa de uma plataforma de análise pura para um produto unificado de insights e execução.
Construído com base no seu conjunto de dados proprietário de mais de 500 milhões de carteiras rotuladas, o novo lançamento permite aos usuários gerenciar portfólios, interpretar sinais ao vivo na cadeia e executar negociações.
“Treinado e avaliado com o conjunto de dados proprietário da Nansen, o Nansen AI supera consistentemente os principais produtos de IA em benchmarks projetados para análise on-chain e casos de uso de negociação. Isso garante que os insights fornecidos não sejam apenas mais precisos, mas também diretamente acionáveis para traders/investidores, transformando inteligência agentic em uma vantagem prática de negociação.”
Além disso, o lançamento desbloqueia o que a Nansen chama de “vibe trading”. Descreve isso como uma forma mais intuitiva de passar do insight à execução na cadeia sem trocar de ferramentas.
À medida que a IA assume mais trabalho analítico, o papel dos analistas humanos é questionado. Svanevik afirmou que a IA se destaca no processamento em escala, permitindo analisar centenas de milhões de carteiras, rastrear fluxos entre cadeias e identificar padrões que seriam difíceis para humanos detectarem.
No entanto, ele enfatizou que a tomada de decisão permanece com os usuários, que, em última análise, orientam o processo fazendo as perguntas certas e aprovando as ações.
“A fronteira não é fixa. Ela muda à medida que a IA melhora no raciocínio e os dados na cadeia se tornam mais ricos. Mas o objetivo não é substituir o julgamento. É libertar os humanos do trabalho braçal para que possam focar em decisões de nível superior.”
O que Torna a Análise Credível em um Mercado de Cripto com IA em Primeiro Lugar?
Pesquisas sugerem que uma dependência aumentada de ferramentas de inteligência artificial pode estar relacionada à diminuição das habilidades de pensamento crítico. Nos mercados de criptomoedas, onde os traders precisam navegar por volatilidade extrema e ativos de alto risco, as apostas são ainda maiores.
No entanto, Svanevik apresentou uma visão diferente. Ele argumentou que “boa IA” revela mais sinais, incentivando os usuários a pensar de forma mais crítica sobre a execução, e não menos.
“O verdadeiro risco sistêmico é quando todos seguem o mesmo manual. Isso não é exclusivo da IA — também acontece com analistas humanos. A resposta é diversidade: modelos diversos, estratégias diversas, interpretações de dados diversas. É por isso que estamos construindo ferramentas que capacitam a tomada de decisão individual, não um oráculo único que todos seguem.”
O executivo também destacou que nem a IA nem os analistas humanos devem ser confiados cegamente. Segundo ele, o que importa é se a análise se sustenta ao longo do tempo.
Quando se trata de credibilidade em um mercado dominado por IA, o CEO explicou que:
“A credibilidade em uma era de IA em primeiro lugar vem da medição e da repetição, não de um nome ou seguidores no Twitter. A IA tem a vantagem de poder ser testada incansavelmente, em escala, e contra a realidade de uma forma que humanos individuais simplesmente não podem.”
Ele compartilhou que o teste mais simples é prático. Svanevik sugeriu que os usuários façam perguntas que importam para eles e julguem se as respostas são fundamentadas, úteis e acionáveis, observando que os usuários tendem a ser julgadores eficazes de qualidade.
“A longo prazo, a confiança se deslocará dos analistas individuais para plataformas que possam provar, continuamente, que detectam sinais e reduzem o ruído. Essa é a meta que nos propomos.”
Por Que a IA Pode Analisar Dados On-Chain, Mas Não Pode Substituir a Convicção Humana
Analistas humanos frequentemente alinham decisões de negociação com métricas on-chain, dados de preço e outros sinais através de julgamento e interpretação contextual. Por outro lado, sistemas de IA dependem de padrões aprendidos a partir de dados passados.
Quando questionado se a IA poderia eventualmente desenvolver uma forma semelhante de julgamento, Svanevik revelou que é provável, embora não no sentido humano.
Ele detalhou que a IA desenvolveria sua própria forma de raciocínio contextual. O executivo acredita que ela poderia ser mais eficaz ao integrar dados ao vivo de um conjunto muito mais amplo de variáveis do que qualquer humano poderia acompanhar.
“O caminho até lá é por meio de melhores dados de treinamento, janelas de contexto mais longas e ciclos de feedback de execução real. Já estamos vendo isso com o nosso agente. Ele não apenas faz correspondência de padrões — ele raciocina sobre dados comportamentais em tempo real. Isso é julgamento em estágio inicial. Vai ficar mais afiado à medida que os modelos evoluírem e à medida que acumulamos aprendizados de milhões de interações na cadeia.”
No entanto, ele também identificou um aspecto da análise on-chain que acredita que a IA nunca substituirá completamente: assumir a responsabilidade pelas decisões sob incerteza.
Svanevik apontou que, embora a IA possa detectar padrões, probabilidades e cenários potenciais, e avaliar o que aconteceu ou o que pode acontecer com base nos dados, ela não consegue determinar a tolerância ao risco de um indivíduo, julgamentos de valor ou assumir a responsabilidade por decisões quando os resultados forem negativos.
“A análise on-chain, em última análise, alimenta ações no mundo real: alocação de capital, apoio a equipes, fazer chamadas públicas. Alguém precisa ser responsável por essas decisões. Essa é uma função humana.”
Ele reforçou que, independentemente de quão avançados os modelos de IA se tornem, a credibilidade continuará a repousar com os humanos em questões de julgamento, responsabilidade e convicção. A IA pode informar decisões, disse ele, mas os humanos as tomam e assumem as consequências.
“Decidir o que importa. A IA pode te dizer o que está acontecendo na cadeia, mas não pode te dizer o que você deve se importar. Isso é gosto. Isso é convicção. Isso é humano.”
Por fim, Svanevik vê a IA como uma facilitadora poderosa, e não uma tomadora de decisões. Enquanto a IA pode detectar padrões, probabilidades e insights em uma escala sem precedentes, o julgamento humano continua central para risco, responsabilidade e convicção. À medida que a análise impulsionada por IA se torna mais prevalente, a confiança recairá cada vez mais em plataformas que possam provar continuamente a qualidade de seus insights. Ao mesmo tempo, os humanos permanecem responsáveis por decidir o que importa e por sustentar os resultados.
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
CEO da Nansen explica por que a IA não pode substituir a convicção humana na negociação de criptomoedas
Fonte: CryptoNewsNet Título Original: CEO da Nansen Explica Por Que a IA Não Pode Substituir a Convicção Humana no Comércio de Criptomoedas Link Original: A inteligência artificial tem remodelado múltiplos setores, e por onde quer que vá, a mesma questão surge: Será que ela substituirá os humanos? No mundo das criptomoedas, o impacto já é visível, desde bots de negociação impulsionados por IA até sistemas de negociação agentic.
No entanto, Alex Svanevik, CEO e cofundador da Nansen, argumenta que a IA não é um substituto para o julgamento humano, mas sim uma augmentação. Em uma entrevista exclusiva, Svanevik explora essa mudança em profundidade e delineia o que está por vir para a análise alimentada por IA.
O Debate sobre IA em Cripto: CEO da Nansen Defende Augmentação, Não Substituição
Em 21 de janeiro, a Nansen anunciou o lançamento de sua funcionalidade de negociação on-chain alimentada por IA. Isso marca uma mudança significativa de uma plataforma de análise pura para um produto unificado de insights e execução.
Construído com base no seu conjunto de dados proprietário de mais de 500 milhões de carteiras rotuladas, o novo lançamento permite aos usuários gerenciar portfólios, interpretar sinais ao vivo na cadeia e executar negociações.
Além disso, o lançamento desbloqueia o que a Nansen chama de “vibe trading”. Descreve isso como uma forma mais intuitiva de passar do insight à execução na cadeia sem trocar de ferramentas.
À medida que a IA assume mais trabalho analítico, o papel dos analistas humanos é questionado. Svanevik afirmou que a IA se destaca no processamento em escala, permitindo analisar centenas de milhões de carteiras, rastrear fluxos entre cadeias e identificar padrões que seriam difíceis para humanos detectarem.
No entanto, ele enfatizou que a tomada de decisão permanece com os usuários, que, em última análise, orientam o processo fazendo as perguntas certas e aprovando as ações.
O que Torna a Análise Credível em um Mercado de Cripto com IA em Primeiro Lugar?
Pesquisas sugerem que uma dependência aumentada de ferramentas de inteligência artificial pode estar relacionada à diminuição das habilidades de pensamento crítico. Nos mercados de criptomoedas, onde os traders precisam navegar por volatilidade extrema e ativos de alto risco, as apostas são ainda maiores.
No entanto, Svanevik apresentou uma visão diferente. Ele argumentou que “boa IA” revela mais sinais, incentivando os usuários a pensar de forma mais crítica sobre a execução, e não menos.
O executivo também destacou que nem a IA nem os analistas humanos devem ser confiados cegamente. Segundo ele, o que importa é se a análise se sustenta ao longo do tempo.
Quando se trata de credibilidade em um mercado dominado por IA, o CEO explicou que:
Ele compartilhou que o teste mais simples é prático. Svanevik sugeriu que os usuários façam perguntas que importam para eles e julguem se as respostas são fundamentadas, úteis e acionáveis, observando que os usuários tendem a ser julgadores eficazes de qualidade.
Por Que a IA Pode Analisar Dados On-Chain, Mas Não Pode Substituir a Convicção Humana
Analistas humanos frequentemente alinham decisões de negociação com métricas on-chain, dados de preço e outros sinais através de julgamento e interpretação contextual. Por outro lado, sistemas de IA dependem de padrões aprendidos a partir de dados passados.
Quando questionado se a IA poderia eventualmente desenvolver uma forma semelhante de julgamento, Svanevik revelou que é provável, embora não no sentido humano.
Ele detalhou que a IA desenvolveria sua própria forma de raciocínio contextual. O executivo acredita que ela poderia ser mais eficaz ao integrar dados ao vivo de um conjunto muito mais amplo de variáveis do que qualquer humano poderia acompanhar.
No entanto, ele também identificou um aspecto da análise on-chain que acredita que a IA nunca substituirá completamente: assumir a responsabilidade pelas decisões sob incerteza.
Svanevik apontou que, embora a IA possa detectar padrões, probabilidades e cenários potenciais, e avaliar o que aconteceu ou o que pode acontecer com base nos dados, ela não consegue determinar a tolerância ao risco de um indivíduo, julgamentos de valor ou assumir a responsabilidade por decisões quando os resultados forem negativos.
Ele reforçou que, independentemente de quão avançados os modelos de IA se tornem, a credibilidade continuará a repousar com os humanos em questões de julgamento, responsabilidade e convicção. A IA pode informar decisões, disse ele, mas os humanos as tomam e assumem as consequências.
Por fim, Svanevik vê a IA como uma facilitadora poderosa, e não uma tomadora de decisões. Enquanto a IA pode detectar padrões, probabilidades e insights em uma escala sem precedentes, o julgamento humano continua central para risco, responsabilidade e convicção. À medida que a análise impulsionada por IA se torna mais prevalente, a confiança recairá cada vez mais em plataformas que possam provar continuamente a qualidade de seus insights. Ao mesmo tempo, os humanos permanecem responsáveis por decidir o que importa e por sustentar os resultados.