A OpenAI anunciou dois novos modelos ChatGPT: o3 e o4-mini, que a OpenAI diz não serem apenas os modelos mais inteligentes e capazes disponíveis, mas também incluem recursos sem precedentes: a capacidade de realmente "pensar" imagens, não apenas olhar para imagens, mas também incorporar imagens no processo de inferência.
Ambos os modelos estão disponíveis para usuários dos planos ChatGPT Plus, Pro e Team, e estarão disponíveis para usuários do ChatGPT Enterprise e Edu dentro de uma semana. Ao mesmo tempo, os desenvolvedores agora podem usar os dois novos modelos por meio da API de conclusão de bate-papo e da API de respostas.
O3: Jogador completo, raciocínio e compreensão visual são totalmente atualizados
De acordo com a OpenAI, o modelo o3 se destaca em diversas áreas, especialmente estabelecendo novos padrões em tarefas como programação, operações matemáticas, raciocínio científico e compreensão visual. Este modelo também suporta a integração de várias ferramentas integradas, incluindo:
Pesquisa na Web
Ferramentas aritméticas Python
Análise e geração de imagens
Função de análise de ficheiros
Isso significa que os usuários agora podem não apenas fazer perguntas, mas também permitir que a IA realmente ajude a analisar dados, olhar para imagens e interpretar, e até mesmo gerar automaticamente imagens ou código.
O4-MINI: Máquina de inferência de alta eficiência, adequada para um grande número de necessidades de consulta
Em comparação com o O3, o O4-mini se concentra na otimização de custo e velocidade. Embora o modelo seja pequeno, suas capacidades de inferência ainda são excelentes, especialmente adequadas para aplicações que exigem alta frequência e alta taxa de transferência.
OpenAI diz que se você precisa fazer centenas de perguntas por dia, o4-mini é definitivamente a melhor escolha para você. E devido ao excelente desempenho e baixo custo de computação, os usuários podem desfrutar de cotas de uso mais altas.
Nova capacidade de pensar em imagens: de olhar para imagens a "pensar com imagens"
Um dos maiores destaques de ambos os modelos é a capacidade de "pensar com imagens" pela primeira vez.
Enquanto os modelos tradicionais de IA só podem ver imagens, o o3 e o o4-mini agora podem incorporar imagens em todo o processo de inferência. Isso significa que, se você passar uma imagem para o modelo, ele não apenas dirá o que está na imagem, mas tratará essa imagem como uma pista de raciocínio, analisará e integrará com os dados de texto e responderá com mais profundidade.
Este avanço é benéfico para áreas como a educação, a saúde, o design e a engenharia.
Peça ao GPT para raciocinar sobre o que escrever em uma nota invertida em uma imagem Você pode pedir ao ChatGPT para identificar o navio portuário na foto e deduzir informações relevantes A nova versão do modelo está online, e os usuários do ChatGPT podem experimentá-lo imediatamente
A partir de agora, os usuários do ChatGPT Plus, Pro e Team verão:
O3
O4-Mini
O4-Mini-Alto
Eles substituirão os antigos O1, O3-Mini e O3-Mini-High. Embora os usuários Pro atualmente possam escolher o modelo o1-pro, a OpenAI disse que o o3-pro será lançado nas próximas semanas, quando o suporte completo à ferramenta estará disponível.
As ferramentas de desenvolvedor são atualizadas de forma síncrona e a API de respostas aprimora os recursos de inferência
Além dos usuários do ChatGPT, os desenvolvedores agora podem usar o o3 e o o4-mini por meio da API de Conclusão de Chat e da API de Respostas recém-atualizada.
A API de respostas adiciona vários novos recursos, incluindo:
Sínteses de fundamentação
Suporte para tokens persistentes para processos de inferência (desempenho melhorado)
Ferramentas integradas, como pesquisa na web, pesquisa de arquivos e interpretador de código serão suportadas em breve
Isso permite que os desenvolvedores criem aplicativos mais inteligentes e racionais.
Com a introdução do o3 e o4-mini, a OpenAI elevou mais uma vez o teto dos modelos de IA. Não só a capacidade de raciocínio foi amplamente atualizada, mas também a capacidade de realmente entender "olhando para imagens e pensando" foi adicionada. Seja você um desenvolvedor, um usuário de negócios ou um usuário curioso do dia a dia, ambos os modelos oferecem mais opções e possibilidades.
Este artigo OpenAI lança o3 e o4-mini: o modelo ChatGPT mais inteligente estreia, e "inferência de imagem" torna-se um novo avanço appeared first in Chain News ABMedia.
O conteúdo é apenas para referência, não uma solicitação ou oferta. Nenhum aconselhamento fiscal, de investimento ou jurídico é fornecido. Consulte a isenção de responsabilidade para obter mais informações sobre riscos.
OpenAI apresenta O3 e O4-mini: o modelo ChatGPT mais inteligente estreia, e "inferência de imagem" é um novo avanço
A OpenAI anunciou dois novos modelos ChatGPT: o3 e o4-mini, que a OpenAI diz não serem apenas os modelos mais inteligentes e capazes disponíveis, mas também incluem recursos sem precedentes: a capacidade de realmente "pensar" imagens, não apenas olhar para imagens, mas também incorporar imagens no processo de inferência.
Ambos os modelos estão disponíveis para usuários dos planos ChatGPT Plus, Pro e Team, e estarão disponíveis para usuários do ChatGPT Enterprise e Edu dentro de uma semana. Ao mesmo tempo, os desenvolvedores agora podem usar os dois novos modelos por meio da API de conclusão de bate-papo e da API de respostas.
O3: Jogador completo, raciocínio e compreensão visual são totalmente atualizados
De acordo com a OpenAI, o modelo o3 se destaca em diversas áreas, especialmente estabelecendo novos padrões em tarefas como programação, operações matemáticas, raciocínio científico e compreensão visual. Este modelo também suporta a integração de várias ferramentas integradas, incluindo:
Pesquisa na Web
Ferramentas aritméticas Python
Análise e geração de imagens
Função de análise de ficheiros
Isso significa que os usuários agora podem não apenas fazer perguntas, mas também permitir que a IA realmente ajude a analisar dados, olhar para imagens e interpretar, e até mesmo gerar automaticamente imagens ou código.
O4-MINI: Máquina de inferência de alta eficiência, adequada para um grande número de necessidades de consulta
Em comparação com o O3, o O4-mini se concentra na otimização de custo e velocidade. Embora o modelo seja pequeno, suas capacidades de inferência ainda são excelentes, especialmente adequadas para aplicações que exigem alta frequência e alta taxa de transferência.
OpenAI diz que se você precisa fazer centenas de perguntas por dia, o4-mini é definitivamente a melhor escolha para você. E devido ao excelente desempenho e baixo custo de computação, os usuários podem desfrutar de cotas de uso mais altas.
Nova capacidade de pensar em imagens: de olhar para imagens a "pensar com imagens"
Um dos maiores destaques de ambos os modelos é a capacidade de "pensar com imagens" pela primeira vez.
Enquanto os modelos tradicionais de IA só podem ver imagens, o o3 e o o4-mini agora podem incorporar imagens em todo o processo de inferência. Isso significa que, se você passar uma imagem para o modelo, ele não apenas dirá o que está na imagem, mas tratará essa imagem como uma pista de raciocínio, analisará e integrará com os dados de texto e responderá com mais profundidade.
Este avanço é benéfico para áreas como a educação, a saúde, o design e a engenharia.
Peça ao GPT para raciocinar sobre o que escrever em uma nota invertida em uma imagem Você pode pedir ao ChatGPT para identificar o navio portuário na foto e deduzir informações relevantes A nova versão do modelo está online, e os usuários do ChatGPT podem experimentá-lo imediatamente
A partir de agora, os usuários do ChatGPT Plus, Pro e Team verão:
O3
O4-Mini
O4-Mini-Alto
Eles substituirão os antigos O1, O3-Mini e O3-Mini-High. Embora os usuários Pro atualmente possam escolher o modelo o1-pro, a OpenAI disse que o o3-pro será lançado nas próximas semanas, quando o suporte completo à ferramenta estará disponível.
As ferramentas de desenvolvedor são atualizadas de forma síncrona e a API de respostas aprimora os recursos de inferência
Além dos usuários do ChatGPT, os desenvolvedores agora podem usar o o3 e o o4-mini por meio da API de Conclusão de Chat e da API de Respostas recém-atualizada.
A API de respostas adiciona vários novos recursos, incluindo:
Sínteses de fundamentação
Suporte para tokens persistentes para processos de inferência (desempenho melhorado)
Ferramentas integradas, como pesquisa na web, pesquisa de arquivos e interpretador de código serão suportadas em breve
Isso permite que os desenvolvedores criem aplicativos mais inteligentes e racionais.
Com a introdução do o3 e o4-mini, a OpenAI elevou mais uma vez o teto dos modelos de IA. Não só a capacidade de raciocínio foi amplamente atualizada, mas também a capacidade de realmente entender "olhando para imagens e pensando" foi adicionada. Seja você um desenvolvedor, um usuário de negócios ou um usuário curioso do dia a dia, ambos os modelos oferecem mais opções e possibilidades.
Este artigo OpenAI lança o3 e o4-mini: o modelo ChatGPT mais inteligente estreia, e "inferência de imagem" torna-se um novo avanço appeared first in Chain News ABMedia.