OpenAI a annoncé deux nouveaux modèles ChatGPT : o3 et o4-mini, qui, selon OpenAI, sont non seulement les modèles les plus intelligents et les plus performants disponibles, mais incluent également des capacités sans précédent : la capacité de vraiment « penser » des images, pas seulement de regarder des images, mais aussi d’incorporer des images dans le processus d’inférence.
Les deux modèles sont disponibles pour les utilisateurs des plans ChatGPT Plus, Pro et Team, et seront disponibles pour les utilisateurs de ChatGPT Enterprise et Edu d’ici une semaine. Dans le même temps, les développeurs peuvent désormais utiliser les deux nouveaux modèles via l’API Chat Completions et l’API Responses.
O3 : Le joueur complet, le raisonnement et la compréhension visuelle sont entièrement améliorés
Selon OpenAI, le modèle o3 excelle dans plusieurs domaines, en particulier l’établissement de nouvelles normes dans des tâches telles que la programmation, les opérations mathématiques, le raisonnement scientifique et la compréhension visuelle. Ce modèle prend également en charge l’intégration de plusieurs outils intégrés, notamment :
Recherche sur le Web
Outils d’arithmétique Python
Analyse et génération d’images
Fonction d’analyse de fichiers
Cela signifie que les utilisateurs peuvent désormais non seulement poser des questions, mais aussi permettre à l’IA d’aider à analyser des données, à regarder des images et à les interpréter, et même à générer automatiquement des images ou du code.
O4-MINI : Machine d’inférence à haut rendement, adaptée à un grand nombre de besoins de requête
Par rapport à l’O3, l’O4-mini se concentre sur l’optimisation des coûts et de la vitesse. Bien que le modèle soit petit, ses capacités d’inférence sont toujours excellentes, particulièrement adaptées aux applications qui nécessitent une fréquence et un débit élevés.
OpenAI dit que si vous avez besoin de poser des centaines de questions par jour, o4-mini est certainement le meilleur choix pour vous. Et en raison des excellentes performances et du faible coût de calcul, les utilisateurs peuvent profiter de quotas d’utilisation plus élevés.
Nouvelle capacité à penser les images : de regarder des images à « penser avec des images »
L’un des plus grands points forts des deux modèles est la possibilité de « penser avec des images » pour la première fois.
Alors que les modèles d’IA traditionnels ne peuvent voir que des images, o3 et o4-mini peuvent désormais intégrer des images dans l’ensemble du processus d’inférence. Cela signifie que si vous transmettez une image au modèle, celui-ci ne se contentera pas de vous dire ce qu’il y a dans l’image, mais traitera cette image comme un indice de raisonnement, analysera et intégrera les données textuelles, et répondra plus en profondeur.
Cette percée est une aubaine pour des domaines tels que l’éducation, la santé, le design et l’ingénierie.
Demandez à GPT de raisonner sur ce qu’il faut écrire dans une note inversée dans une image Vous pouvez demander à ChatGPT d’identifier le navire portuaire sur la photo et d’en déduire des informations pertinentes La nouvelle version du modèle est en ligne, et les utilisateurs de ChatGPT peuvent en faire l’expérience immédiatement
À partir de maintenant, les utilisateurs de ChatGPT Plus, Pro et Team verront :
O3
o4-mini
o4-mini-haute
Ils remplaceront les anciens O1, O3-Mini et O3-Mini-High. Bien que les utilisateurs Pro puissent actuellement choisir le modèle o1-pro, OpenAI a déclaré que l’o3-pro sera lancé dans les prochaines semaines, lorsque la prise en charge complète de l’outil sera disponible.
Les outils de développement sont mis à niveau de manière synchrone et l’API Responses améliore les capacités d’inférence
En plus des utilisateurs de ChatGPT, les développeurs peuvent désormais utiliser o3 et o4-mini via l’API Chat Completions et l’API Responses récemment mise à niveau.
L’API Responses ajoute plusieurs nouvelles fonctionnalités, notamment :
Résumés de raisonnement
Prise en charge des jetons persistants pour les processus d’inférence (performances améliorées)
Des outils intégrés tels que la recherche sur le Web, la recherche de fichiers et l’interpréteur de code seront bientôt pris en charge
Cela permet aux développeurs de créer des applications plus intelligentes et plus raisonnées.
Avec l’introduction de l’o3 et de l’o4-mini, OpenAI a une fois de plus relevé le plafond des modèles d’IA. Non seulement la capacité de raisonnement a été complètement améliorée, mais aussi la capacité de vraiment comprendre « regarder des images et penser » a été ajoutée. Que vous soyez un développeur, un utilisateur professionnel ou un utilisateur quotidien curieux, les deux modèles offrent plus d’options et de possibilités.
Cet article OpenAI lance o3 et o4-mini : le modèle ChatGPT le plus intelligent fait ses débuts, et « l’inférence d’image » devient une nouvelle percée est apparu en premier dans Chain News ABMedia.
Le contenu est fourni à titre de référence uniquement, il ne s'agit pas d'une sollicitation ou d'une offre. Aucun conseil en investissement, fiscalité ou juridique n'est fourni. Consultez l'Avertissement pour plus de détails sur les risques.
OpenAI présente O3 et O4-mini : le modèle ChatGPT le plus intelligent fait ses débuts, et « l’inférence d’image » est une nouvelle percée
OpenAI a annoncé deux nouveaux modèles ChatGPT : o3 et o4-mini, qui, selon OpenAI, sont non seulement les modèles les plus intelligents et les plus performants disponibles, mais incluent également des capacités sans précédent : la capacité de vraiment « penser » des images, pas seulement de regarder des images, mais aussi d’incorporer des images dans le processus d’inférence.
Les deux modèles sont disponibles pour les utilisateurs des plans ChatGPT Plus, Pro et Team, et seront disponibles pour les utilisateurs de ChatGPT Enterprise et Edu d’ici une semaine. Dans le même temps, les développeurs peuvent désormais utiliser les deux nouveaux modèles via l’API Chat Completions et l’API Responses.
O3 : Le joueur complet, le raisonnement et la compréhension visuelle sont entièrement améliorés
Selon OpenAI, le modèle o3 excelle dans plusieurs domaines, en particulier l’établissement de nouvelles normes dans des tâches telles que la programmation, les opérations mathématiques, le raisonnement scientifique et la compréhension visuelle. Ce modèle prend également en charge l’intégration de plusieurs outils intégrés, notamment :
Recherche sur le Web
Outils d’arithmétique Python
Analyse et génération d’images
Fonction d’analyse de fichiers
Cela signifie que les utilisateurs peuvent désormais non seulement poser des questions, mais aussi permettre à l’IA d’aider à analyser des données, à regarder des images et à les interpréter, et même à générer automatiquement des images ou du code.
O4-MINI : Machine d’inférence à haut rendement, adaptée à un grand nombre de besoins de requête
Par rapport à l’O3, l’O4-mini se concentre sur l’optimisation des coûts et de la vitesse. Bien que le modèle soit petit, ses capacités d’inférence sont toujours excellentes, particulièrement adaptées aux applications qui nécessitent une fréquence et un débit élevés.
OpenAI dit que si vous avez besoin de poser des centaines de questions par jour, o4-mini est certainement le meilleur choix pour vous. Et en raison des excellentes performances et du faible coût de calcul, les utilisateurs peuvent profiter de quotas d’utilisation plus élevés.
Nouvelle capacité à penser les images : de regarder des images à « penser avec des images »
L’un des plus grands points forts des deux modèles est la possibilité de « penser avec des images » pour la première fois.
Alors que les modèles d’IA traditionnels ne peuvent voir que des images, o3 et o4-mini peuvent désormais intégrer des images dans l’ensemble du processus d’inférence. Cela signifie que si vous transmettez une image au modèle, celui-ci ne se contentera pas de vous dire ce qu’il y a dans l’image, mais traitera cette image comme un indice de raisonnement, analysera et intégrera les données textuelles, et répondra plus en profondeur.
Cette percée est une aubaine pour des domaines tels que l’éducation, la santé, le design et l’ingénierie.
Demandez à GPT de raisonner sur ce qu’il faut écrire dans une note inversée dans une image Vous pouvez demander à ChatGPT d’identifier le navire portuaire sur la photo et d’en déduire des informations pertinentes La nouvelle version du modèle est en ligne, et les utilisateurs de ChatGPT peuvent en faire l’expérience immédiatement
À partir de maintenant, les utilisateurs de ChatGPT Plus, Pro et Team verront :
O3
o4-mini
o4-mini-haute
Ils remplaceront les anciens O1, O3-Mini et O3-Mini-High. Bien que les utilisateurs Pro puissent actuellement choisir le modèle o1-pro, OpenAI a déclaré que l’o3-pro sera lancé dans les prochaines semaines, lorsque la prise en charge complète de l’outil sera disponible.
Les outils de développement sont mis à niveau de manière synchrone et l’API Responses améliore les capacités d’inférence
En plus des utilisateurs de ChatGPT, les développeurs peuvent désormais utiliser o3 et o4-mini via l’API Chat Completions et l’API Responses récemment mise à niveau.
L’API Responses ajoute plusieurs nouvelles fonctionnalités, notamment :
Résumés de raisonnement
Prise en charge des jetons persistants pour les processus d’inférence (performances améliorées)
Des outils intégrés tels que la recherche sur le Web, la recherche de fichiers et l’interpréteur de code seront bientôt pris en charge
Cela permet aux développeurs de créer des applications plus intelligentes et plus raisonnées.
Avec l’introduction de l’o3 et de l’o4-mini, OpenAI a une fois de plus relevé le plafond des modèles d’IA. Non seulement la capacité de raisonnement a été complètement améliorée, mais aussi la capacité de vraiment comprendre « regarder des images et penser » a été ajoutée. Que vous soyez un développeur, un utilisateur professionnel ou un utilisateur quotidien curieux, les deux modèles offrent plus d’options et de possibilités.
Cet article OpenAI lance o3 et o4-mini : le modèle ChatGPT le plus intelligent fait ses débuts, et « l’inférence d’image » devient une nouvelle percée est apparu en premier dans Chain News ABMedia.