OpenAI Dévoile GPT-4o : une avancée majeure dans l’interaction Homme-Machine
Getting your Trinity Audio player ready...
|
OpenAI a annoncé la sortie de GPT-4o, la dernière version de sa technologie d’intelligence artificielle révolutionnaire, offrant des capacités améliorées en traitement de texte, audio et image. Cette mise à jour rend l’outil avancé d’IA disponible gratuitement pour tous les utilisateurs.
San Francisco, le 27 mai 2024 – Lors d’un événement très attendu à San Francisco, Mira Murati, directrice de la technologie d’OpenAI, a présenté GPT-4o, soulignant son potentiel à révolutionner les interactions homme-machine. « Nous sommes, très heureux de proposer GPT-4o à tous nos utilisateurs gratuits, » a déclaré Murati.
Capacités et performances améliorées
GPT-4o, où le « o » signifie « omni », représente une amélioration significative par rapport aux modèles précédents. Il peut comprendre et générer des réponses sous forme de texte, audio et visuel, offrant une expérience utilisateur plus naturelle et fluide. Selon OpenAI, GPT-4o égale les performances de GPT-4 Turbo en traitement de texte et de code en anglais, tout en s’améliorant considérablement dans les langues non anglaises, la vision et la compréhension audio. Il est également deux fois plus rapide et 50 % moins cher dans l’API.
Le PDG d’OpenAI, Sam Altman, a exprimé son enthousiasme dans un billet de blog, soulignant le mode vocal et vidéo avancé de GPT-4o. « Le nouveau mode vocal est la meilleure interface informatique que j’ai jamais utilisée. On dirait de l’IA tout droit sortie des films, » a écrit Altman, faisant référence aux interactions intuitives dépeintes dans le film « Her ».
Interaction vocale révolutionnaire
GPT-4o introduit un modèle unifié qui traite les entrées et sorties de texte, de vision et d’audio, améliorant la précision et la réactivité des interactions vocales. Cette approche intégrée corrige les limitations des pipelines multi-modèles précédents, permettant des réponses IA plus nuancées et expressives.
Lors de l’événement de lancement virtuel, le personnel d’OpenAI a démontré les capacités de GPT-4o en engageant des conversations en temps réel, en interprétant des expressions faciales et en résolvant des problèmes complexes. L’IA a également montré sa compétence multilingue et sa capacité à analyser des entrées visuelles, comme interpréter l’environnement via une caméra de smartphone.
Déploiement P progressif et développements futurs
OpenAI prévoit de déployer GPT-4o progressivement, en commençant par les fonctionnalités de texte et d’image disponibles immédiatement pour les utilisateurs de ChatGPT. Le modèle sera également accessible via l’API pour les développeurs. Les futures mises à jour introduiront des capacités audio et vidéo avancées.
L’introduction de GPT-4o s’inscrit dans la mission plus large d’OpenAI de rendre les outils d’IA avancés largement accessibles. Malgré les avancées impressionnantes du modèle, OpenAI reconnaît qu’il existe encore des limitations et des risques continus associés à son utilisation. La société s’engage à une amélioration continue et à l’atténuation des risques, avec des plans pour publier une documentation détaillée sur les capacités et les mesures de sécurité de GPT-4o.
Concurrence et implications industrielles
Cette sortie intervient alors que Google se prépare à annoncer des mises à jour de son outil d’IA, Gemini, qui concurrence directement ChatGPT. La course aux armements en IA continue de s’intensifier, avec des acteurs majeurs comme Microsoft, Meta et Anthropic cherchant également à dominer le marché de l’IA générative.
La décision d’OpenAI de rendre GPT-4o gratuit soulève des questions sur sa stratégie de monétisation, en particulier à la lumière des coûts élevés associés à l’IA générative. Cependant, Altman a assuré que l’entreprise trouverait des moyens de facturer des fonctionnalités et des services avancés.
Alors que la concurrence s’intensifie, OpenAI reste concentré sur l’avancement de la technologie de l’IA et sur l’assurance de son accessibilité pour tous les utilisateurs.
Deslande ARISTILDE
Vant Bèf Info (VBI)