OpenAI vient d’annoncer la mise à disposition générale de son puissant modèle GPT-4 Turbo avec Vision via l’API de l’entreprise, ouvrant de nouvelles perspectives pour les entreprises et les développeurs souhaitant intégrer des capacités avancées de langage et de vision dans leurs applications.
Une Étape Majeure
Le lancement de GPT-4 Turbo avec Vision sur l’API fait suite à la sortie initiale des fonctionnalités de vision et de téléversement audio de GPT-4 en septembre dernier et à la présentation du modèle GPT-4 Turbo survitaminé lors de la conférence des développeurs d’OpenAI en novembre.
Améliorations Clés
GPT-4 Turbo promet des améliorations significatives en termes de vitesse, de fenêtres de contexte d’entrée plus grandes pouvant aller jusqu’à 128 000 jetons (équivalent à environ 300 pages) et une accessibilité accrue pour les développeurs.
Intégration Facilitée
Une amélioration clé est la possibilité pour les requêtes API d’utiliser les capacités de reconnaissance et d’analyse visuelle du modèle via le format JSON et l’appel de fonctions. Cela permet aux développeurs de générer des extraits de code JSON pouvant automatiser des actions au sein des applications connectées, telles que l’envoi d’e-mails, les achats ou la publication en ligne. Cependant, OpenAI recommande vivement de mettre en place des flux de confirmation utilisateur avant de prendre des actions ayant un impact dans le monde réel.
Cas d’Utilisation Exemplaires
Plusieurs startups tirent déjà parti de GPT-4 Turbo avec Vision, notamment Cognition, dont l’agent de codage IA Devin s’appuie sur le modèle pour générer automatiquement du code complet. 🤖