OpenAI ou Azure OpenAI Service : quelle API privilégier pour votre usage ?
Quel service faut-il choisir pour l'intégration des modèles d'OpenAI dans vos projets ? Intégration, sécurité, prix… Nous avons comparé l'API historique d'OpenAI et celle de Microsoft, Azure OpenAI Service.
Les progrès de l'IA générative depuis la fin d'année 2022 amènent de nombreux éditeurs d'applications à intégrer de l'intelligence artificielle dans leur code. Chatbot, service client automatisé, assistance à la décision… Les cas d'usages ont décuplé depuis la sortie publique de ChatGPT. De nombreux services intelligents basés sur l'IA commencent à intégrer les modèles entraînés par OpenAI.
Classiquement et depuis le lancement du service commercial d'OpenAI, la start-up co-fondée par Sam Altman propose aux développeurs une API pour l'ensemble des modèles publics de l'entreprise. Simple d'utilisation et forte d'une documentation riche et claire, l'API était jusqu'à présent majoritairement utilisée par les développeurs de petites et moyennes entreprises.
Azure OpenAI : une offre historiquement business
Parallèlement à l'API d'OpenAI, Microsoft, partenaire officiel de l'entreprise, offrait de son côté un API dédiée réservée aux clients historiques. Lancé en novembre 2021, Azure OpenAI Service avait pour ambition de "permettre aux clients d'exploiter la puissance des modèles d'IA générative à grande échelle, avec les promesses d'entreprise que les clients attendent du cloud Azure et de son infrastructure informatique (sécurité, fiabilité, conformité, confidentialité des données et capacités d'IA responsable intégrées).
La firme de Redmond offrait ainsi un service tourné vers les grands groupes. En janvier 2023, Microsoft a finalement annoncé l'ouverture au public du service. Aujourd'hui, les deux services d'API, celui d'OpenAI et celui de Microsoft Azure, continuent d'exister en parallèle avec des usages similaires. Quelles sont les principales différences entre les deux offres ? Quel service choisir pour votre entreprise ? Nous comparons dans cet article les deux propositions commerciales.
Tableau comparatif des API OpenAI et Azure OpenAI Service
OpenAI |
Azure OpenAI Service |
|
Latence |
Normale |
Réduite |
Localisation des serveurs |
Etats-Unis |
Etats-Unis ou Europe |
Modèles disponibles |
Tous les modèles |
GPT-35-TURBO1 (0301) GPT-35-TURBO (0613) GPT-35-TURBO-16K (0613) GPT-41,2 (0314) GPT-4-32K1,2 (0314) GPT-41 (0613) GPT-4-32K1 (0613) |
Tarification en France (pour 1000 tokens) |
GPT-3.5-turbo 4k : 0,0015 $ | Output : 0,002 $ GPT-3.5-turbo 16k : 0,003 $ | Output : 0,004 $ |
GPT-3.5-turbo : 0,002 $ GPT-4 8K : 0,03 $ | Output : 0,06 $ GPT-4 32K : |
Incorporation rapide des nouvelles fonctionnalités |
Oui |
Non |
Prise en charge des réseaux virtuels et prise en charge des liaisons privées |
Non |
Oui |
Service Level Agreement (SLA) |
Non |
Oui |
Filtres |
Filtre OpenAI (text-moderation-latest et text-moderation-stable) |
Filtrage du contenu intégré par Microsoft |
Authentification API |
Clé secrète OpenAI |
Clé API ou Azure Active Directory |
Chiffrement des données dans le cloud |
Non |
256-bit AES |
Orientation commerciale générale |
Usage personnel, éducatif, professionnel Beta |
Business |
Un pricing équivalent
Azure OpenAI Service et OpenAI sont alignés sur le pricing des modèles. Les deux sociétés proposent une tarification au nombre de tokens. Pour rappel, 1 000 tokens correspondent environ à 750 mots en anglais. En France, Azure propose uniquement l'accès aux différentes versions de GPT-3.5-turbo et de GPT-4. Le tarif est assez complexe et varie selon le prompt et la sortie du modèle. Dans le détail, GPT-3.5-turbo s'affiche à 0,002 dollar pour 1 000 tokens, GPT-4 8K à 0,03 dollar en entrée et 0,06 dollar en sortie. Enfin GPT-4 est disponible pour 0,06 dollar en entrée et 0,12 dollar en sortie.
Les principales différences se situent du côté opératif. Marius Sandbu, cloud evangelist pour Sopra Steria en Norvège et spécialiste de Microsoft Azure, rappelle que "le service de Microsoft fait appel à une authentification complexe au lieu d'utiliser la clé API traditionnelle comme OpenAI." En plus d'une clef d'API traditionnelle, il est possible d'utiliser Azure Active Directory. Enfin, de son côté, Microsoft va entièrement chiffrer les données qui transitent sur ses serveurs au moyen d'un algorithme 256-bit AES. OpenAI ne chiffre pas les informations, privilégiant l'entraînement de ses propres modèles. En plus de ces mesures sécuritaires strictes, Azure OpenAI Service propose à ses clients une authentification renforcée avec la prise en charge des réseaux virtuels et des liaisons privées. Le but est clairement d'assurer une sécurité maximale au profit des grands groupes utilisant l'IA générative.
Latence réduite en Europe avec Azure
Enfin côté serveur, l'API de Microsoft est distribuée par le vaste réseau de datacenter Azure, avec de nombreux équipements en Europe, notamment en France et aux Pays-Bas. Une différence notable qui impacte directement le temps de réponse de l'API au sein du Vieux continent. Pour sa part, OpenAI délivre uniquement ses API via des serveurs américains, ce qui - outre l'impact sur le temps de réponse - reste problématique pour la législation européenne en la matière.
Côté innovation, OpenAI gagne le point, les nouveaux modèles et fonctionnalités récentes étant prioritairement distribuées par ses propres services. Azure finit très souvent par distribuer les nouveautés mais avec plusieurs mois de retard. En revanche les services proposés par Microsoft incluent un Service Level Agreement garanti avec une très bonne qualité de service. OpenAI offre un niveau de service correct mais de nombreuses pannes ont affecté l'entreprise et ses API depuis le début de l'année 2023.
Enfin sur la partie sécurité client, OpenAI et Microsoft proposent tous deux des filtres pour éviter les réponses identifiées comme problématiques. Microsoft se base sur des services développés en interne et OpenAI s'appuie en partie sur les modèles de modération "text-moderation-stable" et "text-moderation-latest".
Quel modèle pour quel usage ?
Les API d'OpenAI et de Microsoft Azure OpenAI Service vont certainement rester en concurrence encore quelque temps. Les usages diffèrent selon l'utilisation et les acteurs.
"Azure OpenAI s'oriente de plus en plus vers une version plus commerciale d'OpenAI, tandis qu'OpenAI et ChatGPT restent la version grand public", schématise Marius Sandbu. Pour les entreprises souhaitant développer un service autour de GPT, le cloud evangelist recommande de recourir aux services d'Azure qui disposent d'une meilleure sécurité, d'une latence réduite et d'une garantie de service.
Pour expérimenter de nouveaux produits, "comprendre comment les capacités se développent mais aussi comprendre l'écosystème qui l'entoure", le spécialiste recommande d'utiliser l'API d'OpenAI, plus flexible et dotée des dernières innovations en matière d'IA. "Le principal défi maintenant est de construire des services qui peuvent pallier les limitations de ChatGPT en lui fournissant de la mémoire, une connectivité internet et en ajoutant vos propres sources de données", ajoute-t-il. Il apparaît judicieux de faire appel à l'API d'OpenAI lors des phases alpha ou beta des tests de vos applications et de passer sur Azure lors de la mise en production.