L’agent conversationnel d’OpenAI est désormais disponible en préversion dans Azure. Cette offre permet aux développeurs d’intégrer les capacités de ChatGPT dans leurs propres applications.
Important investisseur d’OpenAI, Microsoft met les algorithmes de la startup à toutes les sauces, dans Bing ou encore dans GitHub. Et désormais dans Azure OpenAI Services. Ce dernier utilise déjà Dall-E 2 et Codex, entre autres modèles. Des modèles qui permettent de résumer le contenu d’un texte, de générer des emails ou encore d’aider à l’écriture de code.
Avec l’intégration de ChatGPT, en préversion, dans le service, les développeurs peuvent, peu ou prou, intégrer les capacités conversationnelles de l’IA star du moment dans leurs propres applications, « notamment en améliorant les bots existants pour gérer les questions inattendues, en récapitulant les conversations du centre d'appels pour permettre des résolutions plus rapides du support client, en créant de nouvelles publicités avec des réponses personnalisées, en automatisant le traitement des réclamations » détaille Microsoft.
Microsoft met du ChatGPT partout
Dans le détail, Azure OpenAI Service fournit un accès API REST aux modèles de langage OpenAI. Lesquels peuvent être adaptés par les développeurs tiers à des tâches spécifiques, telles que la génération de contenu, la recherche sémantique ou encore la traduction du langage naturel en code.
Azure OpenAI s’utilise de la même manière que tout autre service Azure, en débutant par la création d’une instance ou d’une ressource. Le système se fonde sur des jetons (en l’occurrence des mots courts ou morceaux de mots), qui servent à la tarification du service. Ainsi, l’API permet d'accéder à l'interface d'entrée et de sortie de texte du modèle.
Les utilisateurs doivent simplement fournir une invite de saisie contenant la commande de texte en anglais, et le modèle générera une complétion de texte. La première partie de l'invite comprend des instructions en langage naturel et/ou des exemples de la tâche spécifique souhaitée. Le modèle termine ensuite la tâche en prédisant le prochain morceau de texte le plus probable. Cette technique est connue sous le nom d'apprentissage « en contexte ».A noter que les utilisateurs peuvent accéder au service via les API REST, le SDK Python ou l’interface Web dans Azure OpenAI Studio.