Skip to main content

Prototypage avec des modèles IA

Recherchez et expérimentez gratuitement des modèles IA.

Si vous souhaitez développer une application d’IA générative, vous pouvez utiliser GitHub Models pour rechercher et expérimenter gratuitement des modèles IA. Une fois que vous êtes prêt à mettre votre application en production, optez pour l’utilisation payante pour votre entreprise.

Les propriétaires d'organisations peuvent intégrer leurs modèles personnalisés préférés dans GitHub Models, en utilisant les clés API LLM propres à leur organisation. Consultez Utilisation de vos propres clés API dans les modèles GitHub.

Consultez également Utilisation responsable des modèles GitHub.

Rechercher des modèles IA

Pour trouver un modèle d’IA :

  1. Accédez à github.com/marketplace/models.

  2. Cliquez sur Modèle : sélectionner un modèle en haut à gauche de la page.

  3. Choisissez un modèle dans le menu déroulant.

    Ou bien, dans le menu déroulant, cliquez sur Voir tous les modèles, cliquez sur un modèle dans le Marché, puis cliquez sur Terrain de jeux.

Le modèle est ouvert dans l’aire de jeu du modèle. Les détails du modèle sont affichés dans la barre latérale à droite. Si la barre latérale n’est pas affichée, développez-la en cliquant sur l’icône à droite du terrain de jeu.

Remarque

L’accès aux modèles d’OpenAI est actuellement en préversion publique et peut être amené à changer.

Expérimentation de modèles IA dans le terrain de jeu

Le terrain de jeu du modèle d’IA est une ressource gratuite qui vous permet d’ajuster les paramètres du modèle et de soumettre des prompts pour voir comment un modèle réagit.

Remarque

  • Le modèle de terrain de jeu se trouve dans préversion publique et est susceptible d’être modifié.
  • Le terrain de jeu est soumis à une limitation de débit. Consultez les limites de débit ci-dessous.

Pour ajuster les paramètres du modèle, dans le terrain de jeu, sélectionnez l’onglet Paramètres dans la barre latérale.

Pour afficher le code qui correspond aux paramètres que vous avez sélectionnés, passez de l’onglet Conversation à l’onglet Code.

Capture d’écran du bouton de l’onglet « Code », mis en évidence par un contour orange foncé, en haut à gauche du terrain de jeu.

Comparaison des modèles

Vous pouvez soumettre un prompt à deux modèles en même temps et comparer les réponses.

Avec un modèle ouvert dans le terrain de jeu, cliquez sur Comparer, puis, dans le menu déroulant, sélectionnez un modèle pour la comparaison. Le modèle sélectionné s’ouvre dans une seconde fenêtre de discussion. Lorsque vous tapez un prompt dans l’une des deux fenêtres de conversation, le prompt est reproduit dans l’autre fenêtre. Les prompts sont soumis simultanément afin que vous puissiez comparer les réponses de chaque modèle.

Tous les paramètres que vous avez définis sont utilisés pour les deux modèles.

Évaluation des modèles IA

Une fois que vous avez commencé à tester les prompts dans le terrain de jeu, vous pouvez évaluer les performances du modèle à l’aide de métriques structurées. Les évaluations vous aident à comparer plusieurs configurations de prompts entre différents modèles et à déterminer la configuration la plus performante.

Dans la vue Comparaisons, vous pouvez utiliser des critères d’évaluation comme la similarité, la pertinence et l’ancrage pour mesurer à quel point chaque résultat répond à vos attentes. Vous pouvez également définir vos propres critères d’évaluation à l’aide d’un évaluateur de prompt personnalisé.

Pour obtenir des instructions pas à pas, consultez Évaluation des sorties.

Expérimentation de modèles IA à l’aide de l’API

Remarque

L’utilisation gratuite de l’API est en préversion publique et peut être modifiée.

GitHub fournit une utilisation gratuite de l’API afin de pouvoir expérimenter des modèles IA dans votre propre application.

Les étapes à suivre pour utiliser chaque modèle sont similaires. En général, vous devez :

  1. Accédez à github.com/marketplace/models.

  2. Cliquez sur Modèle : sélectionner un modèle en haut à gauche de la page.

  3. Choisissez un modèle dans le menu déroulant.

    Ou bien, dans le menu déroulant, cliquez sur Voir tous les modèles, cliquez sur un modèle dans le Marché, puis cliquez sur Terrain de jeux.

    Le modèle s’ouvre dans l’aire de jeu du modèle.

  4. Cliquez sur l’onglet Code.

  5. Optionnellement, utiliser le menu déroulant de la langue pour sélectionner le langage de programmation.

  6. Optionnellement, utiliser la liste déroulante du Kit de développement logiciel (SDK) pour sélectionner le SDK à utiliser.

    Tous les modèles peuvent être utilisés avec le Kit de développement logiciel (SDK) d’inférence Azure AI, et certains modèles prennent en charge des kits SDK supplémentaires. Si vous souhaitez passer facilement d'un modèle à l'autre, vous devez sélectionner « Azure AI Inference SDK ». Si vous avez sélectionné « REST » comme language, vous n’utiliserez pas de SDK. Au lieu de cela, vous allez utiliser directement le point de terminaison d’API. Consultez API REST GitHub Models.

  7. Ouvrez un espace de code ou configurez votre environnement local :

    • Pour exécuter dans un codespace, cliquez sur Exécuter le codespace, puis cliquez sur Créer un nouveau codespace.
    • Pour exécuter en local :
      • Créez un GitHub personal access token. Le jeton doit disposer d’autorisations models:read. Consultez Gestion de vos jetons d’accès personnels.
      • Enregistrez votre jeton en tant que variable d’environnement.
      • Installez les dépendances pour le Kit de développement logiciel (SDK), si nécessaire.
  8. Utilisez l’exemple de code pour envoyer une demande au modèle.

L’utilisation gratuite de l’API est limitée. Consultez les limites de débit ci-dessous.

Sauvegarde et partage des expériences réalisées dans l'aire de jeux

Vous pouvez enregistrer et partager vos progrès dans l'aire de jeux grâce à des préréglages. Les préréglages enregistrent :

  • Votre état actuel
  • Vos paramètres
  • Votre historique de conversation (facultatif)

Pour créer un préréglage pour votre contexte actuel, sélectionnez Préréglage : PRESET-NAME en haut à droite du terrain de jeu, puis cliquez sur Créer un nouveau préréglage. Vous devez donner un nom à votre préréglage et vous pouvez également choisir de fournir une description du préréglage, d'inclure votre historique de chat et d'autoriser le partage de votre préréglage.

Il y a deux façons de charger un préréglage :

  • Sélectionnez le menu déroulant Préréglage : PRESET-NAME , puis cliquez sur le préréglage que vous souhaitez charger.
  • Ouvrir une URL de préréglage partagée

Après avoir chargé un préréglage, vous pouvez le modifier, le partager ou le supprimer :

  • Pour modifier le préréglage, changez les paramètres et lancez le modèle. Une fois que vous êtes satisfait de vos modifications, sélectionnez le menu déroulant Préréglage : NOM-PRÉRÉGLAGE , puis cliquez sur Modifier le préréglage et enregistrez vos mises à jour.
  • Pour partager le préréglage, sélectionnez le menu déroulant Préréglage : NOM-PRÉRÉGLAGE, puis cliquez surk Partager le préréglagepour obtenir une URL partageable.
  • Pour supprimer le préréglage, sélectionnez le menu déroulant Préréglage : NOM-PRÉRÉGLAGE , puis cliquez sur ** Supprimer le préréglage** et confirmez la suppression.

Utilisation de l'éditeur de commandes

L'éditeur d'invites dans GitHub Models est conçu pour vous aider à itérer, affiner et perfectionner vos invites. Cette vue dédiée offre une expérience ciblée et intuitive pour l’élaboration et le test des entrées, ce qui vous permet de :

  • Testez et affinez rapidement les invites sans la complexité des interactions à plusieurs tours.
  • Ajustez les incitations pour la précision et la pertinence dans vos projets.
  • Utilisez un espace spécialisé pour les scénarios à tour unique pour garantir des résultats cohérents et optimisés.

Pour accéder à l’éditeur d’invites, cliquez sur ** Éditeur d’invites** en haut à droite de l’aire de jeu.

Capture d'écran du bouton « Prompt editor », mis en évidence par un contour orange foncé, en haut à droite de l'aire de jeu.

Expérimenter des modèles d'IA dans Visual Studio Code

Remarque

L'extension AI Toolkit pour Visual Studio Code est dans préversion publique et est susceptible d'être modifiée.

Si vous préférez expérimenter des modèles d'IA dans votre IDE, vous pouvez installer l'extension AI Toolkit pour Visual Studio Code, puis tester des modèles avec des paramètres et un contexte ajustables.

  1. Dans Visual Studio Code, installez la version préliminaire du AI Toolkit pour Visual Studio Code.

  2. Pour ouvrir l'extension, cliquez sur l'icône AI Toolkit dans la barre d'activité.

  3. Autorisez le AI Toolkit à se connecter à votre compte GitHub.

  4. Dans la section « Mes modèles » du panneau AI Toolkit, cliquez sur Ouvrir le catalogue de modèles, puis recherchez un modèle à expérimenter.

    • Pour utiliser un modèle hébergé à distance via GitHub Models, sur la fiche du modèle, cliquez sur Essai dans le terrain de jeu.
    • Pour télécharger et utiliser un modèle localement, sur la carte de modèle, cliquez sur Télécharger. Une fois le téléchargement terminé, sur la même fiche du modèle, cliquez sur Charger dans l’aire de jeu.
  5. Dans la barre latérale, indiquez les instructions contextuelles et les paramètres d'inférence du modèle, puis envoyez une invite.

Mise en production

Les limites de fréquence gratuites fournies dans l’aire de jeu et pour l’utilisation de l’API sont conçues pour vous aider à commencer vos expérimentations. Lorsque vous êtes prêt à aller au-delà de l’offre gratuite, vous avez deux options pour accéder aux modèles IA au-delà des limites gratuites :

  • Vous pouvez opter pour une utilisation payante de GitHub Models, ce qui permettra à votre organisation d'accéder à des limites de débit accrues, à des fenêtres contextuelles plus grandes et à des fonctionnalités supplémentaires. Consultez facturation des modèles GitHub.
  • Si vous disposez d’un abonnement OpenAI ou Azure existant, vous pouvez apporter vos propres clés API (BYOK) pour accéder aux modèles personnalisés. La facturation et l’utilisation sont gérées directement via votre compte fournisseur, comme votre ID d’abonnement Azure. Consultez Utilisation de vos propres clés API dans les modèles GitHub.

Limites de débit

Remarque

Une fois que vous aurez opté pour l'utilisation payante, vous aurez accès à des limites de débit de niveau production et serez facturé pour toute utilisation ultérieure. Pour plus d’informations sur ces limites de débit, consultez les quotas et limites des modèles Microsoft Foundry dans la documentation Azure.

L’aire de jeu et l’utilisation gratuite de l’API sont limitées en fonction du nombre de requêtes par minute, des requêtes par jour, des jetons par requête et des requêtes simultanées. Si vous êtes limité par le débit, vous devrez attendre que la limitation de la fréquence que vous avez atteinte soit rétablie avant de pouvoir faire d'autres demandes.

Les modèles bas, élevés et incorporés ont des limites de débit différentes. Pour voir quel type de modèle vous utilisez, reportez-vous aux informations du modèle dans GitHub Marketplace.

Pour les modèles personnalisés accessibles avec vos propres clés API, les limites de débit sont définies et appliquées par votre fournisseur de modèles.

Niveau de limite de débit Limites de taux Copilot gratuit Copilot Pro Copilot Business Copilot Enterprise
 Faible Demandes par minute 15 15 15 20
Demandes par jour 150 150 300 450
Jetons par demande 8 000 en entrée, 4 000 en sortie 8 000 en entrée, 4 000 en sortie 8 000 en entrée, 4 000 en sortie 8 000 en entrée, 8 000 en sortie
Demandes simultanées 5 5 5 8
Élevé Demandes par minute 10 10 10 15
Demandes par jour 50 50 100 150
Jetons par demande 8 000 en entrée, 4 000 en sortie 8 000 en entrée, 4 000 en sortie 8 000 en entrée, 4 000 en sortie 16 000 en entrée, 8 000 en sortie
Demandes simultanées 2 2 2 4
Intégration Demandes par minute 15 15 15 20
Demandes par jour 150 150 300 450
Jetons par demande 64 000 64 000 64 000 64 000
Demandes simultanées 5 5 5 8
Azure OpenAI o1 aperçu Demandes par minute Non applicable 1 2 2
Demandes par jour Non applicable 8 10 12
Jetons par demande Non applicable 4 000 en entrée, 4 000 en sortie 4 000 en entrée, 4 000 en sortie 4 000 en entrée, 8 000 en sortie
Demandes simultanées Non applicable 1 1 1
Azure OpenAI o1, o3 et gpt-5 Demandes par minute Non applicable 1 2 2
Demandes par jour Non applicable 8 10 12
Jetons par demande Non applicable 4 000 en entrée, 4 000 en sortie 4 000 en entrée, 4 000 en sortie 4 000 en entrée, 8 000 en sortie
Demandes simultanées Non applicable 1 1 1
Azure OpenAI o1-mini, o3-mini, o4-mini, gpt-5-mini, gpt-5-nano et gpt-5-chat Demandes par minute Non applicable 2 3 3
Demandes par jour Non applicable 12 15 20
Jetons par demande Non applicable 4 000 en entrée, 4 000 en sortie 4 000 en entrée, 4 000 en sortie 4 000 en entrée, 4 000 en sortie
Demandes simultanées Non applicable 1 1 1
DeepSeek-R1, DeepSeek-R1-0528 et MAI-DS-R1 Demandes par minute 1 1 2 2
Demandes par jour 8 8 10 12
Jetons par demande 4 000 en entrée, 4 000 en sortie 4 000 en entrée, 4 000 en sortie 4 000 en entrée, 4 000 en sortie 4 000 en entrée, 4 000 en sortie
Demandes simultanées 1 1 1 1
xAI Grok-3 Demandes par minute 1 1 2 2
Demandes par jour 15 15 20 30
Jetons par demande 4 000 en entrée, 4 000 en sortie 4 000 en entrée, 4 000 en sortie 4 000 en entrée, 8 000 en sortie 4 000 en entrée, 16 000 en sortie
Demandes simultanées 1 1 1 1
xAI Grok-3-Mini Demandes par minute 2 2 3 3
Demandes par jour 30 30 40 50
Jetons par demande 4 000 en entrée, 8 000 en sortie 4 000 en entrée, 8 000 en sortie 4 000 en entrée, 12 000 en sortie 4 000 en entrée, 12 000 en sortie
Demandes simultanées 1 1 1 1

Ces limitations de débit sont susceptibles de changer sans préavis.

Laisser un retour d’expérience

Pour poser des questions et partager vos commentaires, consultez ce billet de discussion GitHub Models. Pour découvrir comment d’autres utilisateurs utilisent GitHub Models, rendez-vous sur les discussions de la communauté github consacrées aux modèles.