Les développeurs peuvent tester des applications IA avec cet outil gratuit

La demande pour des outils simplifiant et optimisant le développement de l’intelligence artificielle générative connaît une explosion. Les applications basées sur la génération augmentée par récupération (RAG) — une technique améliorant la précision et la fiabilité des modèles d’IA générative grâce à des faits récupérés depuis des sources externes spécifiques — et les modèles personnalisés permettent aux développeurs d’affiner les modèles d’IA selon leurs besoins. Autrefois, ce type de travail nécessitait une configuration complexe, mais les nouveaux outils facilitent cette tâche comme jamais auparavant.

Qu’est-ce que NVIDIA AI Workbench ?

NVIDIA AI Workbench, disponible gratuitement, permet aux utilisateurs de développer, expérimenter, tester et prototyper des applications d’IA sur divers systèmes GPU de leur choix — des ordinateurs portables et stations de travail aux centres de données et au cloud. Il offre une nouvelle approche pour créer, utiliser et partager des environnements de développement accélérés par GPU entre personnes et systèmes.

Une installation simple permet aux utilisateurs de démarrer avec AI Workbench sur une machine locale ou distante en quelques minutes seulement. Vous pouvez ensuite commencer un nouveau projet ou en reproduire un à partir des exemples disponibles sur GitHub. Tout fonctionne via GitHub ou GitLab, facilitant ainsi la collaboration et la distribution des travaux.

Comment AI Workbench aide à relever les défis des projets IA

Le développement de charges de travail IA peut nécessiter des processus manuels souvent complexes, dès le début.

Configurer les GPU, mettre à jour les pilotes et gérer les incompatibilités de version peuvent être fastidieux. Reproduire des projets sur différents systèmes peut nécessiter de répéter des processus manuels encore et encore. Les incohérences lors de la reproduction des projets, comme les problèmes de fragmentation des données et de contrôle de version, peuvent entraver la collaboration. Des processus de configuration variés, le déplacement des informations d’identification et des secrets, et les changements d’environnement, de données, de modèles et d’emplacements de fichiers peuvent tous limiter la portabilité des projets.

AI Workbench facilite la gestion des travaux des data scientists et des développeurs, ainsi que la collaboration sur des plateformes hétérogènes. Il intègre et automatise divers aspects du processus de développement, offrant :

  • Facilité de configuration : AI Workbench simplifie le processus de configuration d’un environnement de développement accéléré par GPU, même pour les utilisateurs ayant des connaissances techniques limitées.
  • Collaboration sans heurts : AI Workbench s’intègre avec des outils de contrôle de version et de gestion de projet comme GitHub et GitLab, réduisant les frictions lors de la collaboration.
  • Cohérence lors de l’évolutivité du local au cloud : AI Workbench assure une cohérence entre plusieurs environnements, soutenant l’évolutivité des stations de travail locales ou des PC aux centres de données ou au cloud.

La RAG pour les documents, plus facile que jamais

NVIDIA propose des projets de développement Workbench échantillons pour aider les utilisateurs à démarrer avec AI Workbench. Le projet de Workbench hybride RAG en est un exemple : il exécute une application web RAG personnalisée basée sur du texte avec les documents de l’utilisateur sur leur station de travail, PC ou système distant.

Chaque projet Workbench fonctionne dans un « container » — un logiciel qui inclut tous les composants nécessaires pour exécuter l’application IA. L’exemple hybride RAG associe une interface de chat Gradio sur la machine hôte avec un serveur RAG conteneurisé — le backend qui gère les demandes de l’utilisateur et achemine les requêtes vers et depuis la base de données vectorielle et le modèle de langage large (LLM) sélectionné.

Ce projet Workbench prend en charge une grande variété de LLM disponibles sur la page GitHub de NVIDIA. De plus, la nature hybride du projet permet aux utilisateurs de choisir où exécuter l’inférence.

Les développeurs peuvent exécuter le modèle d’intégration sur la machine hôte et exécuter l’inférence localement sur un serveur Inference de génération de texte Hugging Face, sur des ressources cloud cibles utilisant des points d’accès d’inférence NVIDIA comme le catalogue d’API NVIDIA, ou avec des microservices d’auto-hébergement tels que NVIDIA NIM ou des services tiers.

Le projet Workbench hybride RAG inclut également :

  • Metrics de performance : Les utilisateurs peuvent évaluer les performances des requêtes utilisateur basées sur RAG et non-RAG dans chaque mode d’inférence. Les metrics suivis incluent le temps de récupération, le temps jusqu’au premier token (TTFT) et la vitesse de token.
  • Transparence de récupération : Un panneau montre les extraits de texte exacts — récupérés depuis le contenu le plus contextuellement pertinent dans la base de données vectorielle — qui sont alimentés dans le LLM et améliorent la pertinence de la réponse à la requête de l’utilisateur.
  • Personnalisation de la réponse : Les réponses peuvent être ajustées avec une variété de paramètres, tels que le nombre maximum de tokens à générer, la température et la pénalité de fréquence.

Pour commencer avec ce projet, il suffit d’installer AI Workbench sur un système local. Le projet Workbench hybride RAG peut être transféré de GitHub au compte de l’utilisateur et dupliqué sur le système local.

Personnaliser, optimiser, déployer

Les développeurs cherchent souvent à personnaliser les modèles d’IA pour des cas d’utilisation spécifiques. Le fine-tuning, une technique qui modifie le modèle en l’entraînant avec des données supplémentaires, peut être utile pour le transfert de style ou le changement de comportement du modèle. AI Workbench aide également au fine-tuning.

Le projet Workbench AI Llama-factory permet QLoRa, une méthode de fine-tuning qui minimise les besoins en mémoire, pour une variété de modèles, ainsi que la quantification du modèle via une interface graphique simple. Les développeurs peuvent utiliser des ensembles de données publics ou leurs propres ensembles de données pour répondre aux besoins de leurs applications.

Une fois le fine-tuning terminé, le modèle peut être quantifié pour des performances améliorées et une empreinte mémoire plus petite, puis déployé sur des applications Windows natives pour une inférence locale ou sur NVIDIA NIM pour une inférence cloud.

Vraiment hybride — exécuter des charges de travail IA partout

Le projet Workbench hybride RAG décrit ci-dessus est hybride de plus d’une manière. En plus d’offrir un choix de mode d’inférence, le projet peut être exécuté localement sur des stations de travail NVIDIA RTX et des PC GeForce RTX, ou mis à l’échelle sur des serveurs cloud distants et des centres de données.

La capacité d’exécuter des projets sur les systèmes de choix de l’utilisateur — sans les lourdeurs de configuration de l’infrastructure — s’étend à tous les projets Workbench.

L’intelligence artificielle générative transforme le gaming, la vidéoconférence et les expériences interactives de toutes sortes.

Avec l’émergence de NVIDIA AI Workbench, les développeurs disposent désormais d’un outil puissant pour simplifier leurs flux de travail et optimiser leurs projets IA. En rendant plus accessibles les processus complexes et en facilitant la collaboration entre les équipes, AI Workbench ouvre un nouveau chapitre dans le développement de l’IA. Que vous soyez débutant ou expert, cet outil vous offre une flexibilité et une efficacité accrues pour tester, personnaliser et déployer des applications IA. Vous êtes ainsi mieux armés pour répondre aux défis actuels et futurs de l’intelligence artificielle.

Retour en haut