Les développeurs peuvent tester des applications IA avec cet outil gratuit

La demande pour des outils simplifiant et optimisant le dĂ©veloppement de l’intelligence artificielle gĂ©nĂ©rative connaĂźt une explosion. Les applications basĂ©es sur la gĂ©nĂ©ration augmentĂ©e par rĂ©cupĂ©ration (RAG) — une technique amĂ©liorant la prĂ©cision et la fiabilitĂ© des modĂšles d’IA gĂ©nĂ©rative grĂące Ă  des faits rĂ©cupĂ©rĂ©s depuis des sources externes spĂ©cifiques — et les modĂšles personnalisĂ©s permettent aux dĂ©veloppeurs d’affiner les modĂšles d’IA selon leurs besoins. Autrefois, ce type de travail nĂ©cessitait une configuration complexe, mais les nouveaux outils facilitent cette tĂąche comme jamais auparavant.

Qu’est-ce que NVIDIA AI Workbench ?

NVIDIA AI Workbench, disponible gratuitement, permet aux utilisateurs de dĂ©velopper, expĂ©rimenter, tester et prototyper des applications d’IA sur divers systĂšmes GPU de leur choix — des ordinateurs portables et stations de travail aux centres de donnĂ©es et au cloud. Il offre une nouvelle approche pour crĂ©er, utiliser et partager des environnements de dĂ©veloppement accĂ©lĂ©rĂ©s par GPU entre personnes et systĂšmes.

Une installation simple permet aux utilisateurs de démarrer avec AI Workbench sur une machine locale ou distante en quelques minutes seulement. Vous pouvez ensuite commencer un nouveau projet ou en reproduire un à partir des exemples disponibles sur GitHub. Tout fonctionne via GitHub ou GitLab, facilitant ainsi la collaboration et la distribution des travaux.

Comment AI Workbench aide à relever les défis des projets IA

Le développement de charges de travail IA peut nécessiter des processus manuels souvent complexes, dÚs le début.

Configurer les GPU, mettre Ă  jour les pilotes et gĂ©rer les incompatibilitĂ©s de version peuvent ĂȘtre fastidieux. Reproduire des projets sur diffĂ©rents systĂšmes peut nĂ©cessiter de rĂ©pĂ©ter des processus manuels encore et encore. Les incohĂ©rences lors de la reproduction des projets, comme les problĂšmes de fragmentation des donnĂ©es et de contrĂŽle de version, peuvent entraver la collaboration. Des processus de configuration variĂ©s, le dĂ©placement des informations d’identification et des secrets, et les changements d’environnement, de donnĂ©es, de modĂšles et d’emplacements de fichiers peuvent tous limiter la portabilitĂ© des projets.

AI Workbench facilite la gestion des travaux des data scientists et des développeurs, ainsi que la collaboration sur des plateformes hétérogÚnes. Il intÚgre et automatise divers aspects du processus de développement, offrant :

  • FacilitĂ© de configuration : AI Workbench simplifie le processus de configuration d’un environnement de dĂ©veloppement accĂ©lĂ©rĂ© par GPU, mĂȘme pour les utilisateurs ayant des connaissances techniques limitĂ©es.
  • Collaboration sans heurts : AI Workbench s’intĂšgre avec des outils de contrĂŽle de version et de gestion de projet comme GitHub et GitLab, rĂ©duisant les frictions lors de la collaboration.
  • CohĂ©rence lors de l’Ă©volutivitĂ© du local au cloud : AI Workbench assure une cohĂ©rence entre plusieurs environnements, soutenant l’Ă©volutivitĂ© des stations de travail locales ou des PC aux centres de donnĂ©es ou au cloud.
  L'IA, entre fascination et inquiĂ©tude : le cas Ă©nigmatique du chat de Schrödinger

La RAG pour les documents, plus facile que jamais

NVIDIA propose des projets de dĂ©veloppement Workbench Ă©chantillons pour aider les utilisateurs Ă  dĂ©marrer avec AI Workbench. Le projet de Workbench hybride RAG en est un exemple : il exĂ©cute une application web RAG personnalisĂ©e basĂ©e sur du texte avec les documents de l’utilisateur sur leur station de travail, PC ou systĂšme distant.

Chaque projet Workbench fonctionne dans un « container » — un logiciel qui inclut tous les composants nĂ©cessaires pour exĂ©cuter l’application IA. L’exemple hybride RAG associe une interface de chat Gradio sur la machine hĂŽte avec un serveur RAG conteneurisĂ© — le backend qui gĂšre les demandes de l’utilisateur et achemine les requĂȘtes vers et depuis la base de donnĂ©es vectorielle et le modĂšle de langage large (LLM) sĂ©lectionnĂ©.

Ce projet Workbench prend en charge une grande variĂ©tĂ© de LLM disponibles sur la page GitHub de NVIDIA. De plus, la nature hybride du projet permet aux utilisateurs de choisir oĂč exĂ©cuter l’infĂ©rence.

Les dĂ©veloppeurs peuvent exĂ©cuter le modĂšle d’intĂ©gration sur la machine hĂŽte et exĂ©cuter l’infĂ©rence localement sur un serveur Inference de gĂ©nĂ©ration de texte Hugging Face, sur des ressources cloud cibles utilisant des points d’accĂšs d’infĂ©rence NVIDIA comme le catalogue d’API NVIDIA, ou avec des microservices d’auto-hĂ©bergement tels que NVIDIA NIM ou des services tiers.

Le projet Workbench hybride RAG inclut Ă©galement :

  • Metrics de performance : Les utilisateurs peuvent Ă©valuer les performances des requĂȘtes utilisateur basĂ©es sur RAG et non-RAG dans chaque mode d’infĂ©rence. Les metrics suivis incluent le temps de rĂ©cupĂ©ration, le temps jusqu’au premier token (TTFT) et la vitesse de token.
  • Transparence de rĂ©cupĂ©ration : Un panneau montre les extraits de texte exacts — rĂ©cupĂ©rĂ©s depuis le contenu le plus contextuellement pertinent dans la base de donnĂ©es vectorielle — qui sont alimentĂ©s dans le LLM et amĂ©liorent la pertinence de la rĂ©ponse Ă  la requĂȘte de l’utilisateur.
  • Personnalisation de la rĂ©ponse : Les rĂ©ponses peuvent ĂȘtre ajustĂ©es avec une variĂ©tĂ© de paramĂštres, tels que le nombre maximum de tokens Ă  gĂ©nĂ©rer, la tempĂ©rature et la pĂ©nalitĂ© de frĂ©quence.
  OpenAI lance une nouvelle initiative pour les organisations Ă  but non lucratif

Pour commencer avec ce projet, il suffit d’installer AI Workbench sur un systĂšme local. Le projet Workbench hybride RAG peut ĂȘtre transfĂ©rĂ© de GitHub au compte de l’utilisateur et dupliquĂ© sur le systĂšme local.

Personnaliser, optimiser, déployer

Les dĂ©veloppeurs cherchent souvent Ă  personnaliser les modĂšles d’IA pour des cas d’utilisation spĂ©cifiques. Le fine-tuning, une technique qui modifie le modĂšle en l’entraĂźnant avec des donnĂ©es supplĂ©mentaires, peut ĂȘtre utile pour le transfert de style ou le changement de comportement du modĂšle. AI Workbench aide Ă©galement au fine-tuning.

Le projet Workbench AI Llama-factory permet QLoRa, une méthode de fine-tuning qui minimise les besoins en mémoire, pour une variété de modÚles, ainsi que la quantification du modÚle via une interface graphique simple. Les développeurs peuvent utiliser des ensembles de données publics ou leurs propres ensembles de données pour répondre aux besoins de leurs applications.

Une fois le fine-tuning terminĂ©, le modĂšle peut ĂȘtre quantifiĂ© pour des performances amĂ©liorĂ©es et une empreinte mĂ©moire plus petite, puis dĂ©ployĂ© sur des applications Windows natives pour une infĂ©rence locale ou sur NVIDIA NIM pour une infĂ©rence cloud.

Vraiment hybride — exĂ©cuter des charges de travail IA partout

Le projet Workbench hybride RAG dĂ©crit ci-dessus est hybride de plus d’une maniĂšre. En plus d’offrir un choix de mode d’infĂ©rence, le projet peut ĂȘtre exĂ©cutĂ© localement sur des stations de travail NVIDIA RTX et des PC GeForce RTX, ou mis Ă  l’Ă©chelle sur des serveurs cloud distants et des centres de donnĂ©es.

La capacitĂ© d’exĂ©cuter des projets sur les systĂšmes de choix de l’utilisateur — sans les lourdeurs de configuration de l’infrastructure — s’Ă©tend Ă  tous les projets Workbench.

  PremiĂšre mondiale : un avion IA affronte un pilote humain dans un duel aĂ©rien

L’intelligence artificielle gĂ©nĂ©rative transforme le gaming, la vidĂ©oconfĂ©rence et les expĂ©riences interactives de toutes sortes.

Avec l’Ă©mergence de NVIDIA AI Workbench, les dĂ©veloppeurs disposent dĂ©sormais d’un outil puissant pour simplifier leurs flux de travail et optimiser leurs projets IA. En rendant plus accessibles les processus complexes et en facilitant la collaboration entre les Ă©quipes, AI Workbench ouvre un nouveau chapitre dans le dĂ©veloppement de l’IA. Que vous soyez dĂ©butant ou expert, cet outil vous offre une flexibilitĂ© et une efficacitĂ© accrues pour tester, personnaliser et dĂ©ployer des applications IA. Vous ĂȘtes ainsi mieux armĂ©s pour rĂ©pondre aux dĂ©fis actuels et futurs de l’intelligence artificielle.

Retour en haut