Depuis fin 2023, un concept fait passer au second plan certains acteurs de l’informatique et de l’IA générative. Le marché se concentre actuellement sur le développement d’assistants génératifs d’IA et d’architectures RAG (Retreival Augmented Generation) pour les ancrer dans la réalité du terrain. Mais il y a une étape plus loin : le concept de systèmes d’IA multi-agents.
Le terme « agent » est généralement utilisé pour désigner les assistants conversationnels. Lors de la Grosse Conf à Paris le 27 mars, Nicolas Cavallo, responsable de l’IA générative chez Octo Technology, filiale d’Accenture, a expliqué comment les agents peuvent interagir les uns avec les autres pour résoudre des problèmes ou accomplir des tâches avancées présentées sous la forme d’un modèle de langage spécialisé à grande échelle. être échangé contre. Pour répondre aux besoins humains. Cela marque le début de l’ère des systèmes multi-agents (MAS).
Selon Nicholas Cavallo, cela est rendu possible par le fait que le domaine de la recherche sur le traitement du langage naturel est « entré dans une ère d’ajustement ». Le modèle aurait été « ajusté » au cours d’une étape de mise au point pour respecter les préférences humaines. La première phase de mise au point consiste à rendre le grand modèle de langage plus efficace lors de l’interaction avec les utilisateurs et du suivi des instructions. Le deuxième objectif est généralement de supprimer les erreurs de prédiction, la désinformation, les préjugés et même les contenus préjudiciables qui n’ont pas pu être supprimés lors de la phase de pré-formation. Une troisième phase peut alors intervenir pour spécialiser le modèle dans l’accomplissement d’une tâche particulière.
Le LLM insuffle une nouvelle vie aux « anciens » concepts
Le LLM seul ne suffit pas à définir un agent. « Les agents ont la capacité de percevoir leur environnement », explique Nicholas Cavallo. « Vous pouvez lui transmettre du texte, du son, des images, etc. Il peut prendre des décisions, planifier des tâches et créer une liste d’actions à accomplir. »
L’intégration de modèles d’IA dans l’environnement, ou « la connexion des agents au monde », n’est pas une pratique nouvelle. « Lorsque vous exposez des données ou des services à des assistants, cela se produit déjà », précise le responsable.
Dans le cadre de cette architecture multi-agents, les LLM sont interconnectés et s’envoient des résultats pour faire avancer la tâche appelée. « Ces systèmes multi-agents ne sont pas nouveaux ; nous essayons d’intégrer des modèles d’IA depuis des décennies », précise Nicolas Cavallo. Plus précisément, la première définition du SMA a émergé dans les années 1980, coïncidant avec le développement des systèmes experts. « Ce qui a changé, c’est que le LLM propose un moyen d’échange universel : les langues humaines, principalement l’anglais. »
Ces agents autonomes ou semi-autonomes ne dépendent pas uniquement de leur fonctionnalité. Une fois intégré à l’architecture RAG, il sera doté de capacités de lecture similaires aux assistants actuels. Il peut également avoir des capacités d’écriture, telles que la saisie de lignes dans une base de données, la soumission de demandes d’extraction et l’exécution de code dans un environnement sandbox. Ce sont quelques-unes des pistes que nous pouvons offrir aux agents qui envisagent d’accorder une subvention. Accès via IAM.
Un système multi-agents dans lequel les agents ont un accès en écriture aux applications via IAM.
Selon Nicolas Cavallo, quels sont les cas d’usage évidents du développement d’applications ? Au minimum, l’agent Architecte supervise le travail des agents Ingénierie et Développeur pour créer un POC pour l’application basé sur une expression des besoins métier.
Le responsable de l’IA générative souligne qu’il ne s’agit pas d’un rêve naïf. Au moins deux frameworks rendent déjà possible cette architecture multi-agents : MetaGPT et AutoGen. Alors que MetaGPT est spécialisé dans le développement d’agents permettant le développement d’applications, AutoGen est un projet Microsoft qui permet spécifiquement de concevoir des flux d’échanges entre LLM.
« En novembre 2023, Bill Gates a déclaré : « Les agents d’IA ne changeront pas seulement la façon dont chacun interagit avec les ordinateurs, ils bouleverseront l’industrie du logiciel et déclencheront la plus grande révolution informatique », déclare le responsable. prélude à sa déclaration. « Étant donné que Microsoft a un certain contrôle sur OpenAI, Bill Gates n’est peut-être plus objectif aujourd’hui, mais son analyse a un certain poids. »
Vers des systèmes d’information semi-autonomes
Un segment du marché envisagerait d’intégrer cette architecture multi-agents dans les systèmes d’information des entreprises.
« Ce qui va se passer, c’est que les agents seront intégrés dans les systèmes d’information. » Nicolas Cavallo Octo Technology Responsable de l’IA Générative.
« Ce qui va se passer, c’est que des agents seront intégrés dans les systèmes d’information. Les profils de ces agents seront variés, et ils pourront être des architectes, des data scientists, des développeurs, ou encore des responsables du recrutement qui embauchent des développeurs humains. « Nous pouvons, mais nous aussi. se spécialisent dans l’embauche d’autres agents », explique Nicholas Cavallo, « avec un public d’architectes, de promoteurs et de diverses autres personnes ». Responsable informatique. « Tout le monde aura certains droits et accès à certains outils et modèles de langage. Par exemple, les architectes auront la possibilité de gérer la gestion des accès aux identités pour leurs propres agents, et les data scientists auront la possibilité de collaborer avec d’autres agents pour répondre aux demandes. et former une équipe.
En ce sens, de nouvelles interfaces pourraient émerger. « Ces interfaces permettent une interaction directe entre les machines, les applications et les humains », explique le manager.
« Le point clé ici concerne les privilèges que nous accordons à ces agents. Compte tenu de cette possibilité, nous pourrions finir par leur attribuer des droits importants qui nécessiteront la mise en œuvre de nouvelles architectures. Cependant, vous devez réfléchir à la manière d’exposer vos services et applications à ces agents.
Il prouve ensuite son point de vue en présentant des démonstrations, notamment les travaux de Cognition.ai, une startup qui développe Devin, un système multi-agent permettant de développer des applications de manière incrémentale. OpenAI a présenté FigureOne, le résultat d’une collaboration entre Figure.ai et OpenAI. Mon but est? Un robot humanoïde sera équipé d’un système utilisant partiellement GPT-4.
Résultat? Un silence soutenu a régné dans la salle du pavillon des Chênes du Roi où se tenait la conférence.
« Ce monde a déjà commencé. Il est inévitable que les agents fassent partie intégrante de notre paysage technologique dans les années à venir », prévient Nicolas Cavallo. « Il y a du travail à faire pour organiser et assurer la sécurité. [ces systèmes multiagents] ».
« Ce monde a déjà commencé. Il est inévitable que les agents fassent partie intégrante de notre paysage technologique dans les années à venir. »
Deux barrières majeures s’effondrent
Actuellement, le non-déterminisme du LLM peut produire des réponses légèrement différentes. Le suivi de la qualité des données d’entraînement (ou lors de la mise au point) et des résultats à l’aide de divers outils est essentiel dans l’émergence de ces systèmes multi-agents.
Les administrateurs estiment avant tout devoir fournir un système d’observabilité leur permettant de détecter les anomalies, les comportements suspects et d’identifier les bugs en temps réel. Il est important de comprendre que les agents peuvent également être déployés dans des environnements de production. Dans ce cas, vous devez prendre des mesures pour assurer la sécurité et la fiabilité de votre agent. Cela pourrait inclure des mécanismes de débogage en temps réel et des contrôles qualité rigoureux pour garantir le bon fonctionnement de l’agent, résume Nicolas Cavallo.
Il existe encore deux limites à la mise en œuvre d’un tel système, même lors des tests. Ce sont des coûts financiers et des coûts environnementaux. Ce ne sont là que des obstacles que les acteurs de l’écosystème tentent de lever.
« Ces coûts diminuent. Le coût d’inférence de GPT-4 est divisé par 60. De nombreuses optimisations techniques ont été réalisées, comme le mixage expert, la quantification, etc. », Nicola Cavallo « De plus, les progrès dans la conception des puces et l’architecture informatique contribuent également à cette tendance à la baisse des coûts. D’ici trois ans, les coûts d’inférence pourraient être divisés par 1 000. »
Il peut également y avoir une latence causée par des milliers d’appels pour résoudre un problème ou terminer une tâche demandée. Les administrateurs considèrent que des temps de réponse plus lents sont acceptables pour certains cas d’utilisation. Tant que le système multi-agents produit au moins quelques résultats cohérents, le taux d’échec, sans doute élevé, ne constitue peut-être même pas un réel problème lors de la mise en œuvre initiale. « Disons qu’un système produit 2 bons résultats sur 100 requêtes », estime-t-il. « Un humain construit de cette façon l’exécuterait 100 fois et obtiendrait quand même 2 bons résultats. »