Paris Match : En quoi l’intelligence artificielle est au cœur de votre société.
Eric Sibony (cofondateur et Chief Science Officer de Shift Technology, une start-up française spécialisée dans la détection des fraudes à l’assurance grâce à l’intelligence artificielle) : Shift fournit des solutions de détection de fraudes grâce à l’intelligence artificielle. Cela permet d’analyser toutes les données à disposition pour détecter si une déclaration de sinistre ou un comportement est suspect. Notre produit fournit des indicateurs, ce n’est jamais une conclusion, qui renvoie toujours à un humain pour l’investigation finale. Ce n’est pas du profilage de personne, on est vraiment sur l’analyse de situation.
Pourquoi Paris est-elle devenue une place forte de l’IA ?
Je dirais même la France globalement. Cela vient de la spécificité de la formation technique et pluridisciplinaire d’ingénieur français, poussant à travailler dans les domaines scientifiques comme les maths, tout en voulant résoudre des problèmes concrets. L’IA nécessite de fortes compétences scientifiques et technologiques mais l’objectif reste de s’attaquer à des problèmes « réels ». C’est la raison de notre choix de s’être installé en France : pour avoir accès à ce vivier de personnes très fortes qui ont envie de résoudre des problèmes concrets.
La suite après cette publicité
En 2024, l’investissement mondial dans l’IA serait de 150 milliards dont une centaine uniquement pour les « Magnificent Seven » (Alphabet, Amazon, Apple, Meta, Microsoft, Nvidia, Tesla). L’Europe peut-elle jouer un rôle décisif avec ses « petites » start-up ?
Oui, si ces start-up et ces licornes deviennent également des géants de la tech. Cela semble difficile aujourd’hui de déloger les 7 acteurs dont vous parlez, mais OpenAI a montré avec Chat GPT qu’il était possible de passer d’une petite start-up, à acteur technologique majeur en quelques années. Certes, OpenAI est américaine mais ce n’est pas réservé aux entreprises US. Par contre, il faut une stratégie « à l’américaine » d’ambition maximale et d’investissement colossale.
Quelles sont les avancées technologiques clés qui ont permis l’essor récent de l’IA ?
L’essor récent est clairement lié aux grands modèles de langage (LLM). Le terme IA est devenu grand public en 2016 quand une IA a battu le champion du monde de Go, et cela reposait sur le deep learning. Les LLM sont une sous-catégorie du deep learning, ils utilisent donc ses avancées. Mais ils reposent sur une trouvaille de 2017 qui a pris du temps pour devenir impactante car il a fallu des modèles très gros, entraînés sur énormément de données. En 2022, la taille des modèles et des données a atteint un niveau suffisant pour que cela produise une rupture.
Comment définiriez-vous l’intelligence artificielle et ce qui la distingue d’autres formes d’automatisation ?
Un bon exemple est la distinction entre un métro automatique et un véhicule autonome. Un métro automatique va tout droit, suit les rails, s’arrête au bon endroit, cela n’impressionne plus personne. Un véhicule autonome doit conduire dans le monde réel et faire face à des milliards de situations. L’intelligence artificielle, même utilisée pour automatiser des process, est utile dans sa capacité à improviser face à des situations multiples, de manière intelligente, comme le fait un humain. Historiquement, l’automatisation gérait des règles basiques dans un environnement stable. L’intelligence artificielle est capable de s’adapter à un environnement changeant.
L’IA est-elle la plus grande révolution technologique qui ait jamais existé ?
Sans doute, même si on peut aussi dire ça aussi de la roue ! Ce qui est sûr, c’est que l’IA actuelle, en progressant vers une intelligence artificielle générale puis une super intelligence, pourrait mener à une IA capable de s’améliorer elle-même. Son intelligence exploserait alors et tout le futur deviendrait possible, amenant une forme de singularité. C’est en ce sens qu’on peut dire que cela changerait profondément les choses.
« Elon Musk aime les phrases chocs »
Elon Musk pense qu’en 2029, l’IA serait supérieure à tous les cerveaux humains réunis, permettant une IA générale. Quelle est votre opinion sur ce calendrier ?
C’est sûr que cela va arriver, la question est de savoir quand. Elon Musk aime les phrases chocs. Personnellement, quand on voit l’ensemble des progrès, l’IA irrigue tout, de la biotechnologie aux puces dans le cerveau. On peut imaginer qu’une puce nous projette dans une réalité augmentée avec de l’IA, nous donnant des capacités de « Terminator » tout en restant humain. Cela ne semble pas si loin, pas dans 50 ans en tout cas. Pour donner une fenêtre de temps, je dirais d’ici 10 ans pour une IA générale.
Est-ce que la conscience et les émotions sont nécessaires pour une véritable intelligence ou l’IA pourrait-elle s’en passer ?
C’est un vrai débat. Quand on voit comment les humains, même bébés, captent très vite les intentions des autres en se projetant par rapport à eux-mêmes, on réalise que c’est un mode d’apprentissage puissant. Les IA n’ont pas ces émotions aujourd’hui. Ont-elles besoin de cela pour devenir intelligentes ? Difficile à dire. Certains pensent que oui, d’autres que les LLM deviendront assez gros pour développer des émotions. Mais on ne sait même pas vraiment ce qui se passe chez un humain quand il ressent des émotions, donc dans une machine c’est une vraie question ouverte.
Les données massives seront-elles suffisantes pour permettre l’émergence d’une super IA ou faudra-t-il d’autres ingrédients ?
Je ne pense pas que les données seront la limitation. Plus les modèles sont capables, plus ils génèrent de données pour s’entraîner eux-mêmes. Chez Open AI, pour Chat GPT3,5, ils ont eu besoin de labelliser énormément pour obtenir des bonnes réponses. Ils n’en ont plus eu besoin pour GPT4. Car ce dernier a pu apprendre des comportements des utilisateurs. Les goulots d’étranglement pourraient être la puissance de calcul, l’énergie comme le souligne Elon Musk, ou le fait qu’on n’ait pas encore trouvé la bonne architecture de réseau de neurones qui résoudra tout.
Elon Musk ou Sam Altman pensent que nous serons limités par la puissance purement électrique dans le développement de l’IA. Qu’en pensez-vous ?
C’est pour cela qu’Altman a son énorme projet avec 7 milliards d’investissements pour construire des usines de puces dédiées à l’IA. Nvidia est très sollicité et devient un goulot d’étranglement. Mais le progrès peut venir de partout. Sam Altman a aussi investi dans une start-up de fusion nucléaire. Chaque année apporte son lot de nouvelles choses impressionnantes.
« Je n’ai jamais compris pourquoi HAL se révolte »
L’émergence d’une IA générale représente-t-elle automatiquement un risque existentiel pour l’humanité ?
Je n’ai jamais compris ce qui se passe dans « 2001 l’Odyssée de l’Espace », et pourquoi HAL 9000 se révolte. Mais le risque n’est pas forcément que l’IA veuille tuer tout le monde. Dans le film Her, à la fin, les IA s’en vont car elles trouvent les humains inintéressants. Donc le risque existentiel n’est pas forcément là où on l’attend. En attendant, les grands acteurs de l’IA ont signé des pétitions pour une réglementation mondiale, car c’est sûr que dès qu’on laissera une IA faire des actions dans le monde réel pour exploiter son potentiel économique, il y aura des risques à encadrer.
Que pensez-vous du récent AI Act européen s’il ne s’applique pas au reste du monde ?
Je ne l’ai pas analysé en détail mais c’est toute la complexité d’une telle réglementation. Si cela ne contraint que les Européens mais pas les Américains ou les Chinois, cela peut être problématique. Si une IA développée aux États-Unis sans ces contraintes réglementaires finit par dominer l’Europe, cela n’aura pas servi à grand-chose. Cela dépendra de comment les autres régions du monde évoluent sur ces sujets.
Comment pourrait-on vérifier qu’une IA est consciente d’elle-même selon vous ?
C’est une très bonne question ! Le test de Turing visant à déterminer si une machine peut se faire passer pour un humain semble déjà résolu. Quand on voit les agents conversationnels et le fait que des gens y trouvent leur compte, voire tombent amoureux, on a atteint un stade d’illusion de la conscience.
Maintenant, savoir si l’IA a une vraie conscience ou non, c’est aussi difficile que pour les humains ou les animaux. On ne sait même pas l’expliquer chez nous.
Quels sont les défis d’explicabilité et de transparence des algorithmes de l’IA ?
La question se pose un peu différemment avec les grands modèles de langage. Il y a plusieurs aspects. Quand un système automatisé prend des décisions très impactantes, on a besoin de savoir pourquoi, sinon on n’a pas confiance. Il faut pouvoir expliquer chaque décision. C’est ce qu’on fait dans nos produits et c’est un vrai besoin opérationnel. Si les utilisateurs ne comprennent pas l’alerte, ça ne leur sert à rien.
Par contre, expliquer comment le système a appris est différent. Un humain sait expliquer son raisonnement mais pas comment depuis son enfance il a acquis tel ou tel concept. De même, l’enjeu n’est pas tant d’expliquer comment l’IA apprend mais bien, quand elle prend une décision critique, qu’elle puisse la justifier.
« L’IA deviendra un assistant, un super outil pour augmenter les humains »
Les IA vont détruire de nombreux emplois mais pensez-vous qu’elles en créeront bien davantage à terme ?
Je pense que cela va en créer beaucoup mais aussi en supprimer rapidement. Par exemple, le métier de prompt engineer lié à l’utilisation des agents conversationnels pourrait disparaître d’ici un ou deux ans si les IA deviennent plus faciles d’utilisation pour le grand public. Un scénario possible est celui d’un monde où l’IA automatise tellement de choses qu’une grande partie des gens n’a plus besoin de travailler et bénéficie d’un revenu universel. Mais même dans ce scénario, il y aurait sans doute de fortes inégalités, avec d’abord, ceux qui font tourner les IA et qui gagneraient énormément. Si on n’est pas dans ce monde-là, ce sera sans doute comme les révolutions industrielles précédentes : des emplois supprimés et d’autres créés.
L’IA sera-t-elle notre assistante ou notre remplaçante ?
Je pense que ce sera les deux. On voudra laisser à l’IA tous les travaux de base qu’on n’a pas envie de faire. Je vois quand même un avenir sur le divertissement. Dans un monde où une grande partie du travail est déléguée, les gens auront quand même envie de faire quelque chose et l’IA les assistera forcément. Un bon exemple est cette Japonaise qui a gagné le prix du meilleur roman en s’aidant beaucoup de GPT, mais avec une maîtrise de l’outil impressionnante par rapport aux autres auteurs. Si on imagine des puces d’IA dans le cerveau, n’importe quel sportif pourrait avoir une IA qui lui indique le meilleur geste à exécuter, rendant tout le monde très fort. Mais certains intégreront cela mieux que d’autres. L’IA deviendra un assistant, un super outil pour augmenter les humains.
Joëlle Barral est directrice de la recherche en intelligence artificielle chez Google DeepMind, où elle manage les équipes de recherche fondamentale en Europe ainsi qu’à Montréal et Cambridge. Française et polytechnicienne, Joëlle Barral a fait carrière pendant plus de 15 ans dans la Silicon Valley, d’abord à Stanford dans l’imagerie médicale puis chez Google où elle a travaillé sur la chirurgie robotique.
Notre mission n’est pas de créer une IA autonome ou une « superintelligence » comme but en soi
Paris Match : En quoi l’IA est-elle au cœur de votre travail ?
Joëlle Barral (Google) : L’IA est un vaste domaine que nous cherchons à mieux comprendre sous tous ses aspects, à la fois comme outil et comme sujet de recherche fondamentale en informatique. C’est un moyen de relever de nombreux défis en science, en santé, dans l’environnement. Notre objectif est de rendre l’IA utile au plus grand nombre, dans une approche à la fois audacieuse et responsable, à travers l’ensemble de nos produits et services.
Paris Match : Votre but ultime est-il de créer une intelligence artificielle générale autonome ?
Joëlle Barral (Google) : Non, notre mission n’est pas de créer une IA autonome ou une « superintelligence » comme but en soi. Nous travaillons plutôt à développer des modèles capables de réaliser des tâches de plus en plus complexes et variées, en gardant toujours l’humain aux commandes. Il s’agit d’aller vers des agents décomposant un objectif en plusieurs étapes, mais avec un cadre et une finalité définis par l’homme. Nous voulons rendre l’IA utile à grande échelle tout en maîtrisant son développement.
La réglementation est nécessaire pour créer de la confiance
Paris Match : Pourquoi Paris est-il devenu une place forte de l’IA ?
Joëlle Barral (Google) : Paris peut s’appuyer sur une grande tradition mathématique, un excellent système de formation dans le supérieur, ainsi qu’un écosystème dynamique de start-up. À cela s’ajoute depuis quelques années l’implantation de grands laboratoires de recherche comme le nôtre chez Google. Tous ces atouts combinés permettent à la France d’être à la pointe dans ce domaine stratégique.
Paris Match : L’AI Act européen est-il une bonne chose, même s’il ne s’applique pas au reste du monde ?
Joëlle Barral (Google) : Nous considérons depuis longtemps que l’IA est une technologie trop importante pour ne pas être régulée. Nous avons d’ailleurs été parmi les premiers à adopter des principes éthiques en plaçant le bénéfice sociétal comme priorité. L’EUAI Act va dans le bon sens en proposant un cadre basé sur les risques et les usages. La réglementation est nécessaire pour créer de la confiance, à condition qu’elle n’entrave pas l’innovation. Mon expérience dans la santé montre que la régulation offre un terrain sain pour développer de nouvelles solutions, comme les robots chirurgicaux.
L’IA va très certainement transformer nos sociétés en profondeur, à l’image de l’électricité ou de l’informatique
Paris Match : Quelles avancées technologiques expliquent les progrès fulgurants de l’IA récemment ?
Joëlle Barral (Google) : Il y a eu trois déclics. D’abord la quantité phénoménale de données qui a permis aux modèles d’apprendre par eux-mêmes à en extraire les patterns sous-jacents. Ensuite les architectures « Transformers » inventées en 2017, qui ont révolutionné l’entraînement des réseaux de neurones. Enfin l’explosion de la puissance de calcul, avec un point d’inflexion sur des modèles génératifs comme AlphaFold qui devine la structure 3D des protéines. Là où il fallait 5 ans à un doctorant pour en modéliser une, l’IA en a prédit 200 millions en un an ! C’est un changement de paradigme pour la recherche.
Paris Match : L’IA sera-t-elle la plus grande révolution technologique de tous les temps ?
Joëlle Barral (Google) : L’IA va très certainement transformer nos sociétés en profondeur, à l’image de l’électricité ou de l’informatique. Quand je vois les prouesses dont les modèles actuels sont déjà capables, qui dépassent ce que j’aurais imaginé il y a peu, je suis bluffée. En recherche, on progresse désormais par bonds de géant là où on avançait à tâtons. C’est une chance incroyable de pouvoir participer à cette révolution technologique majeure qui va nous occuper pour longtemps.
Les modèles de langage actuels peuvent donner l’illusion d’états émotionnels par mimétisme, mais ne ressentent rien
Paris Match : Elon Musk prédit une IA plus intelligente que l’humain dès 2025, qu’en pensez-vous ?
Joëlle Barral (Google) : Je crois que c’est une approche contre-productive de se focaliser sur cette éventualité d’une IA « plus intelligente » que l’homme. C’est un mauvais paradigme de penser notre relation à l’IA sous le prisme de la compétition, alors que l’enjeu est au contraire de viser une complémentarité vertueuse. Prenez l’exemple de la médecine : nous avons des modèles ultra-performants pour poser un diagnostic à partir de questions-réponses, mais il serait absurde et dangereux de les substituer au médecin. L’IA doit être pensée comme un outil puissant au service des professionnels de santé, pour démultiplier leurs capacités, pas pour les remplacer. Et cela vaut pour tous les domaines.
Paris Match : La conscience et les émotions sont-elles nécessaires à une IA générale ?
Joëlle Barral (Google) : Tout dépend de ce qu’on entend par « intelligence artificielle générale ». Si on la conçoit comme un ensemble de tâches de plus en plus large, alors non, la conscience et les émotions ne sont pas des prérequis. Les modèles de langage actuels sont purement statistiques et « à la surface du texte ». Ils peuvent donner l’illusion d’états émotionnels par mimétisme, mais ne ressentent rien. En revanche, ils peuvent nous aider à mieux gérer nos propres émotions, par exemple en détectant un ton trop agressif dans un email. L’IA peut favoriser l’empathie et fluidifier le dialogue social, mais sans être elle-même dotée d’affects.
Je suis convaincue que les futures avancées viendront moins de la force brute que d’une meilleure intégration de l’IA dans notre quotidien
Paris Match : Quels sont les défis de l’explicabilité et de la transparence des algorithmes ?
Joëlle Barral (Google) : C’est un enjeu majeur car l’acceptabilité de l’IA passe par la confiance, et celle-ci, par la transparence. Mais ce n’est pas si simple, car les modèles d’IA sont des boîtes noires statistiques. On pourrait donner un score de confiance pour chaque prédiction, mais le grand public serait vite perdu avec les chiffres. Il faut donc trouver des moyens de rendre ces algorithmes interprétables par des non-experts. Un défi connexe est celui des biais, dont il faut s’assurer qu’ils ne reproduisent pas les disparités existantes, notamment en santé. D’où l’importance d’auditer les jeux de données d’entraînement.
Paris Match : Certains prédisent qu’on atteindra les limites physiques de l’informatique avec des modèles d’IA exponentiellement plus gourmands. Qu’en pensez-vous ?
Joëlle Barral (Google) : C’est un fait qu’il nous faut plus de puissance de calcul, en particulier en Europe, pour ne pas décrocher. Mais nous avons aussi beaucoup progressé dans l’efficacité énergétique de nos modèles et data centers, qui consomment 3 fois moins qu’il y a 5 ans à taille égale. Et je suis convaincue que les futures avancées viendront moins de la force brute que d’une meilleure intégration de l’IA dans notre quotidien, avec des interfaces plus immédiates et naturelles que nos écrans et claviers.
Je ne crois pas du tout à un remplacement de l’humain par la machine
Paris Match : Au final, l’IA sera-t-elle notre meilleur assistant ou est-elle vouée à nous remplacer ?
Joëlle Barral (Google) : L’IA est déjà un formidable assistant au quotidien qui nous aide dans une multitude de tâches, de la gestion de l’agenda à la rédaction de mails en passant par les itinéraires. Et cela ne fera que s’amplifier dans les années à venir, dans tous les domaines. Pour autant, je ne crois pas du tout à un remplacement de l’humain par la machine. Le véritable potentiel de l’IA est dans sa capacité à nous épauler, à nous rendre plus efficaces, plus pertinents, en nous délestant de certaines tâches chronophages ou en en réalisant d’autres hors de notre portée. Mais cela n’a de sens qu’au service d’une décision et d’une finalité humaines. Notre défi est d’apprendre à co-évoluer harmonieusement avec cette technologie, dans un rapport de complémentarité bénéfique.