IA : le futur sera-t-il génératif ?
Luc Julia: Mais l'idée stupide de la vache verte sur la tour Eiffel, c'est moi qui l'ai eue, c'est ma créativité.
David Sebaoun: Sans éthique, il n'y a pas de confiance, s'il n'y a pas de confiance, il n'y a pas d'adoption. On sait que l'intelligence artificielle représente un risque, l'idée c'est à quel moment les utilisateurs vont être capables d'accepter de prendre ce risque.
Frédéric Pierron: Dans cet épisode, nous allons comprendre les enjeux de l'IA générative avec un invité de marque, Luc Julia, l'un des pères de l'assistant Siri d'Apple, mais aussi ancien vice-président de Samsung chargé de l'innovation et actuellement directeur scientifique chez Renault depuis 2021. A ses côtés, David Sebaoun, polytechnicien et exécutif partenaire chez IBM en charge de la data et de l'intelligence artificielle.
Frédéric Pierron: Alors, on va commencer par vous, David Sebaoun, pouvez-vous vous présenter ?
David Sebaoun: Oui, bien sûr. Bonjour, je suis David Sebaoun, je travaille chez IBM Consulting dans l'intelligence artificielle. J'ai commencé ma carrière en tant que data scientist, notamment dans le monde de la recherche quantitative. J'ai été amené à travailler pour des clients dans différentes industries, toujours dans le monde de la transformation digitale à l'échelle. Et très vite, je me suis intéressé aux nouvelles technologies, que ce soit l'intelligence artificielle, la blockchain, le quantum. Aujourd'hui, je suis en charge d'une équipe data et technologies transformation chez IBM Consulting qui va délivrer des projets de transformation à l'échelle autour de la data et de l'IA.
Frédéric Pierron: Luc Julia, pouvez-vous nous tracer, dans les grandes lignes, votre parcours dans le domaine de l'intelligence artificielle ?
Luc Julia: Ok, mon parcours n'est pas très compliqué, maintenant il a presque 35 ans et quand j'ai commencé pendant ma thèse, on va dire, c'était vraiment, on parlait d'IA logique. Après ça, j'ai fait des périodes de 10 ans. 10 ans de recherche entre Paris, le MIT et Stanford. Et là, c'était vraiment le début d'Internet, le big data et donc le retour en force des IA statistiques et en l'occurrence, ce qu'on a appelé le machine learning. Et puis, pour moi, dans les années 2000, ça a été la décennie de startup, donc j'ai créé pas mal, enfin, quelques startups dans la vallée, dans la Silicon Valley. Et après ces 10 ans de startup, ça a été 10 ans de grandes compagnies, grosses compagnies, HP, Apple et Samsung. Et ces années-là, ça a vu arriver le deep learning avec des gros changements dans la reconnaissance de la parole justement, Siri qu'on avait créée des années auparavant qui venait d'arriver chez Apple. Nous, on n'utilisait pas de deep learning, on utilisait toujours du machine learning. Quand Alexa qui est arrivée et Google qui a pris la tangente, on fait du deep learning. Et puis, depuis 2020, une nouvelle décennie où là, j'ai décidé de faire 10 ans de grandes compagnies françaises avec des applications très, très spécifiques. Alors en l'occurrence, là, j'ai décidé de devenir chez Renault et ce qu'on va faire, ce qu'on fait, c'est de l'application pure et dure de ces IA, quelles qu'elles soient d'ailleurs, que ce soit les IA, les systèmes experts, à celle de machine learning pour faire pas mal de perceptions, pour connaître l'environnement de la voiture par exemple, jusqu'aux nouvelles IA qui sont arrivées officiellement au début des années 2020, qui sont ces IA génératives.
Frédéric Pierron: Comment expliqueriez-vous l'intelligence artificielle générative au grand public ?
LUC JULIA: Une IA générative, c'est quelque chose qui utilise énormément, énormément de données. En gros, ça utilise toutes les données qu'on puisse imaginer, puisqu'on parle surtout de chatGPT-4, donc en gros, on va dire ça utilise Internet, on va dire c'est Internet. Et donc cette base de données Internet, quand je vais demander quelque chose à une IA générative, elle va essayer de boucher les trous avec ce qu'il y a sur Internet, ou une moyenne de ce qu'il y a sur Internet. En gros, c'est un système de complétion, vous allez poser une question et ça va rajouter ou ça va mettre dans les trous les choses qui vont bien par rapport à ce qui a été fait avant. Parce que Ces IA génératives, il faut bien comprendre qu'elles n'inventent rien, elles ne font que remâcher le passé. Par définition, les données sont des données du passé, ce n'est pas des données du futur. Donc ce qu'il faut comprendre, c'est juste un machin qui va aller chercher dans ce qui existe déjà, la réponse aux questions qu'on est en train de poser. Ce qu'il faut comprendre aussi, une deuxième caractéristique importante de ces IA génératives, c'est qu'elles sont là pour vous faire plaisir. Ça veut dire quoi ? Ça veut dire qu'elles vont vous donner une réponse, quoi qu'il arrive. Et donc là, les créateurs de ces IA génératives mettent des carcans. Donc ces IA, elles sont modérées, on va dire, par leurs créateurs, sauf Grok, l'IA d'Elon Musk, qui elle est censée être non woke, qui pourra répondre à tout et n'importe quoi. Mais bon, elle n'est pas vraiment encore sortie et ça va être un désastre si vraiment elle sort.
DAVID SEBAOUN: Tout à fait. En fait, ça se distingue de l'IA dite traditionnelle où on avait besoin d'une intervention humaine assez intensive. Et à chaque fois qu'on créait un modèle, le modèle était individuel, siloté et pour une tâche très spécifique. Là, L'idée avec l'IA générative, c'est qu'on va créer des modèles qui vont être multitâches. Ils vont être préentraînés sur des quantités de données importantes, pas forcément supervisées par de l'humain. Et ils vont identifier ces patterns pour pouvoir réaliser tout un tas de tâches différentes comme la génération de textes, d'images, de codes ou encore du résumé de documents, et puis la recherche conversationnelle. Et puis, ils vont aussi pouvoir avoir ce qu'on appelle des comportements émergents, c'est-à-dire réaliser des tâches pour lesquelles ils n'ont pas été explicitement formés. Donc, l'idée, c'est que toutes ces capacités-là vont nous permettre d'améliorer à la fois les cas d'usages existants qu'on a déjà commencé à déployer, puis apporter des nouveaux cas d'usages.
Frédéric Pierron: Alors, David Sebaoun, je crois savoir que vous avez identifié trois manières d'exploiter l'IA générative.
DAVID SEBOUN: L'IA générative est basée sur les Foundation Models et on va pouvoir les utiliser de plusieurs façons différentes. D'abord, on va faire ce qu'on appelle des instructions, du prompting. Ça va permettre d'interroger ces modèles-là pour réaliser les tâches que j'ai expliquées. Cette première manière-là, c'est le prompting, c'est entre guillemets pour traiter des cas assez simples, génériques, pas forcément sur des très grands volumes d'utilisateurs. Dans l'entreprise, on va pouvoir vraiment prompter un grand modèle de langage. Ensuite, la deuxième façon de faire, c'est d'optimiser ces modèles-là. C'est ce qu'on appelle le fine-tuning. L'idée est d'intégrer des données contextuelles pour pouvoir avoir un résultat encore plus adapté. Et puis, on voit des entreprises qui vont créer leurs propres modèles. C'est vraiment une troisième façon de faire, créer leurs propres modèles from scratch qui va permettre des usages vraiment uniques à l'entreprise en question et donner un vrai avantage compétitif. C'est un peu les trois façons d'utiliser un large language model avec des données qui ne sont pas forcément les mêmes, données très publiques pour les premiers, plus contextualisées pour les deuxièmes et complètement privées pour les troisièmes.
Frédéric Pierron: Luc Julia, est-ce qu'il faut comprendre que l'IA générative peut servir dans de nombreux domaines, y compris par exemple le design ?
LUC JULIA: Tout à fait, design de pièces, design de véhicules, donc... marketing : on peut imaginer faire un shooting en Corse sans aller en Corse. Et sinon, du design de pièces elles-mêmes. Donc, ces IAs génératives sont intéressantes par ce qu'elles permettent. On a déjà pensé à ça il y a quelques années avec les molécules, avec la chimie, pour inventer des nouveaux bindings d'atomes et là, on fait un peu la même chose. Il y a des choses qu'on n'osait pas trop faire ou qu'on n'imaginait pas trop, qu'on laisse imaginer ou qu'on demande à imaginer à ces IAs génératives et qui permettent de faire de nouveaux designs. Ce qui est bien, en fait, dans ces IAs génératives, c'est le fait qu'on puisse faire du fine tuning ou du ragging, comme on dit, où on va pouvoir mettre nos propres données, donc les influencer quand même pour qu'elles restent dans notre domaine, quel que soit le domaine, que ce soit RH, que ce soit achat, que ce soit design, et donc leur donner une idée de quel est le design Renault et donc qu'elles restent un peu dans ce carcan-là pour pouvoir continuer à générer quand même des choses intéressantes tout en gardant la créativité de nos designers. Donc c'est vrai qu'effectivement, on voit que ces IAs génératives sont utilisables, alors elles ne sont pas encore utilisées partout complètement, mais elles sont utilisables dans toutes ces fonctions, quelles qu'elles soient. Beaucoup moins dans les usines, par exemple, où on va continuer plutôt à faire de la maintenance prédictive, où on utilise les vieilles IAs.
Frédéric Pierron: Alors dans le domaine de la création moléculaire, David Sebaoun, IBM Consulting a mené plusieurs expériences d'IAs génératives, je crois.
DAVID SEBAOUN: On connaît l'IA générative dans sa fonction de générer du texte, mais c'est plus que ça. On peut créer des foundation models qui, au lieu de générer du texte, vont générer des molécules, des formules chimiques. En fait, l'idée, c'est qu'un atome va être considéré comme une lettre, une molécule comme un mot, et donc l'IA générative va associer ces mots, ces atomes, créer des molécules et pouvoir prédire les propriétés moléculaires et les réactions chimiques qui sont liées à ces molécules, pour pouvoir découvrir potentiellement des nouvelles molécules. Ça, on l'utilise dans différentes industries, par exemple dans l'industrie des parfums. On a travaillé sur la création de fragrances uniques pour créer des parfums personnalisés aux clients. Dans le monde de l'alimentaire, on crée des recettes, des recettes uniques, ou encore dans le monde de la santé, on a travaillé avec Moderna pour entraîner ces modèles-là auprès d'un milliard de molécules, pour définir ou comprendre des nouvelles applications de ces molécules, et donc potentiellement des nouveaux médicaments.
Frédéric Pierron: Luc Julia, est-ce que vous pourriez nous donner un autre exemple qui concernerait beaucoup d'entreprises ?
LUC JULIA: C'est plus clair, en fait, dans une IA, par exemple, pour les achats, alors c'est moins sexy peut-être, mais par exemple, la façon dont on fait des contrats, on fait des contrats d'une certaine façon depuis des années, et c'est la façon dont on veut faire ça. Donc on injecte dans une IA, donc dans une IA générative de texte cette fois-ci, on injecte plein de contrats, la façon dont on a fait les contrats avec des gens qui fournissent des roues, des machins, des trucs, et puis à la fin, au lieu d'avoir un fichier Excel comme j'aurais eu avec des trous, et je rentre dans les trous, je demande juste, génère-moi un contrat pour des roues avec ce nouveau fournisseur, et je donne tous les paramètres qui vont bien tout en faisant ça en langage naturel, ça va me générer en 10 secondes un contrat qui ressemble à un contrat Renault classique, mais avec tous les détails de ce fournisseur-là. Donc la productivité pour quelque chose comme ça est beaucoup mieux. Alors je conseille quand même de relire le contrat, parce qu'on ne veut pas faire ce qu'a fait un autre gars là, qui était un avocat à New York, qui avait décidé de faire une plaidoirie avec ChatGPT et où toutes les références à la jurisprudence étaient fausses. Alors on le voit, les entreprises sont grandement impactées par ces outils d'IA générative.
Frédéric Pierron: David Sebaoun, vous avez une autre fonction de l'entreprise où l'IA générative va jouer un rôle majeur ?
David Sebaoun: On a aussi l'utilisation de l'IA dans la RH, donc IBM, on est notre client zéro sur le sujet. On a été les premiers à s'appliquer ça. On a développé une plateforme qui s'appelle AskHR qui va permettre de digitaliser l'expérience du collaborateur, du manager et de la RH pour pouvoir traiter, avec de l'intelligence artificielle, toutes les tâches qui peuvent l'être. Par exemple, j'ai besoin de poser mes congés ou je veux savoir combien il me reste de congés... On va même jusqu'à accompagner tout le process de promotion des collaborateurs ou de transfert des collaborateurs d'une équipe à une autre, etc... Donc c'est mis entre les mains du collaborateur, il peut poser ses questions, il va lui répondre, il peut prendre des actions et il va permettre de les traiter. Et ensuite, la RH va plutôt s'occuper des cas peut-être plus complexes ou se focaliser sur la gestion des carrières, là où ils ont une vraie valeur ajoutée.
Frédéric Pierron: Est-ce à dire qu'on va pouvoir utiliser l'IA générative comme chatGPT dans tous les domaines de l'entreprise ?
Luc Julia: Alors Il faut faire attention justement de ne pas faire ce qu'on appelle dans le milieu une Samsung. Une Samsung, c'est un ingénieur de Samsung qui, en avril 2023, avait décidé, en dehors de la bulle Samsung, d'utiliser chatGPT pour faire un peu de code. Pour faire ça, il a mis un peu de code secret de Samsung. Évidemment, le code n'est plus secret quand on utilise un truc comme OpenAI. Donc dans les entreprises, ce qu'on fait en général, c'est que soit on utilise des outils mis à disposition par Microsoft, par exemple, qui met à disposition des silos particuliers privés dans lesquels on peut utiliser chatGPT, soit ces entreprises vont prendre un modèle de fondation open source et ces modèles open source, ils vont les adapter à leurs besoins en local. Donc l'adapter, ça veut dire quoi ? C'est faire du fine tuning ou du ragging. C'est-à-dire qu'on va lui injecter tous les designs qu'on veut en les expliquant. Donc il y a plein d'outils d'injection pour faire ce ragging ou ce fine tuning et donc après, cette IA devient une spécialiste du design de la marque, de la forme Renault.
Frédéric Pierron: Est-ce qu'on peut dire que l'IA générative transforme littéralement le fonctionnement des entreprises ?
David Sebaoun: C'est intéressant comme question parce qu'on a vu les entreprises passer d'un mode de "plus AI", c'est-à-dire d'humain augmenté par l'IA. Je réalise la tâche que je fais et puis l'IA vient m'aider dans la tâche que je réalise, à un mode de "AI plus", c'est-à-dire qu'on va repenser les processus des entreprises d'abord avec l'intelligence artificielle et l'humain va être, va avoir plutôt un rôle de supervision sur les systèmes d'intelligence artificielle. Donc, d'une certaine manière, Oui, il y a une transformation de fond qui se fait, et tous les jobs vont être transformés avec l'intelligence artificielle. Celui qui vous dit que ce n'est pas le cas, il se trompe. Tous les jobs vont être transformés, mais il va vraiment falloir garder cette logique de supervision de l'IA par l'humain.
Frédéric Pierron: Alors IBM Consulting a mené une étude d'adoption de l'intelligence artificielle par les entreprises. Quels en sont les chiffres clés ?
David Sebaoun: À peu près 30 % des entreprises ont déployé déjà activement, c'est-à-dire à l'échelle, l'IA dans l'entreprise... et ça peut paraître beaucoup, mais d'un autre côté, ça veut dire aussi qu'il y en a encore beaucoup qui ne sont pas à ce stade-là et 45% sont au stade exploratoire. Et dans cette étude, on voit que la taille compte, c'est-à-dire que les multinationales vont déployer de manière beaucoup plus active et les PME ou les TPE vont être plus dans des phases exploratoires. Ceci dit l'arrivée de l'IA générative, avec ses modèles pré-entraînés rend l'utilisation accessible pour tout le monde et déployable pour tout le monde. Avec des déploiements sur le cloud, nous on a des partenariats avec un certain nombre d'hyperscalers, l'IA générative est vraiment beaucoup plus accessible et on peut accéder très rapidement à un certain nombre de tâches comme la rédaction de mail, comme la création de persona. Tout ça, c'est assez simple à déployer. Ce qui est peut-être plus compliqué, c'est de créer son propre modèle ou d'optimiser les modèles existants. Mais ce que je pense, c'est que les petites entreprises, les PME, vont d'un autre côté avoir un certain nombre d'avantages puisqu'ils vont plus facilement passer de l'approche plus IA à l'approche IA plus, c'est-à-dire plus facilement transformer leur process puisqu'ils seront peut-être plus agiles, l'adoption sera peut-être plus simple et ils vont vraiment pouvoir repenser plus rapidement leur business model. Là où dans des grands groupes, ça peut prendre plus de temps, il peut y avoir plus d'obstacles.
Frédéric Pierron: Vu la complexité des IA génératives, est-ce que ce n'est quand même pas réservé aux très grands groupes avec de très grands projets ?
Luc Julia: Justement non, parce qu'il n'y a pas à faire ses propres IA ici, parce qu'on ne va pas faire des modèles de fondation. C'est-à-dire que même un Renault qui a un grand groupe avec plein de sous et tout ça, je veux dire, on ne va pas faire notre propre IA générative. Ça serait ridicule, mais juste faire le ragging, le fine tuning, ça c'est à la portée de tout le monde. Même si je suis une petite entreprise, mettre mes propres données pour le domaine dans lequel je travaille et qui est très clean, où je fais confiance à ces données, c'est super facile à faire. Donc n'importe qui avec quelques heures d'ingénieur que je n'ai pas forcément in-house et que je vais pouvoir embaucher, c'est vraiment quelques heures du fine tuning, ce n'est vraiment pas compliqué. Et donc je peux prendre un truc sur l'étagère qui est en open source, je prends ce modèle, je demande à quelqu'un de m'aider à le fine tuner, et là je peux l'utiliser tout de suite. Et encore une fois, avec ce zéro interface, n'importe qui dans mon entreprise peut l'utiliser. Donc je ne pense pas qu'il y ait de limites et de portes fermées pour les entreprises.
Frédéric Pierron: On a l'impression que l'IA générative sera partout. IBM Consulting a aussi mené une étude auprès des dirigeants d'entreprises sur ce thème. Que faut-il retenir ?
David Sebaoun: Alors d'abord, ce que je vous ai dit, c'est que l'IA générative va être pervasive. Ça veut dire qu'elle va toucher tous les jobs, tous les processus métiers de l'entreprise. Et on a fait une étude auprès d'un certain nombre de dirigeants de grandes entreprises et 75% des dirigeants estiment que les entreprises qui ne vont pas adopter l'IA générative dans leur processus n'auront pas un avantage compétitif sur le marché. Donc il y a un vrai phénomène de masse qui va s'opérer sur l'IA générative. En tout cas, c'est la conviction qu'on a chez IBM. Ensuite, les domaines qui vont être le plus adaptés peut-être pour commencer seront les domaines où il y a des interactions utilisateurs et où il y a un intérêt de personnaliser ces interactions, de les adapter pour pouvoir soit avoir un avantage compétitif, soit améliorer l'expérience utilisateur, améliorer la satisfaction de l'utilisateur. On voit aussi les domaines où il y a une notion de création. À partir du moment où il y a une création, on pense que l'IA, et l'IA générative en particulier, va permettre de stimuler cette créativité, d'apporter des idées, des nouvelles idées auxquelles on ne pense pas forcément. Par exemple, l'association de plusieurs épices dans une recette, on peut faire ce qu'on a l'habitude de faire, mais on ne pense pas forcément à créer des nouvelles recettes. On a travaillé pour un grand acteur de l'alimentaire sur ce sujet. Donc, tout ce qui va être autour de la création, il y a un intérêt de l'IA générative. Et puis, dès qu'on a un enjeu de productivité avec des tâches répétitives, là forcément, il faut se poser la question de savoir si l'IA générative, avec de l'automatisation, peut améliorer un petit peu la productivité.
Frédéric Pierron: Est-ce que cela a fait naître de nouveaux métiers ? Je pense par exemple à l'écriture de promptes d'instruction pour les IAs génératives.
Luc Julia: C'est vrai qu'On s'aperçoit que le prompting, c'est un art. Et c'est là aussi qu'il faut comprendre que ces IAs sont complètement stupides et n'ont strictement aucun raisonnement. Mais que l'art, justement, il est du côté du prompting, c'est-à-dire qu'il est de notre côté. C'est la façon dont on pose la question dans le prompt qui va faire que le truc va être plus ou moins bon. Et justement, j'insiste toujours quand on me dit que ces IAs génératives, elles créent. Ah non, justement, elles ne créent rien. La créativité, elle reste du côté de l'humain, elle reste du côté de l'humain dans le prompt. Et particulièrement pour les IA générative d'images, quand je vais vouloir utiliser cet outil, parce qu'à la fin, c'était un outil qui est une version de Photoshop plus, plus, plus. Cet outil, je vais pouvoir, moi maintenant qui ne sais pas dessiner, je vais pouvoir demander à cette IA générative à MidJourney, je vais lui dire, dessine-moi une vache verte sur la tour Eiffel. Je vais dire, elle va me pondre des vaches vertes sur la tour Eiffel jusqu'à ce que ça matche mon idée de la vache verte sur la tour Eiffel. Mais l'idée stupide de la vache verte sur la tour Eiffel, c'est moi qui l'ai eue, c'est ma créativité. Donc, ces outils, que ce soit texte, musique, etc., ce sont des choses qui, en fait, exacerbent notre créativité. Elles nous permettent d'être encore plus créatifs que ce qu'on l'aurait été. Donc, mais c'est nous qui sommes créatifs, ce n'est pas ces IAs qui sont créatives.
Frédéric Pierron: Face à l'émergence rapide de l'IA générative, comment créer un contexte de confiance suffisant pour en garantir l'adoption ?
David Sebaoun: Alors, on a effectivement la notion juridique, réglementaire qui existe. On a la notion de contrôle aussi. L'enjeu pour les entreprises, c'est de... Il y a un certain nombre de décisions dans l'entreprise qui vont être prises par l'intelligence artificielle. Est-ce qu'on a bien le contrôle sur ces décisions ? Elles sont bien, pourquoi et comment elles sont prises ? Et est-ce qu'on est capable de les tracer ? C'est un enjeu clé. Et puis effectivement, il y a un enjeu d'éthique : sans éthique, il n'y a pas de confiance, s'il n'y a pas de confiance, il n'y a pas d'adoption. Donc l'idée, c'est de voir... On sait que l'intelligence artificielle représente un risque. L'idée, c'est à quel moment les utilisateurs vont être capables d'accepter de prendre ce risque. Aux États-Unis, il y a eu beaucoup de cas dans les systèmes judiciaires, dans les systèmes de santé, qui vont défavoriser des catégories de population par rapport à d'autres. Donc, il faut avoir conscience de cette notion-là. Il faut pouvoir s'assurer qu'on va mettre en place des choses pour pouvoir s'assurer que l'IA est équitable. Encore une fois, les biais existent. L'IA doit être équitable. Explicable aussi. Si je vous prends une décision pour vous, et que je sais pas vous l'expliquer, vous allez perdre confiance en la décision que j'ai prise. Vraiment expliquer pourquoi on prend des décisions, c'est quoi les critères, c'est quoi les données qui ont conduit à cette décision. Et on est transparent sur le fait de pouvoir fournir l'information à l'utilisateur sur les algorithmes, sur la carte d'identité de ces algorithmes et sur les données qui sont utilisées.
Frédéric Pierron: Comment savoir si ce que répond une IA générative est juste ?
Luc Julia: On n'en sait rien. Si elle vous dit, vous savez l'avocat dont on parlait tout à l'heure, qui vous sort une plaidoirie magnifique avec plein de jurisprudences et tout ça, le gars il a fait confiance, il ne savait pas, mais il aurait pu le savoir. Vous savez, souvent c'est les journalistes qui ont le plus peur des IA, et c'est pour ça d'ailleurs qu'ils nous font passer cette peur à travers des articles, etc. Et en fait, moi je leur explique tout le temps, vous ne devriez pas avoir peur, au contraire, vous devriez être content parce que ça va permettre d'exacerber votre profession. Vous allez retrouver la quintessence même de votre métier, qui pour moi, j'ai peut-être une vue idéaliste du journalisme, mais pour moi c'est l'investigation. Mais l'investigation ça prend du temps, et c'est vrai que quand on va utiliser un outil, a priori on ne veut pas aller après vérifier ce qu'il va dire, mais il faudrait en fait, parce qu'on ne sait pas. Donc évidemment, si je lui demande 2 plus 2, il me répond 4, mon investigation ne va pas aller très très loin. Il ne faut pas faire confiance à 100% comme on ne fait pas confiance à 100% à des gens aussi, mais des fois on leur fait confiance, on pense que, surtout qu'une fois qu'ils ont été entraînés et éduqués de la même façon que nous, etc. Et c'est là que le fine tuning, le ragging est intéressant, parce que c'est pour ça qu'on les fait. Vous savez, il y a des chiffres qui sont intéressants, alors je n'ai pas les chiffres, on n'a pas les chiffres pour GPT 4.0, mais GPT 3.5, il y a eu des calculs de pertinence. L'URC2 de Hong Kong en février 2023 a fait des calculs de pertinence sur GPT 3.5, avec des millions de faits. Encore une fois, les faits vrais, c'est quoi les faits vrais ? On peut discuter, mais ils ont passé 20 bases de données de millions de faits, beaucoup de trucs, et ils ont demandé à GPT, c'est vrai ou c'est pas vrai ? Et en fonction de ça, si GPT répondait c'est pas vrai sur un fait vrai, c'est qu'il s'est trompé. Et donc les pertinences, à la fin, c'était 64%. Alors c'est beaucoup, on peut dire que c'est peu, ça dépend comment on peut, moi je vire un mec s'il me dit des trucs à 36% faux. Donc ces niveaux de pertinence, ils sont faibles pour ces IA génératives générales, on va dire, d'accord, mais dès qu'on les fine-tune, et là on voit des niveaux de pertinence beaucoup plus importants. On voit ça par exemple si vous mettez tous vos contrats, comme je disais tout à l'heure, dans les achats, mon niveau de pertinence monte dans les 90 quelque chose pour cent, parce que le truc va vendre le truc comme je le veux. Et on a vu ça par exemple aussi avec Microsoft, quand ils ont utilisé OpenAI, quand ils étaient dans Bing, c'était une catastrophe, tout le monde s'est moqué du truc parce que ça répondait n'importe quoi, c'était pas un moteur de recherche le truc, il faut pas l'utiliser comme ça. Donc dans Bing c'était idiot, par contre dans Excel c'est super, parce que dans Excel il est entraîné pour vous faire des formules d'Excel, et le truc il va avoir raison, parce que les formules d'Excel c'est les formules d'Excel. Et donc du coup, dans Excel il est bon à 99%, et dans Bing il reste à son niveau de pertinence parce qu'il n'est pas fonctionné.
Frédéric Pierron: Alors j'ai une question pour vous deux, comment voyez-vous l'avenir de l'IA ? Quelle est l'étape après l'IA générative ? David Sebaoun ?
David Sebaoun: Oui alors, non je pense qu'on n'est pas au bout de l'intelligence artificielle, vous avez probablement entendu parler de ce qui se passe avec OpenAI et Sam Altman, qui veut travailler sur ce qu'on appelle l'intelligence artificielle générale, avec le programme QSTAR, qui va vraiment avoir une approche très générale, qui va développer une intelligence artificielle qui va résoudre des problèmes de mathématiques très complexes, et qui va pouvoir s'entraîner elle-même, etc. Donc il y a encore des progrès qui sont en train d'être faits. La question qu'on se pose, et puis il y a plusieurs visions qui s'opposent, c'est cette vision un peu transhumaniste de l'intelligence artificielle, c'est-à-dire qu'il faut continuer à développer l'intelligence artificielle pour l'intelligence artificielle, la technologie pour la technologie et de toute manière, ça portera que du beau que du bon ou alors, une vision plus s'assurer qu'on développe de la good tech, de la tech for good, qu'on est vraiment dans une logique de confiance, qu'on est vraiment dans une logique d'éthique, de valeur.
Frédéric Pierron: Justement, cette démarche IBM la concrétisée avec la mise en place de la plate-forme watsonx. Pouvez-vous nous en dire plus ?
David Sebaoun: Donc IBM, on est vraiment dans cet aspect-là, mettre en avant ces logiques de confiance. On a sorti une plateforme qui permet de gérer la gouvernance des modèles, d'implémenter des principes d'éthique. Donc je pense que cette notion-là, elle est clé. Et par rapport à l'évolution, l'avenir de la technologie, je pense qu'il y a une autre technologie dont on n'a pas parlé, et on ne parle pas souvent, c'est le quantique, l'informatique quantique, qui va introduire encore d'autres paradigmes, notamment le fait de pouvoir modéliser, de pouvoir simuler des choses, des problèmes très très complexes, et qui va s'associer avec l'intelligence artificielle pour pouvoir résoudre ces problèmes-là. Et je pense que l'avenir de la technologie va s'opérer autour des trois pôles. Le pôle qu'on appelle les bits existants, ensuite le pôle du quantique avec les qubits, et le pôle de l'intelligence artificielle avec les neurones. Et c'est autour de ces trois pôles-là que la technologie va évoluer et que les entreprises vont pouvoir se différencier.
Frédéric Pierron: Luc Julia est-ce que l'IA générative est l'alpha et l'oméga de l'intelligence artificielle ? Est-ce qu'on peut s'attendre à de nouvelles évolutions ou est-ce qu'on a trouvé une technologie qui répond à tous nos besoins ?
Luc Julia: Non, on n'a pas trouvé un truc, ça va évoluer certainement, pour la raison qu'on a évoquée tout à l'heure, la frugalité. Il va falloir certainement trouver, donc il y a certainement de l'hybridation qui va arriver, c'est un truc, un des vieux rêves des mathématiciens, c'est de faire parler les statisticiens et les logiciens. Donc ça c'est bonne chance, mais bon, il faut peut-être y arriver un de ces jours et donc du coup avoir des IA hybrides, dans ce sens-là, ça peut certainement être intéressant, il y a des gens qui y travaillent. Je pense que Yann Lecun vous dira aussi que ces IA génératives, c'est qu'une étape, parce que de toute façon, c'est toujours une étape. Donc on va arriver à d'autres choses qui vont être plus efficaces, qui vont être plus proches d'un raisonnement peut-être, sachant que quand on faisait la logique, c'était aussi du raisonnement quelque part, donc on ne sait pas trop, mais c'est certainement pas l'alpha et l'oméga, c'est-à-dire qu'on va l'utiliser certainement pendant quelques années, quelques dizaines d'années peut-être, comme on a fait pour les IA logiques, comme on a fait pour le machine learning, pour le deep learning. Alors là, on a trouvé quelque chose, mais encore une fois, il ne faut pas utiliser les IA génératives pour tout, il y a des choses qui ne sont pas adéquates pour ça. Quant aux IA quantiques et les autres, alors là, on sort du domaine mathématique, puisqu'on rentre dans le domaine physique. Là, je pense qu'on est un peu plus loin, ce ne sont pas les mêmes calculs, ce ne sont pas les mêmes logiques, donc il y aura certainement des choses qu'on pourra faire qui seront très intéressantes avec les ordinateurs quantiques, mais il faudra changer complètement de paradigme.
Frédéric Pierron: Est-ce que l'IA générative est concernée par la question de la sobriété technologique ?
David Sebaoun: Alors, la réponse est oui, parce que l'entraînement des modèles d'intelligence artificielle est extrêmement coûteux, extrêmement consommateur d'énergie. L'entraînement de GPT-4 a représenté la même consommation d'énergie que la consommation d'une ville. Donc, on est vraiment sur des très, très grandes dimensions, à la fois dans l'entraînement, qui est vraiment la partie qui consomme le plus d'énergie, et puis dans l'utilisation au quotidien. Donc, Il faut avoir cette approche de sobriété sur les modèles. On n'a pas forcément besoin toujours d'avoir un modèle qui fait plusieurs centaines de milliards de paramètres, mais parfois un modèle qui en fait une dizaine, ça suffit largement. Et donc, je reviens sur ce que je vous disais au début, la nécessité pour les entreprises d'avoir ces portefeuilles de modèles, plutôt qu'un modèle qui fait tout, plusieurs portefeuilles, pour aller vraiment être plus segmenté sur les types de tâches qu'on va réaliser, prendre des modèles peut-être moins consommateurs. Vraiment l'approche less is more, pour être efficace en ayant vraiment cette logique de sobriété.
Luc Julia: Le truc le plus inquiétant, quand on réfléchit bien, quand on regarde les IA génératives aujourd'hui, ce n'est pas scalable, on ne peut pas les mettre à l'échelle. Si je fais aujourd'hui autant de requêtes chatGPT-4 que de requêtes Google, c'est de l'ordre de mille, il y en a, c'est des millions, l'autre, c'est des milliards par jour. Si je fais autant, je n'ai pas assez d'électricité dans le monde aujourd'hui. Donc, ce n'est pas possible de mettre à l'échelle le machin. Et d'ailleurs, c'est pour ça que les Microsoft, Google, etc. essayent de faire leur propre puce, essayent de descendre au maximum les trucs parce que ce n'est pas possible aujourd'hui. On va faire des progrès dans les puces, on va faire des progrès dans les data centers, dans tout ce qui est consommation électrique, etc. Mais c'est une course, ce qui n'a pas dans le bon sens. Donc, il va falloir faire des trucs plus frugaux à un moment donné, ça, on n'a pas le choix. Donc ça, de toute façon, c'est obligé.
Frédéric Pierron: Un grand merci à tous les deux d'avoir bien voulu échanger autour de l'IA générative dont le déploiement ne fait que commencer. On l'a bien compris. Nous voilà à la fin de cet épisode de découverte de l'IA générative. Mais restez bien à l'écoute de notre podcast, car la découverte des innovations dans l'intelligence artificielle est l'un de nos thèmes majeurs. Alors, abonnez-vous et partagez à vos collègues et amis. A très bientôt pour un nouvel épisode de Questions d'Innovation par IBM.
DESCRIPTION
Explorez les horizons infinis de cette révolution inéluctable qu'est l'IA, avec le Dr. Luc Julia, l'un des pères de l'assistant Siri d'Apple, et David Sebaoun, expert en intelligence artificielle chez IBM Consulting.
Ecoutez cet épisode et pensez le futur autrement : ces spécialistes de l’IA décryptent cette mutation, repoussent les frontières de la pensée en partageant leurs visions diversifiées et leurs exemples éclairés des enjeux et défis de l'intelligence artificielle.
Plongez dans cette dynamique, à la croisée de la technologie et de la pensée avant-gardiste car le futur n'est plus une hypothèse, mais une réalité modelée par les algorithmes.