Vous avez probablement déjà vu et essayé divers outils d’intelligence artificielle générative tels que ChatGPT, Bard, Llama, et bien d’autres – et si vous ne faites pas partie des early adopters, pas de panique, essayez à votre rythme ! Quoi qu’il en soit, comprendre comment tout cela fonctionne et l’appliquer à des cas pratiques n’est pas toujours facile.

C’est pour vous aider à y voir un peu plus clair que le 23 novembre dernier, le nouveau DATA LAB de l’@esscaa proposé un webinaire entièrement dédié au fonctionnement de Gen AI, avec des cas très concrets d’utilisation. Adrian Pellegrini et Wael Saideni, deux experts en intelligence artificielle, n’ont pas leur pareil pour expliquer des mécanismes complexes de façon limpide !

Experts :
🎤 Adrian Pellegrini : Data and AI strategist, Gen AI and Augmented Analytics.

Ingénieur IA, avec 11 ans d’expérience dans des projets data, fondateur d’une startup IA générant plus de 2 M€ de chiffre d’affaires en deux ans. Actuellement, il se concentre sur la maîtrise des algorithmes et la mise à l’échelle des cas d’utilisation de Generatve AI dans les entreprises, en appliquant son expertise technique approfondie pour stimuler les solutions innovantes et la croissance de l’entreprise.

🎤 Wael Saideni : Machine Learning and Data Engineer chez Data Reply.

Senior Machine Learning et Data Engineer chez Data Reply, est titulaire d’un doctorat en Machine Learning de l’Université de Limoges et l’institut de recherche XLIM. Il est également diplômé de SUP’COM en tant qu’ingénieur en télécommunications. Fort de 4.5 années d’expérience dans le domaine de la data, Wael apporte son expertise à la conception et à la mise en production des solutions innovantes en IA et data plateformes.

——-
💬 Thèmes abordés :

Détails sur le fonctionnement des modèles génératifs d’IA.
a. Discussion autour des « Large Language Models », du rôle des transformateurs et de l’apprentissage profond.
b. Discussion sur le traitement des images (et/ou des vidéos).
c. Discussion sur les modèles de fondation et présentation d’AWS BedRock.

Présentation de cas concrets d’utilisation de GEN AI dans différents domaines d’activité
a. Projets (chatbots) et génération de contenu sur les réseaux sociaux.
b. Démonstration de la conception d’un GPT.

Vision et avenir de l’IA générative.

Questions et discussion avec les participants.

ℹ️ Suivez les actualités du Data Lab de l’ESSCA : https://www.essca-knowledge.fr/data-lab-ia/

[Musique] merci chben euh merci beaucoup pour la présentation alors pour enchaîner donc on va partir sur un webinaire d’à peu près 1 heure sur lia générative avec W ici présent alors avec W on a une conviction qui est forte qui est de se dire que pour comprendre les usages les

Tenants et aboutissant de VI générative on a besoin d’avoir quand même des bases sur la technique donc on vous a proposé euh et bien un planning suivant bon une introduction 5 minutes he on va se présenter l’un et l’autre une deuxième partie sur bah les bases et notamment

Les bases des LLM et les bases de la génération d’images par exemple les modèles de fondation on va voilà ça va être assez light mais ce sont des bases qui vont vous permettre de mieux utiliser mieux comprendre bah qu’est-ce qu’on appelle Ia générative et les applications en troisème partie ben on

Vous proposea des projets qui ont été réalisés euh soit par W côté data reply soit par moi moi-même et puis on finira donc ça ce sera ça nous nous amener vers et bien 17h30 par une table ronde avec vos questions et puis des échange autour de l’ générative aujourd’hui et surtout

Euh demain voilà euh bah vois je te laisse te présenter euh merci Adrien merci chaven euh donc moi je suis c’est Danis je suis un docteur en machine learning de l’université d’imog euh à la base je suis un ingénieur en télécommunication euh diplômé de de Subcom en Tunisie et

Maintenant je suis un senigior machine learning et data ingéer à data reply France euh ouais donc pour data reply en fait je vais je vais présenter rapidement data reply puisque je représente aujourd’hui le groupe reply dans ce webinire donc le groupe reply c’est euh c’est un groupe de conser européen d’origine italienne

Avec 14000 collaborateurs euh presque partout dans le monde et 2 milliards chiffes d’affaires euh aujourd’hui on est 700 en France donc il y a en fait les 400 les 14000 collaborateurs ils sont principalement en Italie en Allemagne et et en UK et aujourd’hui avec avec les

700 les 700 personnes à en France en fait on essaie de de grandir de plus en plus et bien évidemment recrute pour les gens qui sont intéressés euh voilà donc moi en fait je représente aujourd’hui data reply France qui est une entité au sein du du groupe data

Reply et on ne travaille que sur des entité au sein de de ritl pardon du groupe ritl et on ne travaille que sur des projets liés à la data bien évidemment tout ce qui est data engineering Ia et data Scien on a aussi la partie bi donc data visualization on

A aussi une équipe qui travaille sur les architectures data et cetera et une équipe qui travaille aussi sur la gouvernance donc on a pas mal de clients euh en France et à l’international dans plusieurs domaines euh dans le le retail le transport euh banque et finances et cetera donc on

N’a pas vraiment euh on n’est pas accès sur sur un seul domaine mais on couvre plusieurs domaines euh euh plusieurs secteurs du coup mais sur principalement sur des sujets liés à la data voilà de mon côté donc Adrien Pellegrini donc moi je suis expert indépendant avec

Un peu plus de 11 ans d’expertise dans la data en général et l’intelligence artificielle aujourd’hui spécialiser plus sur de la stratégie que ce soit au niveau data ou ou intelligence artificielle lia générative on va en parler aujourd’hui et tout ce qui va être Analytics augmenté voilà pour faire

Cour allez on va enchaîner tout de suite dans le cœur du sujet alors avant de de parler technique on va juste regarder un petit peu le marché euh la vision qu’on a autour de cette a générative déjà pour les néophites ceux qui n’ont jamais entendu générative alors je pense

Personne dans l’assemblée mais euh ça pourrait quand même être le cas quelle est la différence entre une intelligence artificielle prédictive qu’on aurait vu depuis très longtemps et cette intelligence artificielle générative qui elle est apparu alors on va voir va nous en parler aussi depuis longtemps mais on

Va dire pour le grand public c’est 2021 2022 chat GPT ainsi de suite la vraie différence c’est en fait son but voilà c’est son but la a prédictive elle va essayer de prédire et donc de soutenir des aides à la décision soutenir des résultats par exemple une probabilité

Est-ce que ce client va acheter ou non voilà ça c’est une probabilité et et bien c’est de la prédiction de l’autre côté on va avoir l’ générative qui elle n’a pas ce but là elle ne doit pas prédire quelque chose mais elle doit générer voilà et donc un algorithme

Génératif qu’est-ce qu’il va faire et bien il va toujours essayer de générer des textes des images des réponses par rapport à ce que l’humain va lui donner alors attention on dit génératif on dit pas forcément créatif c’est pas exactement la même chose on a l’impression que va être créative mais

Non elle va se faire seulement générer sur une base d’apprentissage qu’elle a au départ alors pourquoi on vous en parle aujourd’hui un tout petit peu de chiffre je vous promets ça dure une seconde parce que c’est le sujet clé voilà c’est le sujet clé si vous regardez Bloomberg avec son étude voilà

Ils disent très très forte croissance d’ici à 2032 bon après les chiffres à voir on verra ça dans dans le futur ce qui est intéressant c’est que ça va toucher l’ensemble des parties de la chaîne informatique en général ça va toucher tout ce qui va être le hardware donc les machines tout simplement

Notamment les cartes graphiques notamment les processeurs et ça on estime à une augmentation x 17 entre aujourd’hui et 2032 ça va toucher les softwares donc les logiciels avec une augmentation FO 186 ce qui est prévu par Bloomberg et donc c’està dire voilà tous les chats GPT ainsi de suite que vous

Avez ça va toucher énormément de logiciel mais aussi les métiers puisque en transformant l’informatique en transformant la façon dont on va discuter avec les programmes informatiques ça va nous permettre de créer derrière aussi d’autres choses et notamment bon vous avez des exemples qui sont ici donc les jeux la

Publicité le consulting et les consultants euh ou autres et bien tous ces métiers vont être transformés pour intégrer une partie de cette age générative voilà donc on touche vraiment toute la chaîne de valeur et on est on va dire au moment critique on est vraiment sur ce moment

Où la hype est la plus grande et vous l’avez vu je pense avec les derniers jours et et toute l’histoire autour d’OP high on est au top si on prend le le hype cycle du Gartner qui nous dit qu’est-ce qui va être la tendance et ben

Si on regarde juste après alors je sais pas si vous voyez ma ma souris mais juste après vous avez vraiment la désillusion c’est-à-dire la pente raide qui descend et qui nous explique que attention on a beaucoup d’attente sur cette Gena énormément d’attentes on pense que ça va révolutionner le monde

Je mâche mes mots et au final on va se rendre compte que techniquement on n’est peut-être pas à la pointe que dans la transformation des entreprises on n peut-être pas non plus à la pointe et on va être dans la désillusion on est à ce moment-là et donc c’est important que ça

Soit pour les étudiants de l’ESCA ou que ça soit pour les professionnels de comprendre qu’est-ce que c’est techniquement et donc qu’est-ce qui va être cette désillusion demain et pour conclure cette overview et puis je laisse la parole à W sur la technique euh bon ben ça touche un petit

Peu tous les domaines inform tique on vient d’en parler je vais passer assez rapidement c’est Datacom qui a sorti cette cette map des providers de di générative nous on va s’attaquer aujourd’hui au plus gros paquet c’est-à-dire le texte en premier et puis l’image en second et W je te laisse la

Place sur qu’est-ce que c’est génératif yes merci Adrien donc avant de commencer bon on a déjà commencé mais avant de d’dver sur sur les les spécificités de cette nouvelle technologie qui n’est pas nouvelle réellement donc mais donc c’est quoi lia générative en fait c’est une en deux mots c’est une techno qui

Permet de créer euh des nouvelles des nouveaux concepts des des des nouveaux contenus à partir de de donner exemple donc ça c’est en de mot et quand on parle de l générative on parle forcément de du Deep learning donc c’est une sous-catégorie euh du du Deep learning c’est-à-dire elle est basé sur

Euh principalement sur des modèles de Deep learning euh après en fait pour moi personnellement il y a quatre dates très importantes pour pour l’ génératif donc je vais choquer peut-être quelquesuns d’entre vous mais en fait réellement c’est pas une vraie révolution technique parce que euh les technos en fait il

Existent depuis euh depuis longtemps maintenant depuis les années 50 donc avec le premier réseau de neuron euh perceptron en fait qui a été euh inventé euh en dans les années 50 par l’américain Frank Rosen rosenblat et euh après en fait une autre date très importante qui est l’apparition des

Réseaux Gan euh avec Yan goodfow euh qui a qui a aussi commencé à montrer qu’on peut justement grâce à au deep learning et des algorithme de Deep learning on peut commencer à générer euh un contenu à partir des des des données qu’on dispose euh après en fait ce qui a

Peut-être révolutionné un peu les architectures deep learning et qui a mené à à voir aujourd’hui chat GPT et autres c’est l’apparition des Transformers en 2017 avec le le papier le plus connu euh qui est très connu en fait dans le monde de la recherche scientifique qui est attention unit donc

C’est un papier scientifique qui a été fait par une équipe de Google sur cette architecture extraordinaire qui s’appelle les transformeerss et finalement en fait on a en 2022 l’apparition de l’agent conversationnelle chatpt et ce qui a permis justement au grand public de de de toucher à l’ générative de l’utiliser

Et de voir l’impact de de de cette technologie de euh dans le quotidien euh après en fait dans les générative il y a plusieurs techn on parle de des réseau Ganes bon vous n’êtes pas obligé en fait de les savoir mais c’est bien de les mentionner je pense euh en fait il y

A il y a il y a les Ganes il y a les les Transformers il y a les les autoencodeur diffusion diffusion et cetera donc il y a plusieurs techno plusieurs architectures de de Deep learning en fait euh en qui permettent justement de générer du contenu après pour les

Applications en fait aujourd’hui ce qu’on a c’est que on a plusieurs applications qui font euh qui génèent de l’image à partir de l’image ou bien du texte à partir du texte ou de l’audio à partir de l’audio ce qui est génial aussi c’est qu’on peut peut-être combiner deux deux types d’application

C’est c’est-à-dire de de de l’image et du texte pour euh générer le le le le texte et l’image par exemple il y a il y a des modèles aujourd’hui sur Open ai en fait qu’on donne on donne une image plus un PR c’estàd plus en euh un contenu

Plus un texte quoi c’est-à-dire je sais pas en fait euh modifier cette cette image ou bien fait ce que vous voulez et après j’aurai une image comme comme output là c’est génial donc on peut combiner deux types de de données dans un seul euh dans un seul dans une seule

Architecture euh donc ça c’est important je parle je parlais tout à l’heure des Transformers je parle pas de ça justement mais je parle d’une architecture qui est apparu comme je vous ai comme je vous ai dit en 2017 là ce que vous voyez à gauche c’est l’arch architecture euh de base c’est la

Première architecture des Transformers qui a été euh justement introduite en 2017 avec le le l’article attention is all unit donc là on voit bien que c’est une architecture qui est basé sur un principe très important qui est le principe d’attention euh qui est justement inspiré du fonctionnement du cerveau humain où on

Donne euh généralement plus d’importance à certaines une partie d’une information donc là en fait le principe d’attention c’est que on donne de l’attention on donne plus de de d’attention plus d’importance à une partie bien déterminée dans une phrase ça c’est c’est très important euh et euh et donc

Ça c’est le principe euh mathématique qui est derrière les les les Transformers plus la capacité énorme de de de d’avoir des de paramètres euh et cetera dans dans les transformeurs donc ça c’est c’est important juste si tu reviens euh ouais merci donc ça en fait les Transformers en fait ils sont basés

Euh en fait ils sont basés aussi sur un principe très important qui est le Next token prediction c’est-à-dire en fait par exemple pour cette première architecture euh le premier use case avec ce ce premier article en fait c’était pour la traduction français anglais donc là l’idée c’était de de donner plusieurs

Plusieurs plusieurs paragraphes plusieurs phrases en français et donner leurs équivalents en anglais c’était sur sur des données de Wikipédia au début donc les mots les les phrases en français et leurs équivalents en anglais et là en fait on on entraîne le modèle pour qu’il pour qu’il comprennent justement

Les le principe ou bien le modèle de traduction ou bien comment on peut traduire euh une phrase ou un paragraphe du français en anglais donc ça c’était basé sur le principe de Next token prediction donc là je donne un une phrase et l’idée c’est de je donne une

Série de mots et l’idée c’est de euh prédire le Next token donc le le le mot prochain donc c’était ça le le principe qui a donné aujourd’hui les euh les Foundation model qu’on connaît donc c’est les larges modèles euh après en fait pour les architectures les

Transformers il y en a pas mal il y en a il y en a trois types de de d’architecture de base pour les Transformers on a les les encoder only donc il y a une partie euh une une seule partie de de du transformer donc ça c’est pour pour des

Usages pour des cas d’usage qui sont bien spécifiques qui par exemple le le sentiment analysis donc il y a une une classification derrière donc ou bien le name identity recognition c’est-à-dire l’extraction des des entités à partir de d’un document donc ça on peut utiliser euh une architecture avec un encoder

Only euh on peut utiliser une architecture avec un decoder only euh ça c’est pour euh le text generation pour le texte completion et cetera donc il y a des cas particuliers euh auxquels on peut euh pour lesquels on peut utiliser le decoder only et justement on peut combiner ces deux architectures ces deux

Modèles euh pour avoir un encoder decoder model donc dans un seul modèle ça c’est pour la traduction pour le text generation et cetera euh donc il y a une il y a une différence en fait aujourd’hui entre le machine learning classique et euh le machine learning ou

Bien le li générative avec les les Foundation model donc les Foundation modelles euh que ça soit pas très compliqué en fait c’est les larges modèles qu’on connaît aujourd’hui que ce soit les c’est-à-dire les modèles qui sont derrière chat GPT derrière bar et cetera qui ont été entraînés sur des des

Terrains et terrain de données et avec des milliards ou des mil000 milliards de de paramètres euh donc le machine learning classique en fait c’est avant pour les les les les projets de machine learning on prend euh on prend le le le use case après on essaie de trouver le

Modèle de machine learning qui s’adapte à ce use case bien évidemment il faut passer par une une étape de l’abilisation de données qui est très importante aussi donc on labilise les données donc ça demande euh ça demande des armes à dat de personne donc il faut qu’il y ait

Beaucoup de personnes derrière pour labellliser ce qui n’est pas évident pour pour certaines entreprises et du coup on avait besoin de de recruter des personnes euh uniquement pour labiliser des des données ce qui est un travail fatigant et pas très intéressant pour les personnes tech euh donc du coup

Aussi en fait on était obligé d’entraîner à chaque fois le modèle donc pour chaque use case ce qui consomme énormément de ressources euh et des ressources humaines et des ressources matérielles aussi ça demande des GPU ça demande des serveurs et cetera et ça coûte énormément cher et donc à chaque

Fois on et si par exemple le modèle ne va pas on sera obligé de réentraîner le modèle ce qui coûte énormément cher pour les projets machine learning mais aujourd’hui en fait ce qui est génial c’est que on a des des Foundation modelles euh donc qui sont qui sont quand même

Entraîné sur beaucoup de de de de données et que aujourd’hui on a plus besoin euh on n plus dans le paradigme un modèle par use case mais plutôt en fait on peut avoir un modèle qui est valable pour plusieurs use case et il suffit juste de l’adapter en

Fonction de de du cas d’usage en fonction de l’application et là c’est bon on peut avoir on peut avoir le modèle voulu et si nécessaire en fait on peut passer à une étape de F tuning après du modèle donc qui aujourd’hui grâce à à à plusieurs techniques aujourd’hui on peut functionner un large

Modèle en 2 3 heures uniquement donc ça c’est c’est génial euh donc en une demi-journée tu peux avoir un modèle F tune qui correspond bien à au use case Mo ce qui est ce qui est pas mal en fait pour les Foundation model en fait il y a

Plusieurs types de Foundation model on parle aujourd’hui de du texte to texte donc ça c’est les LLM qui permettent justement de générer un contenu il y a aussi le text embedding ça c’est très important aussi parce que vous vous avez sûrement entendu parler de de la technique rve ou bien les

Chatbot en fait les chatbot privés les chatbot qu’on applique sur les données de l’entreprise aujourd’hui c’est pas c’est pas un chatbot sur des données publiques comme comme check GPT Bard ou autrees mais c’est c’est plutôt un un un chatbot en fait qui est appliqué sur sur les modèles de l’entreprise peut-être après

Adrien il va faire une démo il va présenter le fameux peut-être chatbot de Chavane al fin donc ça c’est ça c’est rigolo donc il a utilisé en fait pour faire ça il va il va utiliser un modèle texte texte donc pour générer du contenu mais aussi il va utiliser un modèle

Texto embedding c’est-à-dire en fait l’idée c’est de c’est de traduire le texte en un langage qui va être compréhensible par le modèle donc un langage c’està-dire il va il va traduire les mots que je vais donner en des vecteurs ce qu’on appelle les embedding donc et pour ça en fait il

Faut qu’il y ait un modèle spécifique pour faire ça c’est-à-dire c’est pas une tâche euh très simple mais c’est une tâche qui demande un modèle derrière donc pour les les les chatbot privés ou bien les la technique rag on aura besoin de deux modèles un modèle pour

L’embedding et un modèle pour le texte texte il y a aussi les modèles les multimodels euh les multimodels en fait comme les les modèles comme stable diffusion que vous allez voir euh c’est-à-dire pour les images les modèles où on peut combiner deux types de de de données du texte et de de l’image

Demain en fait il y aura des modèles qui vont générer de la vidéo des modèles qui commencent à générer aujourd’hui de de l’audio et cetera donc c’est un travail de recherche et il y aura énormément de surprises à mon avis dans le Q1 et Q2 de l’année prochaine

Euh ok on commence en fait avec lia génératif qui concerne le texte donc pour ça en fait on a ce qu’on appelle les modèles LLM les large language models en fait au début je vous ai parlé des Foundation model mais les Foundation model ils sont pas ils sont pas que des

Des LLM des large language models mais ils sont les LLM les modèles qui qui génèent de l’image les modèles qui vont générer de l’audio de de la vidéo et cetera donc euh là il il y a plusieurs types de de Foundation model et parmi ces types là on trouve les les LLM donc

Euh qui sont euh des des modèles qui permettent de générer du texte et qui comprennent du texte donc qui sont de ils sont des larges des des des des très larges modèles donc on parle de de plusieurs milliards de paramètres par exemple on a le pour les modèles open

Source on a le lama 2 on a Falcon on a quelques modèles de GPT aussi qui sont en open source euh il y a aussi d’autres modèles qui sont pas en open source comme Cloud comme euh comme j’ai quelques modèles aussi de GPT comme Dali et cetera donc il y a plusieurs

Modèles qui sont pas aussi en open source euh après ok donc là je j’ai euh j’ai en fait l’idée derrière chat GPT donc comment chat GPT il a été euh justement entraîné euh et donc l’idée derrière le modèle chat GPT c’est que il a été basé sur un large corpus corpus textuel euh

Donc là on parle justement open ai en fait ils ont euh et ils ont parlé de de de ces sources de données en fait ils ont dit que la data qui est derrière chat GPT c’était c’était des données extraites de plusieurs livres numérisés de du contenu

De Wikipédia de com and Crow c’est qui est un organisme qui qui permet de de faire du du web scrapping il y a aussi le web texto aussi qui est euh qui se base sur euh sur redit pour avoir euh justement les les liens les plus appréciés et donc

Ça a été entraîné sur les liens les plus appréciés par par les internautes donc ça c’est le corpus textuel après en fait on passe par par une étape euh d’entraînement donc là en fait il y a derrière un modèle GPT donc basé sur les Transformers donc avec des milliards de

Paramètres donc l’idée c’est de trouver ou bien d’entraîner le modèle pour imiter justement le fonctionnement du cerveau humain et euh et et d’avoir ces ces connexions ces connexions neuronales euh pour essayer de comprendre comment fonctionne ou bien comment on peut générer du texte comment on peut comprendre le texte et cetera

Basé principalement sur le le principe de Next token prediction après en fait on va passer à une étape où on va commencer à functioner un petit peu notre modèle c’est-à-dire on va faire un training basé sur des exemples de de conversation sur des exemples idéals de

Conversation et après on va faire une du rlhf donc du reinforcement learning basé from human feedback donc c’est c’est-à-dire on va poser les mêmes questions qu’on a vu ici dans dans la première partie donc une première donc on va avoir un classement justement un classement préférentiel par des humains

Eu donc pour dire voilà ça c’est principalement ça c’est la réponse la plus probable à cette question ça c’est la deuxième réponse la plus probable et cetera pour essayer de d’orienter un petit peu les les réponses du modèle et essayer de de ne pas ou bien de limiter quand même

La génération de des propos racistes des propos sexistes de l’hallucination du modèle et cetera donc ça c’est une étape très importante aussi euh après en fait on va refaire l’apprentissage de de ce modèle en se basant sur ce classement préférentiel et c’est comme ça qu’on a eu chat GPT donc

C’est c’est une explication vraiment high label du process après en fait ça c’est deux exemples de modèles très connus aujourd’hui dans l’Open Source donc ces deux modèles en fait ils sont disponibles sur sur aging face donc ils sont Open Source tout le monde peut peut les utiliser mais juste

En fait j’ai voulu vous dire j’ai voulu vous parler de comment ces modèles ils ont été entraînés par exemple je prends le deuxè je prends le Falcon 140b 180b pardon donc euh il y a en fait 3.5 trillion tokens donc on parle de 3.5000 milliards de paramètres dans ce

Dans ce modèle et il a été entraîné euh avec 4000 4096 GPU donc et 7 millions de GPU hours donc c’est 4000 GPU en fait ilss ont fait l’apprentissage pendant 71 jours donc ce qui est énorme donc donc et qui demande énormément de ressources et énormément de ressources bien sûr

Financières de ressources de GPU et cetera donc il y a vraiment une Guer de ressources aujourd’hui concernant les les les les GPU concernant les le matériel d’entraînement en général donc ça c’est c’est très important aussi après pour le code li générative en fait aujourd’hui on a des on a des modèles

Juste qui permett de faire qui permettent de générer du code à partir d’un prompt ce qui est génial pour pour les développeurs et ça c’est c’est un senior directeur c’est André carpati qui qui est le senior direct of ai à Tesla donc il a travaillé aussi avec Open ai et qui dit

Aujourd’hui que the hest new programming language is English c’està-dire demain avec un simple Prom en anglais je peux gén générer euh des programmes je peux je peux générer des codes des fonctions et cetera donc ce qui est plutôt génial pour les développeurs euh les outils les solutions les plus utilisées aujourd’hui

Pour générer du code on a le open ai codex on a le GitHub Copilot et on a aussi le Amazon code wper eror qu’on peut utiliser et c’est gratuit euh maintenant euh je vais partager mon écran rapidement pour vous présenter [Musique] euh pardon pour vous présenter euh

Bedrock qui est la nouvelle solution qui est le concurrent de de chat GPT mais côté AWS donc ça c’est c’est l’interface de de bedrock après en fait ce qui est bien pour pour bedrock c’est que on peut choisir plusieurs modèles donc là euh ben avant de choisir les modèles ou bien

Avant d’utiliser les modèles c’est que il faut avoir les accès il faut demander les accès pour l’ensemble des modèles disponibles pour cette région donc là euh on parle de on a des modèles de ai 21 Labs des modèles de Amazon Titan euh on a les modèles de de entropique donc

Ici on a le clod V2 le clod V2.1 qui est sorti hier ou avanth n’est pas encore disponible mais la la version 2 elle est disponible euh il y a aussi Lama 2 euh chat 13b qui est qui est disponible aussi et il y a le ça c’est les les

Modèles de stability diffusion euh donc on a euh stability diffusion XL 0.8 et 1.0 qui sont euh disponibles aujourd’hui sur sur bedrooc donc là en fait on peut tester ensemble donc là je vais choisir euh entropicque je vais choisir euh cloud V2 et après ici en fait on voit bien que

Euh il y a plusieurs il y a plusieurs paramètres en fait que je peux changer ce qui est bien donc on a euh ici la température par exemple qui contrôle le caractère aléatoire de la réponse générée donc si la si la valeur est élevée c’est-à-dire le caractère

Aléatoire il est important si la valeur est faible c’est-à-dire euh les réponses en fait euh ils sont plus proches de euh de de de des données d’apprentissage après on a le top P ça c’est un autre paramètre c’est comme un filtre en fait qui qui qui qui nous permet de de ne

Prendre en compte que les les meilleurs candidats pour la suite de la phrase topka aussi mais c’est pas c’est pas une probabilité c’est un nombre de de token euh après ça c’est le max lin euh donc il y a plusieurs paramètres que je peux changer justement pour avoir

Euh pour avoir une meilleure expérience et pour avoir de meilleurs résultats ici je peux dire euh write an invitation euh write an email euh email invitation for my webinar et là je je clique sur run et là je commence à voir euh un texte généré par par clod V2 donc

Là je commence à voir un email qui est généré par clod V2 donc là je vais pas faire la partie image pour laisser ça à Adrien mais quand même en fait ça c’est l’utilisation de CLA V2 en utilisant la console donc ça c’est c’est une console donc là vous utilisez la solution comme

Vous utilisez chat GPT autre mais aussi pour l’intégrer dans vos applications vous pouvez utiliser ça via via laapi donc qui est disponible donc on peut lancer un notebook ou autre pour tester ça via via laapi donc là c’est import Boto import Jason après on a le on appelle le service on appelle le

Service de AWS avec Boto 3 qui est faite pour ça après en fait on on fait un prompt donc write email invite people webinar après je je précise bien mais mes paramètres donc le max token la température le top 4 top et cetera et j’appelle le modèle et là je génère ma

Réponse ici donc ici j’ai utilisé le modèle de de coir ici pour générer du texte je peux aussi faire la même chose avec Cloud et donc je vais juste en fait il suffit juste de remplacer le schéma du print parce que ça change d’un modèle

À un autre mais sinon le reste c’est la même chose après je vais je vais lancer mon bedrock avec mon modèle avec mon pr et c’est tout en fait j’aurais j’auraai mon output voilà ça c’est pour ça c’est pour bedrock je te redonne la main Adrien ouais

Merci et donc on vient de parler des TEX maintenant on va parler de ce qui va être la génération d’image avec un exemple qui est stable diffusion qui va être de la génération d’image Open Source alors à quoi ça sert la génération d’image et bien ça va vous

Permettre de générer un peu tout et n’importe quoi euh typiquement là j’ai une vidéo de de l’interface qu’on peut avoir avec stable diffusion qui va nous permettre de générer par exemple ici un petit burger faut savoir que ça ça a été générique un modèle qui a plus d’un an

Même 1 an et 2 mois donc on était déjà plutôt très avancé à l’époque parce que je pense que ce burger vous fait envie et vous auriez du mal à trouver la différence entre ça et une pub McDo alors comment ça fonctionne l’idée d’un stable diffusion ça va être de pouvoir

Donc transformer un texte voilà une entrée en texte et potentiellement une entrée image en une image alors on va zoomer un petit peu et on va retrouver des concepts que nous a présenté W avant la première chose qui va falloir faire quand on va vouloir créer une image et

Bien ça va être de faire euh rentrer le texte dans un encodeer euh cet encodeur va en effet permettre de projeter ce texte dans une dans un ensemble de vecteurs que j’ai représenté en haut par une petite matrice hein mais matrice qui serait un petit peu plus grande

Normalement là elle va être 3/ TR pour l’exemple et ça nous permet de comprendre en fait l’information qu’on va avoir dans ce texte alors qu’est-ce que c’est que l’information bah c’est les mots tout simplement euh chaque mot ça va être un token chaque token va pouvoir être placé sur cet espace

Vectoriel et donc une fois qu’on aura passé ce texte dans le texte encodeur et bien on aura euh ses caractéristiques euh sur cette base vectorielle voilà si vous voulez en savoir plus sur comment ça se construit et bien je pourrais vous en parler pendant les question une fois

Qu’on a fait ça et bien on va devoir passer à l’étape numéro 2 bah l’étape numéro 2 c’est de transformer cet ensemble de chiffres cet ensemble de vecteurs euh en une image mais en fait on en est pas tout de suite là ce qu’on va faire en premier c’est qu’on va se

Transformer ces ensemble là ces chiffres et bien en d’autres chiffres et on va les transformer pour avoir une deuxième projection sur une base vectorielle mais non plus d’un texte mais d’une potentielle image donc c’est ce que j’ai appelé g générateur de caractéristique d’image on va encore aller dedans juste

Après une fois qu’on aura créé les bonnes caractéristique hein c’est ce que vous avez au milieu ici et bien il suffira de le décoder hein quand je dis suffira c’est encore en bien grand mot mais il suffira de le décoder pour obtenir l’image qui nous intéresse allez

On continue à di un petit peu comment ça fonctionne donc j’ai des caractéristiques d’un texte voilà dans dans cette information que j’ai ici et je veux les transformer en petit à petit caractéristique d’une image qui est une image plausible et bien ça ça va être un travail qui va se faire avec des

Itérations travail qui va se faire avec des itérations on va prendre une image totalement random totalement aléatoire et puis avec ce qu’on appelle le diffusion process on va voir même c’est le le reverse diffusion et bien petit à petit on va aller construire l’image qui se termine imaginons que je puisse

Regarder dans le process petit à petit ce qui est en train de se passer je pars d’une image qui est voilà aléatoire au départ alors souvent elle est encore plus blanche que ça parce qu’on est vraiment sur du petit pixel et puis petit à petit je vais construire mon

Image de Burger en en faisant le diffusion process alors ça c’est super important pourquoi c’est super important parce que souvent quand vous utilisez des générateurs d’images quel qu’il soit alors qu’il soit sur une base de diffusion ou autre ou autre vous avez un problème c’est qu’il ne font pas

Exactement ce que vous voulez c’est-à-dire que globalement vous allez faire un prompt et il va vous faire une image qui va être pas loin mais si vous voulez rajouter des choses et bien à chaque fois ça va être un petit peu différent deiè problème si vous faites

Le même prompte mais que vous changez l’image de départ et là maintenant vous l’avez compris et bien potentiellement il va faire une image complètement différente vous pouvez l’utiliser sur Chat GPT vous lui dites de changer l’acide c’est comme ça qu’on dit et en changeant l’acide bah vous allez avoir

Une image 1 qui va rien à voir avec l’image 2 et bien pourquoi et ben c’est pareil ici tout simplement parce que l’image de départ donc ce petit carré ver ici c’est un quelque chose d’aléatoire et par contre tout va dépendre de ça et de ce que vous avez

Mis en sortie du texte encodeur voilà donc si vous avvez avez la même Side et si vous avez le même texte en théorie vous devriez obtenir la même image si jamais vous êtes sur un process ici itératif avec le même modèle le même entraînement alors comment on peut faire ça comment

On peut partir d’une image complètement aléatoire et d’arriver à une image de Burger alors j’ai choisi pas tout vous montrer mais ça j’ai choisi de vous montrer parce que je pense que ça assz intéressant comment on entraîne en fait cette machine qui va nous permettre de transformer une image aléatoire en une image

Plausible et bien la première chose ça va être de construire un dataset d’entraînement ce dataset d’entraînement va être sur des images qu’on connaît donc labelllisé et euh on va essayer de rajouter du bruit on va rajouter sur cette image voilà du bruit à différents taux de bruit c’est-à-dire que la

L’image d’en haut vous avez seulement 10 % de bruit l’image d’ en dessous 20 % de bruit ici à la fin vous avez 90 % de bruit cette étap là elle est assez simple dans les fait puisque vous rajoutez du bruit à une image ça on sa’est faire pas de problème vous allez

Le faire sur énormément d’images et puis derrière vous allez faire un entraînement d’un réseau de neurone encore toujours deep learning un réseau de neurone où vous allez lui donner et bien une image bon j’ai choisi là celle-ci vous allez lui dire de ajouter 55 % de bruit et vous allez

Derrière pouvoir faire un output donc là pour le coup il va prédire cette image là vous avec votre dataset précédent bah vous savez avec à quoi ça devrait ressembler donc là on devrait être à peu près à cette image là voilà vous comparez l’output avec la réalité et

Vous lui faites le retour au Ron de r vous dites c’est bien c’est pas bien tu t’es trompé comment vous le faites des millions et des millions de fois des milliards de fois ce qui vous permet d’avoir tout simplement un modèle qui va être de plus en plus capable avec une

Image en entrée et un taux de bruit bah de créer une bonne image bien bruitée et donc là une fois qu’on a ce modèle là vous me dites bah c’est super mais là je comprends pas on a dit qu’on allait prendre du bruit ou une image

Aléatoire et on a créé un burger là on prend un burger et puis en fait on crée du bruit c’est un peu c’est pas c’est pas terrible et bien dans la même façon que si vous avez traduire un texte d’anglais à français vous aurez sûrement beaucoup compétenence pour traduire de

Français à l’anglais on va lui demander au Réseau neurone bah de faire l’inverse donc on va lui dire retourne-toi et par de mon image bruitée et petit à petit va le D bruiter ce qui fait qu’à par un passage successif par mon réseau de neurone je vais enlever un petit peu de

Bruit enlever un petit peu de bruit enlever un petit peu de bruit enlever un petit peu de bruit jusqu’à arriver à une image finale voilà et donc ça c’est magnifique euh enfin moi je trouve ça magnifique parce que quel que soit derrière l’image que vous voulez générer

Quel que soit euh la la façon de faire et bien vous allez pouvoir utiliser ce process et ça va fonctionner donc derrière il suffit de le remettre un petit peu près ici et puis vous avez ça donc qu’est-ce qu’on fait pour répéter hein sur stable diffusion comment

Générer une image j’ai un texte je le pousse dans un espace vectoriel ça me donne des caractéristiques je prends une image qui va être aléatoire et donc derrière je le fais passer dans le diffusion process ça me sort derrière des caractéristiques de mon image que je passe dans un codeur pour avoir mon

Image finale vu comme ça c’est pas si compliqué après là vous comprenez qu’il faut faire attention avec vos promptes il faut faire potentiellement aussi attention avec les images en entrée alors comment faire attention vraiment avec les images en entrée bah le plus facile c’est d’en mettre une directement

C’est de pas prendre une image aléatoire par exemple ici je voulais une image de Burger avec des flammes je voulais avoir une une flamme qui soit présente c’est ce que nous a présenté euh VO tout à l’heure avec les multimodo les les les modèles multimodo pardon et bien là

L’idée c’est de pas partir d’une image aléatoire je vais partir d’une image d’une flamme et derrière je vais faire exactement le même process vous m’excuserez j’ai eu la même image à la fin euh mais globalement je suis partie de cette image là voilà j’essaie d’être un petit peu pédagogue là-dessus mais on

Va pouvoir faire derrière une petite démonstration parce que ça c’est important à à connaître mais on peut aussi derrière donc regarder comment ça fonctionne je vous ai mis donc c’est en local c’est en local c’est une installation qui se fait assez facilement donc stable diffusion avec une interface utilisateur assez simple

Vous avez aussi la possibilité bien sûr de l’appeler en API comme nous avonttré W tout à l’heure les deux sont possibles moi je préfère utiliser ça pour faire des tests puisque derrière je vais avoir directement mon résultat donc vous allez voir ici que vous allez avoir un prompte

Positif c’est-à-dire je veux faire une photo d’un burger j’ai changer un petit peu vous allez voir on l’a mis un petit peu avec le temps qu’on a en ce moment on va essayer de changer un petit peu cette image euh donc ça c’est le prompte positif donc qu’est-ce qu’il fait déjà

Il y a un modèle clip qui va donc un modèle qui va nous permettre de faire des bedding et donc de le projeter dans notre espace vectoriel ce que nous propose aussi stable diffusion pendant que ça tourne et bien c’est de mettre des promptes qui sont négatifs et ça

C’est très intéressant donc vu qu’on est sur des vecteurs hein donc c’est les mathématiques vecteur il peut aller dans un sens il peut aller dans l’autre sens aussi hein ça c’est c’est assez intéressant et donc l’idée c’est de se dire avec le prompte négatif c’est qu’est-ce que je ne veux pas qu’est-ce

Que je ne veux pas dans mon image et là c’est un un que j’utilise assez souvent ou globalement je veux pas des euh doit y avoir marqué des mutations voilà des bouts de euh amputation voilà euh faut faire attention à ce qu’on ce qu’on veut mais stable diffusion a souvent été

Entraîné sur des images assez diverses et variées ce qui fait qu’on peut avoir des surprises voilà euh derrière on va avoir des paramètres euh donc les steps donc ça vous l’avez vu tout à l’heure c’est quand on construit petit à petit d’ailleurs ça se construit à droite hein

Vous voyez petit à petit on construit vous avez bien sûr bah la taille de l’image combien d’imagees vous voulez et une qu’on va présenter ici c’est FG scale qui est la proximité entre votre promt et l’image ou est-ce que vous préférez de laisser parler l’espace vectoriel donc de faire des images qui

Sont plus qualitatives mais peut-être plus loin euh de votre prompt et enfin la dernière qui nous intéresse ici et bien ça va être l’acide alors là elle est à moins ça veut dire aléatoire mais l’cide qu’est-ce que c’est bah c’est tout simplement l’image aléatoire de base donc si jamais vous voulez la vous

Voulez rester et faire des tests avec différents promptes sur une même sideed et bien il aurait fallu mettre un nombre ici euh bah pendant que je parlais on a eu l’arrivée de ce petit burger voilà un burger un peu plus hivernal euh que vous avez ici alors je regarde juste le

Timing mais je voulais vous montrer une petite chose en quelques quelques minutes aussi un petit bonus euh ici on va avoir donc un burger qui est ivernal et j’aimerais faire un petit peu de travail je suis marketeur par exemple qui a d’usage j’aimerais améliorer un petit peu mon Burger et me

Dire que en soi je l’aime bien mais j’aimerais bien changer le Bund du haut et lui dire que alors je le fais en live j’espère que ça va marcher lui dire que c’est une forme d’iglou donc moi ça me plaît bien iglou avec de la glace

Euh voilà et donc là on est dans le deuxième cas d’usage que vous avez vu dans le PPT tout à l’heure qui est de se dire comment je vais pouvoir faire avec une image et euh un texte comment je vais pouvoir bah modifier mon image et donc générer une autre image donc c’est

Parti euh alors j’espère que c’est un petit peu moins que ça normalement ça devrait être un peu moins que ça on devrait être sur voilà une petite minute on va donc on lui a dit sur cette partie làà uniquement de l’image travail je sais pas si vous m’entendez bien mon pc

Est en train de ramer euh et ne fait surtout pas ça et on va voir petit à petit apparaître donc là voilà il génère il génère il génère et on va voir apparaître bah normalement on espère lou à la place du buns je sais pas si ça

Ça ça vous donne envie alors voilà avec teams ça ça rame un peu alors faut savoir oui pendant qu’il est en train de ramer en terme de performance de du PC comme ça ça vous donne un petit peu est-ce que vous poulez faire chez vous

Euh et bien oui vous pvez le faire chez vous pourquoi j’ai uniquement 3 GAB de VRAM sur ce PC ce qui est pas terrible mais c’est un PC Gamer d’il y a à peu près 10 ans donc dites-vous que n’importe qui avec un PC un peu puissant

D’ a 10 ans ou un ou un PC on va dire quasi normal d’aujourd’hui et bien peut générer ce genre d’image et utiliser C technologie là voilà allez 10 secondes et on va avoir l’image de fin que la barre bleue arrive et voilà on a remplacé le BNS par

Un iglou alors je mis avec de la glace donc il nous l’a fait très glassique avec beaucoup de glace mais on pourrait bien sûr améliorer Tromp pour avoir de la neige à la place de la glace voilà si vous voulez tester en ligne dernière chose vous vous pouvez le

Faire directement sur aging F et ça sera ma dernier mon dernier point euh là-dessus euh vous avez un test en ligne où vous pouvez le faire en beaucoup moins de temps puisque c’est sur les serveurs de Google et vous allez pouvoir obtenir vous aussi des burgers de manière très rapide voilà pour

Moi allez on passe à la dernière partie maintenant euh et donc c’est la partie projet je laisse la parole euh merci Adrien donc je commence à avoir faim franchement avec tes burgers mais ok slide suivant s’il te plaît euh donc lia générative aujourd’hui en fait on utilise principalement dans pas

Mal de de nos projets donc qui sont principalement des projets de où où les clients en fait viennent pour tester une nouvelle expérience donc là euh une nouvelle expérience avec l’a avec l’a générative donc c’est c’est un premier step en fait que chacun de bien quelquesuns de de nos clients en fait il

Le font après aussi c’est pour améliorer la productivité de leur de leur agent de leur employés par exemple on va voir après en fait un un projet qu’on a fait pour un call center en fait qui qui justement c’est un chatbot sur des données d’assurance et donc l’idée en fait c’est c’est

D’alimenter ou bien de de d’aider les les agents en fait qui qui travaillent dans les call center les aider avec avec ce chatbot en fait c’està-dire demain il y aura un client Un client de cette assurance qui va appeler pour dire voilà comment je peux résider mon contrat

Comment je peux qu’est-ce qui est couvert par par l’assurance que que vous proposez et cetera donc si l’agent en fait il n’a pas le contrat ou bien le contrat d’assurance sous les yeux en fait il peut juste taper comment résilier le contrat de Monsieur X et donc là je peux avoir il

Peut avoir la réponse instantanément et comme ça il peut il peut donner la réponse directement à son à son client donc ça améliore la productivité de leur agent aussi en fait ça nous permet de d’extraire des insights qui sont pas très très clairs dans la data ça c’est très important

Aussi et 4è point c’est pour euh pour la créativité pour avoir des choses très des choses créatives comme comme Adrien vient de le montrer euh après en fait pour les cas d’usage les plus courants aujourd’hui on parle de text generation on parle des des chatbot donc c’est du

Q&A on parle de de la euh de la synthèse des textes des emails et cetera des documents et tout ça c’est très important euh l’extraction de de features en fait dans des euh bien l’extraction d’entité dans quelques dans quelques documents par exemple on parle des on avait un projet pour un client

Qui gère des factures en fait et l’idée c’est d’avoir c’est d’extraire plusieurs entités plusieurs champs le nom des du fournisseur le nom de l’adresse du fournisseur le et cetera donc ça c’est c’est plusieurs cas d’usage euh donc voilà là c’est vraiment les les projets sur sur lesquels on travaille il y a

Encore euh deux ou trois autres projets que j’ai pas mis ici euh mais en fait ça c’est les projets qu’on a déjà terminé euh on a déjà fini ça donc les autres projets qui sont en cours j’ai pas voulu les citer mais ça c’est des projets qui

Sont déjà finis donc là par exemple on a fait un projet pour euh pour finaré qui est l’assurance en fait c’est un groupe d’assurance où on a fait justement la solution pour leur call center donc ce qui est le le chatbot pour pour les le call center après c’est un projet pour

Faraday et farad Lab qui est une start-up donc l’idée c’était en fait de déployer des modèles euh leurs modèles en fait qui sont sur hagging face ils ont mis des des modèles sur aggging face en open source et l’idée en fait c’est de euh c’est de déployer ces modèles-là

Sur des instances AWS des instances de AWS pour après euh alimenter leur leur application par ces modèles-là euh aussi on a fait du fine tuning de ces modèles euh parce que au au début en fait ce projet on l’a fait mois d’août donc il y avait pas de bedrock il y avait pas

Beaucoup de de modèles qui sont performants en français donc l’idé euh au mois d’août c’était de de F tuner un modèle qui est performant en anglais et de de le mettre pour qu’il soit performant en français donc l’idée c’est de de l’alimenter par plusieurs dataset en français euh avec un bon niveau de

Français pour que pour que le modèle en fait il s’adapte à avec cette langue et il commence à générer un contenu en français c’était un projet challengeant mais le le modèle en fait qu’on a qu’on a funé c’était laama 2 laama 2 7 70b et maintenant en fait farad ils ont

Un modèle un modèle en français qui est qui est assez performant euh donc pour le déploiement en fait euh j’ai bon je vais finir juste à par un troisième projet projet tamtami euh un projet de reply en fait l’idée c’était de d’avoir une solution qui permet de générer euh

Un contenu sur les réseaux sociaux pour l’entreprise saintam donc donc c’est d’automatiser ce travail au lieu d’avoir un community manager qui va chaque fois euh publier un contenu je sais pas une fois par semaine ou deux fois par semaine sur les réseaux sociaux pour cette entreprise et ben l’idée c’était de voir

En interne les les les White Paper les blogs qui ont été publiés par leurs équipes techniques les échanges techniques et cetera donc il y a il y a des endroits spécifiques où on peut extraire ces informations et l’idée c’était de de créer des des posts avec

Des images avec avec du texte des images inspirées de ces de ces ressources pour justement les publier après dans dans les réseaux sociaux forcément LinkedIn Instagram et cetera donc c’était c’était pas mal comme comme projet donc je veux je veux juste revenir sur la partie sur le projet faradé parce que en fait

Aujourd’hui on utilise pour le déploiement de ces modèles euh on utilise généralement des instances mvida ces instances en fait avec des GPU qui coûtent cher pour un projet je vous cache pas en fait là en pour euh pour un projet pour un modèle par exemple la 2

On peut on peut l’héberger dans une Lama 2 7b le plus petit on peut l’héberger dans une instance qui coûte entre 3 et 4000 dollars par mois euh pour un seul modèle donc ça coûte quand même un peu cher pour les pour les PME euh donc ça

C’est un modèle par exemple il y a d’autres modèles qui sont beaucoup plus larges comme comme l’AMA 2 70b on peut pas où on aura besoin de d’une instance qui est plus grande donc là il faut la déployer sur des instances qui coûtent entre 12 et 14000 dollars par mois donc

Ce qui coûte comme je vous ai dit ça coûte un peu cher pour les les grandes entreprises donc l’idée c’est l’idée de qu’on fait aujourd’hui avec AWS c’est que la WS ils ont ils ont commencé ou bien ils ont déjà commencé à travailler sur des instances qui sont beaucoup plus

Chers des instances qui s’appellent inferencia et trinum et trinium donc inférencia c’est pour le déploiement des modèles open source et trenium c’est pour le fine tuning de ces modèles et donc ces instances il coûtent euh beaucoup moins cher et ils sont beaucoup plus performants en terme de latency TS

De répense de ces modèles et cetera donc qui est une alternative euh pour moi une une bonne initiative et une alternative prometteuse pour pour le monde de de Lia en général donc demain euh on va utiliser des ressources qui st beaucoup plus économes en fait donc on a vraiment

Besoin euh de ces euh de ça en fait donc après on va parler forcément des des challenges euh de l’a euh donc on aura vraiment besoin de de ressources d’optimisation de de ressources euh pour le déploiement des modèles et pour le le F tuning de de ces lar merci

Alors peut-être moi je vais prendre aussi mon côté donc un exemple de projet euh récent euh alors je vais prendre un peu moins techniquement que que ton que ton que tes axes euh moi je vais le prendre par la demande client voilà en plus on est en école de commerce euh bah

Souvent ça va être aussi à cette partie là que les étudiants vont vont avoir à faire euh voilài le brief client c’était il y a à peu près euh c’est en septembre donc c’est 3 mois fin août 4 mois allez euh je veux chat GPT bon ça c’est je pense

Que tu tu tu pourras corroborer mais souvent les clients quand ils arrivent au départ ils nous disent je veux chatgpt ouais c’est la question bah on leur dit bah facile vous payez 20 € puis vous l’avez hein mais c’est pas exactement ça la demande euh en cherchant un petit peu

On essaie quand même de trouver un poste qui pourrait être aidé grâce à l’intelligence artificielle et là pour le coup c’était donc une marque d’hygiène et de beauté fmcj donc grand public bien une grande consommation êide des chefs de produits grâce àintelligence artificielle bon avec GPT quand même

Voilà donc ça c’est voilà donc globalement vous voyez ma tête quand j’ai eu ça moi je me suis dit bon c’est bien bon ça fait une mission donc on est content maintenant comment on peut essayer de comprendre ce brief et d’aller bien plus loin et bien vu qu’aujourd’hui chatptif et tout et qu’on

M’avait demandé de l’utiliser c’était dans le brief je lui ai demandé quelles sont les missions principal d’un chef de produit fmcj je suis pas expert même si j’ai beaucoup travaillé dans ce domaine donc là je demande il me dit gestion du cycle deis produit ok planification stratégique adaptation au besoins ainsi

De suite il me dit développement et exécution des plans marketing de plan marketing création marketing campagne publicitaire collaboration avec les équipes voilà analyse des performances et prise de décision basé sur les données ok bon donc avec tout cette choses là moi je me dis comment je peux derrière définir une STR stratégie

Intelligence artificielle au sens large qui va pouvoir répondre aux vrais besoins de mon client pour ça et bien il y a pas de 36 solutions il faut encore un peu de jus de cerveaufity ne fait pas tout et bien on va réfléchir on va réfléchir donc sur les trois thématiques

Qui ont été proposées sur les les tâes clés d’un chef de produit fmcj et on va essayer de nous avec notre maîtrise de Lia de définir qu’est-ce qui va être technique ement les bonnes solutions déjà un axe technique Mme pas les outils hein les techniques euh pour faire tout

Ça donc sur la gestion du cycle de vie du produit par exemple on va avoir planification stratégique est-ce que je peux utiliser l’IA oui B ça peut être par exemple de l’économétrie pour comprendre quelles ont été les actions marketing qui ont impacté mes ventes donc c’est possible est-ce que ça rentre

Dans l’IA oui probablement euh besoins des consommateurs je peux analyser les commentaires clients voilà et en faire une condensation et peut-être derrière avir d’info je vais descendre un petit peu parce que je vois l’heure qui passe on peut avoir par exemple de l’idéation produit et bien conception packaging

Alors là moi j’étais très content parce que vous avez vu j’aime bien les images je me suis dit bah là je pourrais rajouter une petite partie un peu effet waou là-dessus et puis on va voir l’évolution des ventes les stratégies produits stratégie de prix par exemple avec bah les pricing algorithmique quel

Prix je dois mettre à mon produit pour qu’il se vende bien et enfin une qui était pas dit mais qui était un peu dans besoin de mon client collaboration entre différentes équipes et là alors oui il faut des agents l’intelligence artificielle aujourd’hui c’est on va dire c’est le le mouvement et c’est ce

Que tout le monde a envie d’avoir c’està-dire un petit chatbot qui va te permettre de discputer avec ton voisin mais en ayant le même langage alors ce qui est intéressant de voir c’est que vous voyez on peut mettre de l’IA partout on peut mettre de l’IA partout

Mais est-ce que l’IA générative répond à tous les besoins et là il faut aller un cran pour loin plus loin parce qu’on a l’impression que ça répond à tout mais pas du tout il va y avoir des choses où ça va pas être utile ou très peu utile

Par contre par exemple pour la génération d’image oui pour les besoins des consommateurs et donc prendre des commentaires clients et réussir à résumer ces commentaires pour en sortir des choses et bien oui ça va être utile euh et bien sûr pour la collaboration et bien oui on va utiliser par exemple des

LLM une fois vous avez fait cette stratégie là on va pouvoir passer à l’étape numéro 2 qui est l’étape de la tactique voilà on va la définir en tactique et donc là la tactique c’est de se dire voilà j’ai mon ensemble de cas d’usage comment je peux créer des

Briques qui vont nous permettre de construire quelque chose pour mon product manager pour mon chef de produit et bien on va avoir une brique d’obtention de données alors n’oublions pas c’est très important si vous avez pas les bonnes données au départ ça marchera pas c’est pas parce que

D’autres gens ont mis des millions et des milliards et des des milliers de milliards de données dans un dans un LLM par exemple que il aura exactement la bonne information pour répondre à votre besoin il va falloir par exemple rajouter des PDF he c’est le rag dont parlait W c’est de l’information le

Vectoriser ainsi de suite deuxième chose on va la modéliser cette donnée que ça soit d’une manière il a générative pour pouvoir créer ces modèles de fondation ou alors que ça soit d’une manière beaucoup plus classique machine learning ou même statistique aucun problème et puis derrière on va exposer et c’est

Souvent là qu’on va avoir bah le chat avec dllm par exemple de la vision d’information ou tout simplement aussi le mettre dans les manag dans les ERP hein donc ou les Py ainsi de suite on va pouvoir l’intégrer à l’intérieur ça faut pas l’oublier un chat GPT ou un chat ce

N’est pas forcément bon pour tout ça ça va interagir avec mon product manager qui lui va bah globalement rajouter de l’information ça faut le prendre en compte qui va aller euh jouer avec l’ensemble des personnes de l’entreprise voilà comment ça se transforme cette l générative et li a en général en soi et

Après malheureusement j’ai pas eu de possibilité de vous montrer les traps 3 sur cette marque mais j’ai demandé à mon client il m’a permis de montrer une partie du de l’interface et sur un autre produit voilà donc je l’ai fait sur un autre produit j’ai choisi les pattes

Baria qui était mon voilà j’aime bien les PES Baria tout simplement alors comment ça se passe derrière en terme de d’utilisation de l’outil et bien tout simplement on va choisir un produit on va lancer l’analyse ça c’est c’est nécessaire pour aller récupérer de la donnée euh dans les bases voilà ça c’est

C’est voilà on doit aller là c’est très peu Ia génératif c’est vraiment aller chercher de l’information et puis on va pouvoir lui poser une question une fois qu’on a récupéré cette information alors j’ai vu tout à l’heure que j’avais fait une grosse faute d’orthographe en anglais et bien ça tombe bien parce que

Les LLM ils en ont un peu pas rien à faire ils comprennent quand même donc tout va bien on aura la bonne réponse même si j’ai fait une faute d’orthographe c’est what is the price of this product et il va nous répondre en dessous un résumé et suivant ce que je

Vais lui poser comme question il va nous nous sortir aussi du détail là je suis sur le détail et bien c’est tout simplement le détail de la base de données des prix scrappés des concurrents ou des revendeurs là on est sur un revendeur pour le coup et puis

Derrière il y a une partie qui est un peu donc l’effet waou euh de génération d’image l’idée c’est d’aider ce pronuc manager à innover aussi hein dans un sens donc innover sur son prix sur ses stratégies de prix innover sur ses produits innover sur ses gammes et potentiellement innover aussi sur bah

Les les produits en tant que tel et donc on va générer ici des styles différents avec des promptes qui sont prépromptés d’image par rapport à ces je me suis permis de les mettre en gros de les télécharger de les mettre en gros dans la praise euh vous voyez que on est

Quand même sur des images qui sont assez euh moi je trouve ça choquant parce que je pourrais trouver ça en magasin et me dire en fait c’est une photo ou quasiment une photo donc la version classique la version écologique la version on n jamais vu un paquet comme ça et la version futuriste

Voilà ça j’y crois assez peu mais bon pourquoi pas voilà pour cette cas d’usage donc un cas d’usage de bout en bout qui nous permet d’utiliser la J et pas que bah pour un product manager dans n’importe quel grand groupe FMC et pour terminer et je vous laisserai pendant ce tempsl poser

Peut-être vos questions on on est quasiment à l’heure chaben on est 5 minutes sur le timing donc ça va euh et bien je vais vous bah chaben oui je te parlais en te disant à 5 minutes mais bientôt on Nura plus besoin de te parler directement on pourra parler directement

À ton avatar en ligne l’idée c’est de donc de produire un chat à Ben en avatar et donc de pouvoir faire des économies je suis un chocant je fais je fais exprès alors comment ça se passe pour ça je j’ai prévu de vous présenter donc les GPT qui sont des agents en fait

Qu’on peut créer sur Chat GPT pour ceux qui ont l’accès payant vous avez peut-être déjà fait ça ce qui est intéressant c’est ce que disait well tout à l’heure le nouveau langage de programmation c’est l’anglais en fait là on va créer un bot très simplement et en effet on va le

Créer en anglais et on peut même le créer en français il va comprendre donc en gros ce qui nous demande c’est qu’est-ce que j’ai envie de faire ben je vais lu dire je veux réaliser un GPT euh qui sera un professeur de Supply Chain Management point appelleele supp chain je vais ou je

Ouais que j’avais déjà ça en tête du coup ça ça m’a ça m’a fait aller trop vite chain ou là là je pas appelle ch et donc là lui il va comprendre globalement ce que je suis en train de dire et il va de lui-même configurer en fait notre bot c’est ça

Qui est fou hein c’est que demain en effet vous aurez plus besoin de pour certaines tâches pour certaines il faudra on va discuter après mais pour certaines tâches on aura plus besoin d’avoir quelqu’un qui code euh et on pourra directement générer alors là il va nous générer même une

Même une profil picture donc une petite image pour bah représenter notre bot je laisse faire voilà pas mal je trouve que ça te va bien chezen euh derrière donc une fois qu’on a fait ça on peut lui dire ok donc ça nous va et puis on va continuer petit à petit à

Construire le bot alors vu qu’on est un petit peu out of timing derrière je vais vous passer un peu les détails mais il va nous demander voilà est-ce qu’ on veut que le ton soit rigolo est-ce que que le ton soit formel est-ce qu’il y a des choses qu’il faut éviter par exemple

Est-ce qu’on doit rester sur les sujets de supplchain management et puis je vais vous passer dans la configuration derrière il va créer donc des promptes euh là-dessus ce qui est intéressant derrière c’est qu’on va aussi pouvoir lui donner hop on va aussi pouvoir lui donner euh des euh documents et

Notamment moi j’ai téléchargé euh des documents sur la Supply Chain qui sont trouvés sur internet hein mais on aurait pu penser au au cours de chaben directement et on va lui mettre ici et on va télécharger lui ce qu’il va faire c’est que derrière il va pouvoir les utiliser pour répondre aux questions

Potentiellement des étudiants ou autres euh et voilà et donc là je pourrais m’arrêter là et donc je pourrais commencer à lui poser des questions je vais juste prendre le le le chat à Ben que j’avais créé de base euh c’est celui-ci euh qui juste pour qu’on pas à avoir ça et

Donc on va maintenant pouvoir parler au professeur virtuel hello donc là chaben va nous répondre il est poli et on va pouvoir lui demander des choses basiques par exemple donne-moi le grand principe je sais pas si un grand principe du supply chaîne management et donc là il va pouvoir me

Répondre alors soit s’il estime que c’est nécessaire il va aller chercher dans sa documentation soit s’il estime avoir déjà la réponse de base il va il va l’écrire euh voilà donc il va nous répondre tout simplement par une définition là vous allez me dire bon

Jusque là on n pas trop peur tout va bien euh je vais le laisser finir il est un peu lent là vous allez avoir un peu plus peur je laisse répondre c’est que j’ai téléchargé un document voilà sur prélude là exercice sur la gestion de la Supply

Chain le cas équipe hôel où je vais avoir un document complet qui va me résumer donc une problématique avec des schémas et puis à la fin bien sûr vous aurez des questions voilà ce que je lui demander il est en train d’écrire pas de choses ce que je

Vaisir lu demander maintenant c’est de me dire est-ce que tu pourrais [Musique] m’aider la question 1 du document maintenant une fois que je vais lui pousser mon document PDF il va aller le lire et il va pouvoir directement sans besoin d’une aide extérieur et de l’aide de

Cheen répondre voilà il cherche dans son dans ses PDF il cherche dans celui-ci cherche dans les autres PDF et il va pouvoir répondre à la question une en tout cas l’aider l’élève à directement répondre à la question voilà on va on va laisser juste commencer à répondre et puis après je

Pense que vous avez compris il va répondre il va nous parler de l’entreprise équip hôel la v C’est dépendant du nombre d’utilisateur de chat GPT c’est pour ça que des fois ça va être très rapide voilà la question d’un des machins demande de déterminer les éléments suivants cela impli d’analyser

Prévoir les quantités bon bref il va donner des indices on pourrait lui demander aussi de répondre sur lequel cas il essaiera de répondre directement à la question voilà pour moi et je pense qu’on a terminé pour tout ce qui était la présentation et maintenant on peut aller sur des questions

Potentielles merci merci Adrien pour cette démonstration je ne sais pas si les participants ont des questions à poser vous pouvez peut-être utiliser le chat sinon je pense que je sais pas si peut désactiver Lain on peut activer le le micro pour pour pour parler si vous voulez sinon je je commence peut-être par

Un par une question très simple est-ce que c’est la fin des profs euh Adrien ou tu veux commencer ou je commence vas-y commence après euh est-ce que c’est la fin des profs alors je vais faire attention parce que je pense qu’il y a des profs dans le dans l’assistance euh

Donc je vais dire non non non non je vais répondre je vais répondre simplement alors ça dépend ce qu’on attend par ce qu’on entend par prof avec les technologies qu’on vient de voir et donc les différences au niveau de différentes technologies comment ça fonctionne ainsi de suite le fait que

Bah il y a une partie qui est probabilistique une partie qui est de génération pourrait se dire si génère bien et bien ça sera bon alors oui la première chose c’est que l’écriture de cours l’écriture de choses la génération de de ces supports là la génération d’exercices ainsi de suite on va va

Peut-être en effet aller sur une automatisation mais il fautettre peut-être un peu de un peu de théorie là-dedans qu’est-ce que c’est qu’un professeur on a on pourrait faire un séminaire dessus mais pour moi quand on est devant un professeur on va avoir deux choses on va avoir un besoin de ses connaissances et

Un besoin de ses compétences c’estàd qu’on veut acquérir des connaissances et acquérir des compétences voilà bien séparer les deux les deux choses et donc les connaissan sens oui à terme très probablement et c’est déjà un peu le cas parce que si on cherche bien sur Google

Presque tout est est là alors il va manquer peut-être un peu d’expérience mais au niveau des connaissances on va s’approcher de plus en plus en effet d’un d’une connaissance qui sera partagée par tout le monde et qui qui n’aura plus besoin d’être là au niveau du professeur par contre sur les

Compétences on est quand même aujourd’hui assez limité dans les compétences c’estàd que oui on a certaines compétences pour certains modèles de fondation on a certaines compétences pour certaines a mais on arrivera toujours en fait à certaines compétences que n’aura pas le bot n’aura pas les et donc ça va être ça va

Transformer le métier de professeur ça j’en suis convaincu euh mais est-ce que ça va le remplacer la réponse est non moi je ça re un non franc et massif par remplacer transformer c’est-à-dire qu’une personne qui sera et je suis fils de prof donc je peux en parler mais un mauvais professeur c’est-à-dire une

Personne qui ne sera que un diffuseur un répétiteur de connaissance en effet bah il a peut-être du souci à se faire mais un bon professeur qui arrive à apporter la pédagogie la réaction et peut-être même l’empathie dans son cours ce qui fait qu’en fait ses élèves apprennent et

Deviennent très performants lui il a pas vraiment de souci à se faire il va même gagner du temps très bien peut-être on peut passer parce que j’ai d’autres séries de questions qui apparaissent justement sur l’hallucination de chat GPT Alejandro nous dit bah ça sert peut-être à écrire des emails donc c’est

Peut-être peu fiable qu’on qu’on peut peut en répondre peut-être cette sur cette problématique d’hallucination de chat GPT ouais je peux prendre Adrien si tu vois euh en fait pour les hallucinations euh et je vais parler généralement en fait de comment on fait aujourd’hui pour pour pour évaluer les performance d’un modèle

Et parce que ça c’est c’est un vrai problème et un vrai sujet de débat aussi euh je pense que c’est le sujet aujourd’hui qui va qui va s’imposer déjà pour la majorité de nos de nos clients pour la majorité de de nos projets aujourd’hui c’est de comment on va évaluer ces ces

Modèles et comment on va éviter que que le modèle hallucine comment on va on va éviter le fait de d’avoir un modèle en fait qui donne des des des fausses informations et cetera donc ça c’est c’est très important euh en fait aujourd’hui ce qu’on fait réellement c’est que nous

Avec les les les documents qu’on reçoit de la part des clients pour faire des chatbot et cetera ce qu’on reçoit c’est c’est qu’on reçoit aussi des ce qu’on appelle des datasset de référence c’est-à-dire des datasets en fait qui sont créés par par des humains qui sont composés de plusieurs questions et

Plusieurs réponse potentiell généré par des humains et l’idée après c’est de funer le modèle pour qu’il euh pour qu’il s’adapte à ce schéma de réponse et pour qu’il s’adapte à ces à ces données là donc ça c’est c’est très important euh pour automatiser tout ça en fait il

Y a des travaux qui ont déjà commencé avec je vais citer la start-up française qui s’appelle gcard euh qui travaille sur une librairie open source qui permet justement de euh de de de contrôler les euh ou bien de d’évaluer les performances du modèle et de voir si le

Modèle en fait il hallucine ou pas s’il s’il donneent des des des des messages de caractère sexiste ou euh raciste ou ou autre euh il y a plusieurs il y a plusieurs autres autres problèmes en fait il y a il y a aussi le problème de off topic c’est-à-dire quand le modèle

Commence à à euh à répondre ou bien à dégénérer des réponses euh out of scope hors sujet donc ça c’est c’est un problème très important euh il y a la partie en fait aussi euh il y a le problème aussi qui s’appelle validation error en fait euh où là les

Réponses ne sont pas forcément dans le bon format ou bien aussi il y a un autre problème qui est majeur qui est le Data leakage donc quand le modèle en fait ou bien quand quelques entreprises en fait il commencent à à utiliser les données des clients que soit en fait pour le

Modèle en fait il commence à à donner des des réponses ou bien du texte qui n’est pas supposé donner donc puisqu’il détient l’information et il commence à donner à générer des réponses donc qui sont confidentielles à à d’autres clients qui sont pas forcément obligés de savoir cette information donc il y a

Beaucoup de problèmes autour de des LLM aujourd’hui donc l’idée bien le challenge aujourd’hui c’est de comment on va automatiser l’évaluation de ces LLM et comment on va euh euh automatiser ce process donc aujourd’hui on a commencé avec gcard avec ce ce modèle demain en fait ou bien d’ici

Fin disons fin 2023 ou début 2024 en fait il y aura les cloud providers en fait comme AWS qui vont aussi mettre en place des solutions open source ou ou pas pour justement contrôler ces ces problèmes qui sont liés principalement à l’hallucination à à beaucoup d’autres problèmes très bien merci ça c’est un

Challenge c’est un vrai challenge merci wa juste sur la continuité de la première question est-ce que halluciner veut dire mentir et puis on passe à la deuxième question sur le rag et le F tuning Que Choisir euh alors juste sur est-ce que allucin également tir c’est une question plus

Philosophique que que que je pense au niveau de on a vu que il m pas c’est il fait ce qu’on lui demande he ou il a été entraîné sur sur un ensemble de données donc il est en train de refléter ce qui les données sur lesquelles il a été entraîné donc

Réellement ou bien quand même Adrien en fait à partir d’un d’un certain d’un certain point en fait il commence à à raisonner il commence à générer un contenu donc bah halluciner en fait il y a pour moi il y a beaucoup de choses il y a il y a

Il y a le fait de dire des propos ou déplacés des propos racistes il y a le fait de de je sais pas de donner des des réponses qui sont hors sujet des des des réponses qui sont fuses et cetera donc tout ça pour moi c’est c’est de l’hallucination

Ouais je suis d’accord je vais juste donner deux exemples j’ai j’ai j’ai utilisé Bard et je vous le déconseille c’est dommage de dire ça en grand public mais pour faire la traduction de d’une chanson en kabile j’ mes projet où j’essaie de travailler alors c’était pas pour la

Chanson c’était pour du marketing au départ mais là j’ai pris une chanson et globalement bar ce qu’il a fait quand je lui demandé la traduction de la la chanson il m’a dit donc la première phrase en kabile il m’a dit il m’a mis une autre phrase en français la deuxième

Phrase en kabile une autre phrase en français alors et donc il a pris une chanson en français il m’a mis la deuxième la première phrase de la chanson la deuxième phrase de la chanson euh est-ce que c’est mentir est-ce que c’est halluciné pour moi c’est halluciné c’est ce qu’on lui demande globalement

Lui on lui a demandé de traduire lui il a il a fait ce qu’on lui demandé il m’a traduit alors il m’a mal traduit hein certes mais il a pas menti en soi là où il va y avoir une vraie complexité c’est quand on va commencer à avoir du rag ou

Autre et en tout cas à mettre des documents on aurait pu le voir là sur le chat B chaben mais c’est quand il euh l’hésite entre aller chercher l’information euh dans sa base de connaissance fondamentale euh versus dans la base de connaissance qu’on lui a donné et euh à ce moment-là c’est

Quelque chose à bah à travailler hein quand on construit pour être sûr que quand on lui demande une information qui est dans la base euh de connaissance qu’on lui rajoute dans les documents dans la documentation qu’on lui rajoute il bien la chercher au bon endroit mais

Ça c’est du travail en effet de de construction comme pourrait le faire wall très bien euh une question je sais pas l’un d’entre vous donc est-ce que c’est la fin du rag et enfin d’abord est-ce qu’on tout utiliser plutôt le rag ou le F tuning et avec Custom GPT d’pï est-ce

Que c’est inutile de passer par le rag peut-être Adrian je sais pas si comme tu veux ouis pour la fin pour la fin est-ce que c’est inutile de passer par le rag non alors pour deux raisons chat GPT c’est déjà une solution qui est propriétaire donc déjà si on parle de

Chat GPT il faut se poser des bonnes questions on l’a vu là dans les quelques jours qui viennent de se passer potentiellement elle aurait pu mourir en une journée donc la réponse est ça faut l’oublier euh après est-ce que chat GPT c’est pas un peu du rag alors non c’est

De la recherche dans de la documentation ça va fonctionner sur un petit ensemble de documents mais pas sur des vraies naissance donc c’est pas la même chose euh là-dessus non non ça au contraire je pense le rag dans les prochaines années euh ça va être en essort et c’est

Quelque chose de très important ça dépend ce qu’on veut en faire si c’est un petit projet un petit truc aucun problème rajouter de la documentation il le lit il l’utilise il il est dans son dans ses promptes en fait hein euh mais si vous voulez quelque chose de sérieux

Il va falloir passer par autre chose après entre rag et F tuning peut-être is ton avis mais c’est euh ça c’est un a ça ça c’est un autre sujet euh bon entre le rag et le fine tuning moi je commence toujours par le rag et après si c’est pas bon je je complète

Avec un peu de fun donc pour moi ça peut être deux techniques complémentaires à mon avis hein mais après ça dépend des use case franchement ça dépend des use cas ça dépend ça dépend de la data des documents ça dépend de plusieurs de plusieurs facteurs bien alors j’ai une autre question sur

Les modèles de y narrative comment choisir selon nos besoins y y a-t-il des métriques connues faut-il les tester pour enterrer le bon com Andrien vas-y vas-y ok bon pour choisir Leon l à mon avis il y a plusieurs facteurs déjà donc mais ils sont pas vraiment des des métriques

Euh des métriques tangibl ou des métriques comme comme pour pour les l comme pour les les machine learning en fait pour des modèles de machine learning on a la cur ici le F1 score et cetera mais c’est plutôt en fait d’autres genre de de critères euh il y a

Par exemple en fait on peut voir le le modèle de pricing des modèles donc ça ça dépend des des clients leur budget et cetera on peut par exemple il y a un autre critère qui est lié à la à la vitesse à la latency ou le le la vitesse

D’inférence en fait de ces modèles il y a des modèles en fait qui sont qui prennent beaucoup de temp et il y a modèles qui sont très rapides en terme en terme d’inférence donc ça c’est c’est un critère pour les modèles Open Source en fait il faut voir si ces modèles

Est-ce qu’on peut les utiliser pour des pour des projets euh pour des projets commerciaux ou pas c’està dire est-ce qu’on peut commercialiser ces modèles ou pas ça c’est ça c’est très important euh il y a aussi le la taille des modèles est-ce que on a suffisamment de d’instances en fait qui peuvent

Supporter ces modèles ou pas donc ça c’est c’est à voir aussi euh il y a il y a la complexité de du déploiement et il y a plusieurs autres il y a aussi les les datas sur lesquels le modèle il a entraîné donc ça c’est important donc il

Y a plusieurs critères à mon avis pour pour choisir le bon modèle je sais pas Adrien qu’est-ce que tu fais non tu en as cité beaucoup de techniques après moi je rajouterai aussi une dimension purement usage dans le sens où ça dépend de ce que les personnes préfèrent ce que

Ce que je dirais là-dessus c’est qu’il faut il faut faire en en fait il faut mettre en place à chaque fois quand même un un framework de de de choix pour se dire voilà coût complexité usage et bien sûr réglementaire très bien j’ai une question PL technique

Enfin technique est-ce que chat GPT a accès déjà 2020 donné 2023 ou pas pas avril ouais jusqu’à enfin non ça dépend si vous payez ou pas si vous payez c’est jusqu’à avril sinon c’est je crois encore du 2022 si je dis pas de bêtises 2021 je crois je sais peut-être

Mon bref mais cette question là elle est juste intéressante de faut se dire alors il y a de y a deux choses euh n’attendez pas à ce qu’il estit accès en temps réel pour deux raisons parce que peut-être il y aura peut-être pas et puis ça peut

S’arrêter à tout moment et ça dans les fait ça sera pas le cas ce qu’il a c’est qu’il peut aller chercher sur internet ù vous pouvez mettre des documents donc ça ça va être intéressant mais le mieux c’est potentiellement de faire une surcouche he voilà et et comme ça vous

Serez sûr au moins d’avoir les bonnes données sur les bonnes thématiques très bien une autre question est-ce que est-ce possible de générer de gérer de vrais systèmes d’autorisation et de couche d’accès aux données servant de base de connaissance à un GPT selon quel utilisateur lui poserait la

Question alors peêre je comprends pas la question mais peut-être si si alors ça dépend si alors déjà si on parle de GPT par la la solution che GPT comme ce qu’on a fait tout à l’heure la réponse est c’est compliqué c’estàd que tu vas pouvoir en fait et c’est

Comme beaucoup de choses sur le chat GPT hacker un peu le truc en disant il faut un mot de passe ou fa des choses comme ça ça ça sera jamais sécuritaire dans le sens il faudra que la personne donne un mot de passe directement dans le chat

Donc en fait c’est pas du tout scalable donc la la vraie réponse à ça c’est non euh c’est complètement non cependant si jamais tu veux faire quelque chose comme ça en disant j’ai envie d’avoir un chatbot qui soit avec une base de connaissance qui soit asse horizontal mais sur certains documents

Et bien par exemple c’est j’en sais rien un chatbot pour des vendeurs et les vendeurs ils ont besoin d’accéder uniquement au dossier client bah de leur propre client et bien là tu rajoutes une surcouche et en gros ça va être un appel à une API qui va répondre de

L’information sur le client ou pas et ça sera la solution la plus simple entre guillemets tu fais un tu crées un un LLM que tu fais tu mets du RAC tu fais ce que tu veux qui va être spécifique avec une base de connaissance transverse et

Après sur les données qui sont sont un peu risqué et bien là tu fais des appels classiques aux API et donc avec un petit applicatif par-dessus je pense c’est ma ça sera ma réponse ouais je sais pas si tu veux ajouter quelque chose d’accord je suis d’accord avec ça ouais très bien

Je sais pas s’il y a d’autres questions des participants euh vous pouvez écrire sur le le chat sinon peut-être une dernière question justement par rapport au au au professeurs et et au chatbot euh on a on a parlé un peu est-ce que c’est la fin est-ce que c’est la fin des professeurs

Ou pas euh et et on recherche comment comment l’ génératif peut aider peut-être les professeurs à faire de la recherche euh peut-être être plus innovant en quoi elle peut aider justement à à être plus performant de ce qu’on fait aujourd’hui h moi je peux commencer si tu veux euh moi j’ai fait

J’ai fait une thèse donc euh c’estàdire en fait parmi les choses que je peux utiliser euh bah je peux utiliser une solution qui qui me permet justement de de synthétiser peut-être les les articles scientifiques parce que avant je passais deux à TR 3 4 jours à lire un article à comprendre quelles

Sont les maétriques qu’il a utilisé quelle est l’architecture avec des des avec un langage simple en fait au début surtout pour ceux qui qui commencent déjà leur thès donc pour eux en fait c’est très compliqué au début de lire un article scientifique de comprendre la démarche et cetera donc je pense ça peut

Être une une ça peut aider dans ce sens-là au début euh après je peux avoir je peux avoir aussi une solution qui permet de de m’aider à rédiger mes articles scientifiques parfois j’ai j’ai des résultats euh j’ai des résultats j’ai une architecture qui est prête avec des des métriques avec des des résultats

Numériques et cetera mais je trouve un peu de je trouve des des des problèmes à commencer à rédiger à avoir l’inspiration pour pour le storytelling pour pour pour commencer à rédiger donc ça peut être un accélérateur dans ce sensl très bien ça c’est les deux cas

Qui viennent à l’esprit pour oui ben non non sur ces US cas là ils sont en effet c’est le travail au jour le jour du du chercheur donc c’est intéressant après sur le la dimension innovation et trouver des nouvelles choses pas simplementer récupérer ce qui existe et

Alors faut juste remettre un petit peu au début c’est que la génération de choses ça existe depuis très longtemps c’est-à-dire que là où on a vu dès le départ les générations d’image c’est avec les modèles Gan notamment c’est par exemple dans tout ce qui a été étude des

Tumeurs du cerveau où euh bah heureusement on n’ pas des milliers d’images enfin on en a mais de cerveau qui sont sains ou ou non sains euh et donc en gros ce qui était fait c’est qu’on générait des images qui étaient des cerveaux sains ou des cerveaux

Malades et donc ça c’est fait depuis des dizaines d’années hein voilà euh est-ce que c’est générative bon ma réponse serait oui hein euh c’est juste que c’était pasgénérative grand public était vraiment pour un un cas d’usage et en gros ça ça a permis derrière bah de faire des avancées énormes sur la

Détection de tumeur euh donc même pour pouvoir donc l’utiliser vraiment dans la recherche en tant que tel et dans le travail de recherche et de création euh bah oui il y a des cas d’usage comme ça et demain voilà on en parlait l’autre jour ça peut être sur de la génération

De de médicaments où on va faire de la Brute Force en fait on va lui demander génère génère génère génère et puis un jour on aura peut-être quelque chose qui va sortir et on aura de la chance euh voilà c’est c’est un peu comme le problème de la décision c’est est-ce

Qu’on est capable d’avoir toutes les solutions grâce à lien générative le problème de la décision il a été mis comme faux hein donc c’est pas capable est-ce que l’ générative nous permettra alors à horizon t plus quelques années surrement non mais peut-être plus tard on sait pas on verra

Et bien on arrive en fait à la fin du de la du webinaire je tenir à dire une chose quand même très importante d’abord merci merci beaucoup pour vous deux merci pour la préparation qui a été faite pendant des heures et des heures et des jours même et je suis vraiment

Content de de travailler avec vous parce que il y a quand même un travail de fond qui a été fait si on va pas au cœur du réacteur pour comprendre comment ça fonctionne on peut pas vraiment savoir comment utiliser la chose pour moi c’est le le principe de base de tout

Professeur de tout chercheur d’aller comprendre un peu le le contenu de ce que de de quoi on parle au lieu de rester sur des exemples gadget euh et et rester plutôt superficiel donc je tiens le le souligner euh voilà on n pas on n pas des centaines de de participants euh

Voi à parisin mais mais moi je voilà moi je suis très très content euh parce qu’ on voit quand même les application réelle des de la chose et c’est comme ça qu’on peut avancer c’est comme ça on peut faire de la recherche on peut faire des d’usage pratique c’est

Comme ça que les entreprises peuvent nous faire confiance parce qu’on peut proposer quelque chose de nouveau donc ça c’est le point le plus pour moi le plus important à souligner au cours de ce webinaire merci beaucoup wa merci beaucoup Adrien pour merci merci chaben merci merci aussi aux participants de de

Rester jusque là jusqu’à la dernière heure j’espère vous rencontrer bientôt pour les personnes externes je sais pas si en reste le laboratoire est ouvert à tout le monde venez venez comme vous êtes comme dit la pub et on essaiera de de collaborer tous ensemble merci au revoir

Leave A Reply