Enseignement 2023-2024 : Apprendre les langues aux machines
Séminaire du 26 janvier 2024 : Analyse automatique de l’argumentation dans les débats politiques
Intervenante : Elena Cabrio, professeur des Universités, université Côte-d’Azur, Inria, CNRS, I3S, France
Les débats politiques offrent aux citoyens une occasion unique d’apprécier la position des représentants politiques sur les sujets les plus controversés de l’actualité. Au regard des prises actives de paroles des différents acteurs de la vie politique, ces débats constituent une source d’information qu’il se doit d’être capitalisée afin de mieux appréhender les dynamiques sociétales. Compte tenu de leur qualité argumentative innée, ces échanges constituent un scénario d’application adéquat pour la mise en œuvre de méthodes computationnelles d’extraction d’arguments. La fouille d’arguments est un axe de recherche étudié dans le domaine du traitement du langage naturel et dont l’objectif consiste en l’extraction et l’identification automatique des structures argumentatives d’un texte en langage naturel à l’aide de programmes informatiques. L’analyse des structures argumentaires est une tâche complexe s’attachant à l’étude des composants et des schémas d’argumentation, aux relations entre les arguments ou encore aux stratégies de contre-argumentation. Au cours de cet exposé, je détaillerai les étapes nécessaires quant à l’automatisation de l’analyse du discours politique par le biais de méthodes de fouille d’arguments. En premier lieu, il s’agira de présenter les approches dédiées à l’identification des structures argumentatives et leurs relations. Ensuite, je décrirai les stratégies déployées dans le cadre de l’identification automatique des arguments fallacieux, notamment à travers l’analyse des différentes formes d’argumentation et la détection des manœuvres stratégiques dans le discours argumentatif.
Retrouvez les enregistrements audios et vidéos du cycle :
https://www.college-de-france.fr/fr/agenda/seminaire/apprendre-les-langues-aux-machines
Chaire Informatique et sciences numériques
Professeur : Benoît Sagot
Retrouvez tous ses enseignements :
https://www.college-de-france.fr/fr/chaire/benoit-sagot-informatique-et-sciences-numeriques-chaire-annuelle
Le Collège de France est une institution de recherche fondamentale dans tous les domaines de la connaissance et un lieu de diffusion du « savoir en train de se faire » ouvert à tous.
Les cours, séminaires, colloques sont enregistrés puis mis à disposition du public sur le site internet du Collège de France.
Découvrez toutes les ressources du Collège de France :
https://www.college-de-france.fr
Suivez-nous sur :
Facebook : https://www.facebook.com/College.de.France
Instagram : https://www.instagram.com/collegedefrance
X (ex-Twitter) : https://twitter.com/cdf1530
LinkedIn : https://fr.linkedin.com/company/collègedefrance
[Musique] [Musique] et voilà donc nous allons pouvoir passer la parole à Al Cabrio qui est professeur à université cô d’Azur sans déterminant euh et membre de l’équipe wimix une équipe commune avec inriia et qui va nous parler d’analyse automatique de l’argumentation dans les débats politiques donc bonjour à toutes et à
Tous donc d’abord je souhaite te remercier encore une fois Benoît pour l’invitation et aussi le Collège de France pour cette opportunité donc je suis honorée aujourd’hui euh d’être ici pour vous parler de l’analyse automatique de l’argumentation dans les débats politiques donc si je prends la définition de argumentation d’un Wikipédia je retrouve que
L’argumentation est l’action de convaincre et pousser ainsi l’autre agir une argumentation est composée d’une conclusion ou d’un ou de plusieurs attendez parce que ou euh pardon une argumentation est composée d’une conclusion et d’un ou de plusieurs éléments d’preuve que l’ont appelle des prémisses ou des arguments et qui constituent des raisons
D’accepter cette conclusion une argumentation conv qu peut bien souvent consister à simplement énoncer un fait afin de permettre à l’interlocuteur d’en avoir connaissance argumenter c’est exhorter une personne à agir en montrant que les conséquences de cette action causeent un bien éthique matériel physique psychologique économique ou autre accepté par l’opinion générale
Persuader ou convaincre c’est modifier la décision d’agir d’une personne par des argumentss sans peut-être nous en apercevoir en fait nous utilisons beaucoup d’argumentation dans la prise de décisions vision de notre vie quotidienne ainsi que dans la discussion des questions plus cruciales en particulier les arguments jouent un rôle
Deux rôles différents donc d’un côté ils permettent de sélectionner une ou plusieurs alternatives mais aussi de justifier et argumenter justement un choix qu’on a déjà adopté donc depuis l’époque des anciens philosophes et rétoriciens grec les TH les théoréticiens de l’argumentation ont cherché des critères qui nous per permett de définir queun argument est
Correct selon certains critères spécifiés en examinant les erreurs des raisonnements que nous commettons quand nous essayons justement d’utiliser des arguments donc depuis la fin des années 1950 l’étude de l’argumentation est passé par contre d’être une partie de la logique et de la rhtorique à une véritable sujet interdisciplinaire le concept
D’argumentation a été reformulé pour le considérer non seulement comme un ensemble de propositions logiques qui doivent être désignées qui ont été désigné pardon arbitrairement mais plutôt comme visant à résoudre des conflits de façon assez raisonnable donc par conséquente l’argumentation a été examinée dans le cadre d’une discussion explicite ou quand il s’agit d’un
Monologue aussi implicite entre deux parties qui ont par contre une position différente sur une préosition donnée et l’argumentation qui est avancée dans cette vise à résoudre la différence et en essayant de convaincre l’autre partie de la validité bah de nos arguments et dans le domaine de l’intelligence
Artificielle qui est en fait celui qui nous intéresse le plus dans cette dans le cadre de cet exposé les études de la l’argumentation computationnelle se sont considérablement développé dans les dernières années et ca a donné en fait lieu à un ensemble assez costaud de littérature technique et scientifique et
L’intelligence artificielle peut aider à la prise de la décision en améliorant l’analyse des arguments l’analyse des données et aussi le raisonnement euh pour nous permettre justement de prendre des décisions de façons éclairées et informé donc c’est la touche différents domaines de la dans justement le traitement automatique des langues pour
Pouvoir extraire les arguments du texte et par la suite aussi l’ingénierie de la connaissance et les raisonnements pour pouvoir par la suite formaliser les informations et produire la meilleure délibération possible donc ici je vous propose quelques exemples d’application tels que le domaine médical par exemple les systèmes d’aide au diagnostic
Argumentés c’est-à-dire un fait que quand un médecin donne une diagnostique au patient il doit justement essayer de argumenter son choix expliquer pourquoi il est arrivé à une certaine conclusion par rapport à des autres options possibles dans le domaine juridique aussi les les les possibles décisions qui doivent être expliqué par rapport à
Certains lois aussi dans pour pour le grand public hein dans les plateformes de débat en ligne il y a plusieurs plateformes qui proposent des sujets sur lesquels les personnes peuvent exprimer leur propre opinion et aussi il y a des systèmes en ligne de résolution de conflit justement dans lequel étant
Donné une problématique bah on essaie de évaluer les différents arguments en faveur contre pour essayer justement d’arriver à une certaine décision donc dans le cadre de l’AR umentation computationnelle qui est justement celle sur laquelle nous travaillons et qui est au centre de de l’exposé d’aujourd’hui l’objectif est celui de concevoir des méthodes
Computationnelles donc informatique automatique pour d’abord extraire analyser résumer et générer des arguments en langage naturel provenant de différents contextes tout en sachant que quand on change de contexte on change aussi la langue c’est-à-dire que on peut avoir dans le domaine médical on nutilise pas forcément le même vocabulaire que dans le domaine
Politique dans les dans les forum dans les différents réseaux sociaux pareil on change toujours de la du niveau de langue ensuite fournir les explications interactives du résultat du processus de délibération c’est-à-dire une fois que la machine a pris une décision expliquer à l’interlocuteur pourquoi la machine a
Pris une certaine décision he sur en se basant sur quelles épreuves sur quelles évidences mais aussi la prise en compte du retour d’information de l’utilis ateur par le biaet d’explication argumentée en langage naturel donc avoir effectivement une interaction avec l’interlocuteur donc euh à partir de 2014 à peu près une nouvelle euh domain
Un nouveau domaine des recherches aîné dans le cadre du traitement automatique du langage naturel qui s’appelle fouille d’argument donc en anglais c’est argument mining ici la tâche est celle de analyser le discours au niveau pragmatique et appliquer des théories de l’argumentation plus formelles pour modéliser et analyser automatiquement les données disponibles c’est quoi
L’objectif bah l’objectif est celui de fournir des données structurés pour les modèles informatiques d’argumentation c’est-à-dire étant donné une argumentation en langage naturel comme celle qu’on produit chaque jour être capable de trouver des structures de définir quelles sont les prémisses hein quelles sont les épreuves définir la conclusion c’est-à-dire c’est quoi le message que
La personne veut donner quand il propose un argument donc essayer par la suite de trouver une structure de cette argumentation donc quelle prémisse soutient ou attaque une certaine conclusion et tout ça de façon automatique justement pour pouvoir passer à l’échelle de la quantité de données qu’on a à disposition donc pour
Pouvoir entraîner nos algorithmes on a besoin des grands ressources de texte en langue naturelle donc on peut avoir d’arguments générés par différents utilisateurs par différents plateformes dans différents domaines et on s’appuie sur les progrès du traitement automatique du langage et de l’apprentissage automatique et profond bah que vous avez déjà pu apprendre lors
De ce cours donc je vous donne d’abord une idée d’une architecture de euh système de fouille d’argument ça c’est l’architecture basique donc d’abord on prend un intit un texte hein un texte argumentatif ensuite on a une première phase dans laquelle on doit être capable de récupérer de détecter de façon
Automatique les composantes des arguments ici on va se restreindre aux prémisses et aux conclusions par la suite une fois qu’on a pu récupérer les arguments donc les les pardon les les composantes des arguments on veut savoir dans quelle relation ils se ils sont donc on va prédire par la suite dans une deuxième
Étape si deux arguments sont en relation de support ou d’attaque donc pour être plus précise on a plusieurs il y a été plusieurs approches pour pour se faire le premier approche pour aborder la tâche de la détection des composantes des arguments et celui d’une approche à un pipeline
Donc en fait d’abord on fait une première étape et par la suite une deuxième la première étape est celle de définir si étant donné un texte on a des parties de texte argumentatif et de faire la différence entre du texte qui est argumentatif par rapport au morceau
De texte qui ne le sont pas une fois identifiés les textes argumentatifs on on va procéder avec la class iication du composant est-ce qu’il s’agit d’une prémisse est-ce qu’il s’agit d’une conclusion et tout ça de façon complètement automatique on a part la suite des autres approches par exemple
Ce que nous on utilise de préférence qui par contre voent la détection des composant des arguments comme une étiquetage des séquences des mots hein comme on fait dans l’extraction d’information c’est-à-dire que à la place de faire une première distinction entre texte argumentatif ou pas et ensuite définir
Les composantes on le fait dans coup c’est-à-dire que on va classifier mot par mot dans notre texte en prédisant s’il s’agit d’une prémisse d’une conclusion ou d’un texte argumentatif comme si c’était en fait une classification à plusieurs classes mot à mot pour euh ce qui est Naé de la 2uxème
Étape il faut faire la différence entre la prédiction des relations au niveau plus général ou au niveau de l’argument donc ici d’abord on a une première euh tâche qui consiste dans la détection des relations au niveau général c’est-à-dire étant donné des arguments euh qui sont proposés par plusieurs personnes comprendre dans quelle
Relation ils sont moi j’ai un argument vous en avez un autre on essaie de voir si le mien il supporte le vôtre ou plutôt il y a une relation d’attaque mais en même temps à l’intérieur du même argument du même argument on peut avoir donc des conclusions ou différentses
Prémisses et il faut là aussi être capable de prédire s’il y a des relations de support ou de attaque entre les prémisses et les conclusions d’un même argument on prend l’ exemple comme ça ça sera encore plus simple de de comprendre donc on a un essai hein sur la thématique de étudier à
L’étranger est-ce que c’est une expérience positive ou négative donc la personne dans le cas écrit que vivre et étudier à l’étranger est une expérience irremplaçable pour apprendre à voler de ses propres ailes et cetera et cetera et donc dans un essai euh du type même scolaire ce qui se passe c’est qu’on
Essaie de donner des des évidences donc on a une conclusion hein on veut on veut proposer quelque chose et on explique pourquoi on est convaincu que cet argument-l c’est un argument valable donc en fait on donne des arguments en faveur de cet argument souvent on essaie
Aussi de trouver des critiques et par la suite de éliminer ces critiques avec des autres arguments qui permettent encore une fois de renforcer notre conclusion donc ici on a a la notre conclusion celle en bleu vivre et étudier à l’étranger est une expérience inrlaçable pour apprendre à voler de ses propres
Ailes et PE soutenir cette cette conclusion il y a une première prémisse cette personne apprendra à vivre sans dépendre d’autrui ensuite on essaie de trouver une sorte de petite critique hein à notre conclusion on dit oui mais la personne qui vit à l’étranger est bien sûr confrontée à la solitude car elle vit
Loin de sa famille et de ses amis donc cette prémisse attaque notre conclusion elle y trouve un point négatif mais par la suite je rebondis en ajoutant une autre prémisse qui dit bah ces difficultés s transformeront en expérience précieus dans les étapes suivantes de la vie donc en ajoutant
Cette prémisse qui va attaquer la deuxième l’autre prémisse ce qui se passe c’est que je vais renforcer encore plus ma conclusion donc euh ça c’est l’architecture de base comme je vous ai montrer mais de plus en plus on a des études qui sont qui qui visent à abord de façon automatique de
Tâche annexe à celle de la fouille d’arguments par exemple l’évaluation des différentes théories d’annotation des arguments avec l’exploration des relations par rapport aux relations linguistiques et discoursives l’intégration du sens commun et de la connaissance du domaine dans le modèles d’argumentation parce qu’en fait il y a
Beaucoup de context il y a beaucoup de connaissances du monde que chacun d’entre nous a et qui utilise dans son argumentation et qui va pas forcément rendre explicite par la suite l’évaluation de la qualité des arguments on se pose la question mais c’est quoi un bon argument un bon argument peut ne
Pas être le même selon les différentes contexte et par la suite aussi la recherche d’arguments sur le web l’analyse et le résumés d’opinion et la détection de la désinformation si on arrive à valider les arguments bah on arrive aussi à démasquer les arguments qui sont pas des arguments valables
Comme dans le cas par exemple des arguments fallacieux dont je parlerai plus tard et aussi bien sûr la génération automatique d’arguments et leur compos donc être capable de générer par exemple des contrearguments de façon automatique je passe maintenant à me focaliser sur en fait le l’exposé d’aujourd’hui qui était censé être sur
Justement sur les débats politiques donc l’argumentation dans le contexte politique a été étudié depuis l’Antiquité et continue de susciter des interrogations à cause de la complexité de la thématique donc comme le soulligne Aristote la théorique est étroitement l’argumentation théorique pardon est étroitement associé à l’éthique et à la
Politique bien que un principe elle soit indépendant du contexte et l’analyse des argumentations est particulièrement pertinente pour les formes d’argumentation dans les contextes politiques et bah dès nos jours les débats politiques les débats précédentiels constitue l’un des moments les plus marquants d’une campagne présidentielle au cous de laquelle en
Fait les candidats sont aminés à discuter des principales quion contemporaine et techni historique dans pays donc ces débats B on les utilise beaucoup pour faire de l’argumentation car en fait il représente un terrain naturel pour l’analyse argumentative et qui donc a été souvent utilisé pour étudier les structures mais aussi les
Stratégies du discours politique surtout dans les domaines de la philosophie et de la linguistique donc dans nos recherches nous relevons le défi de automatiser cette argumentation en réalisant justement une pipeline complète donc l’architecture que je vous ai montré tout à l’heure sur la fouille d’arguments dans le débat politique ce
C’est quoi le but bah le but c’est justement celui deêtre capable de extraire automatiquement les différents argumentaires des politiciens pouvoir construire une structure pouvoir l’analyser être capable de la comprendre de la confronter par exemple à des autres stratégie argumentaire des autres politiciens voir l’évolution dans dans l’histoire et cetera je vous montrerai
Tout à l’heure plus dans les détails les différents aspects donc euh nous il il y a eu plusieurs études dans le domaine des des études politiques euh de de la création des différents jeux de données pour pouvoir justement étudier à travers des méthodes automatiques les discoursolitiques alors
Euh il y en a eu certains qui sont qui se focalise sur sur sur la politique de certains pays comme en Angleterre ou au Canada nous on avait fait un travail préliminaire sur une partie des débats politiques et par la suite on s’est vraiment focalisé justement sur les débats politiques de la campagne
Américaine car les données sont disponibles principalement c’est la c’est la raison parce qu’en fait tous les données sont disponibles et mis à disposition par la commission du Parlement aux États-Unis donc qu’est-ce qu’on a fait bah pour pouvoir entraîner nos modèles et justement les tester par
La suite on a créé un jeu de données assez grand sur 40 44 débats politiques que on a récupérer avec leur transcription et par la suite à noter pour que justement on puisse apprendre à reconnaître les différentses composantes de l’argumentation mais aussi les relations donc on est parti de 1960
Jusqu’au débat le plus récent de 2020 donc juste pour vous montrer un échantillon de de de texte he de langage qu’on qu’on utilise on prend par exemple le débat de la partie de Nixon l’intervention de Nixon dans lequel la conclusion de son discours est que I faor the present delation allowance donc
En fait il est il est il soutient un certain une certaine réduction pour les sociétés du pétrole dans le dans le cas spécifique et après il explique donc en fait un gra vous pouvez voir les conclusions qu’on a ané et en italique vous pouvez voir en italique vous pouvez voir en
Fait euh les différents euh pourquoi ça fait ça donc les différents euh les différents prémisses pardon donc là par exemple il dit je le soutiens pas parce que je veux que les les sociétés pétrolières deviennent riches et cetera mais parce que je veux que euh i want to
Make America rich donc je veux que les États-Unis deviennent rich en et sur la droite en fait vous pouvez voir une structure argumentaire dans lesquel vous avez les trois prémisses et aussi la conclusion donc ici c’est la première phase dans laquelle on retrouve les composantes deagrom ation et par la
Suite on les met dans une structure dans lesquel on dit qu’on a trois prémisses qui soutiennent la conclusion donc bien sûr ici c’est un exemple simple dans la réalité on a plutôt des structures argumentaires de ce typel donc comme je le disais tout à l’heure on doit d’abord être capable de récupérer les
Différents les différentes structures à l’interre d’un d’un argument à l’intérieur d’un argument donc on a dans le l’intervention de kerie plusieurs prémisses qui soutient les concl conclusion par exemple la 2è et la première on a aussi des conclusions qui soutiennent des autres conclusions la structure argumentaire peut être assez
Complexe et par la suite on a l’intervention de de buouche et lui aussi bah il a sa structure argumentaire avec des interventions qui font référence aux conclusions par exemple du du précédent candidat donc pour annoter cette cette énorme quantité de données on a procédé comme il suit donc on a eu trois
Premières experts qui ont définis des lignes directrices pour l’annotation donc sachez que quand on a on fait des annotations qui sont après destinés à des algorithmes pour l’apprentissage on doit essayer d’être le plus carré possible dans nos décisions de fois on prend même des décisions un peu comment
Dire en tranche net sur certains aspects parce que si nos données ils sont trop euh incertain ben la machine aura du mal à comprendre ok donc il faut effectivement définir des lignes directrices assez simple assez carré pour l’annotation et par la suite en fait on a trois autres annotateurs qui
Vont permettre de qui on qui ont effectivement permis euh de faire d’accomplir la tâche d’annotation c’était trois étudiants au Canada donc chaque transcription euh chaque transcription a été annoté indépendamment par au moins deux annotateurs différents et ici vous avez vous pouvez voir que on a évalué aussi les accords entre annotateurs donc comme
Vous pouvez le voir ce n’est pas une tâche simple même pas pour les humains donc d’abord on a un accord entre le fait d’être capable de reconnaître une phrase argumentative ou une phrase non argumentative donc on a un accord qu’on dit être un accord modéré par la suite
On a un accord encore moins bon pour les prémisses et les conclusion parce que souvent c’est pas facile de dire c’est quoi une prémisse c’est quoi une conclusion souvent en fait une conclusion d’un argument devient une prémisse d’un autre argument par la suite voilà on a des accords assez similaires pour
L’identification de relations et aussi du du type de la relation euh une fois que on a calculé ces ces accords entre les annotateurs ce qui se passe c’est qu’en fait on aura une autre phase dans lequel on essaie de s’accorder sur la bonne annotation donc en fait c’est ça a
Été un travail assez conséquent qui a pris presque un an de travail des annotateurs justement pour se mettre d’accord sur les bonnes annotations et avoir quel un jeu de données qui soit bien cohérent bien consistant donc voilà ici vous pouvez voir quelques statistiques sur le jeu de données donc
On a à peu près 17000 presque 18000 conclusions 15000 prémisses sur les différentes années et voilà le nombre de relations de support et de attaque qu’on a donc 20000 relations de support et à peu près 3800 rellation de attaque euh ça c’est parce que souvent les politiciens ils aiment ils aiment bien
Bien en fait soutenir leurs conclusions hein avec plein de prémisses ils se ils attaquent souvent les euh les arguments des autres candidats mais ils attaquent forcément jamais pas trop les les leurs et donc en fait c’est c’est voilà pourquoi on a beaucoup plus de de support que de que de attaque par contre
Ce qui est intéressant de remarquer ici donc dans ce tableau on peut voir les annotations à l’intérieur de la même intervention donc intr speeech et inters speeech c’est plutôt entre deux annotations de deux pardon interventions donc deux candidats différents et ce que on peut voir ici c’est que donc comme
Vous pouvez le voir donc le même candidat il se soutient beaucoup donc en fait ils amènent beaucoup de prémisses beaucoup d’évidence pour supporter ses propres conclusions et par contre les attaques bien sûr ils sont plus fréquents entre un candidat et un autre candidat ok donc ici c’est juste en fait la
Distribution euh des de notre jeu de données dans les différents vous vous savez hein parce que aussi mes collègues on parlé de ça donc quand on euh exécute euh une tâche de ce type avec des euh des algorithmes d’apprentissage automatique on a besoin de garder une grosse partie de de notre
Des données pour faire de l’apprentissage donc la phase dans laquelle l’algorithme il apprend son propre modèle et par la suite on a une phase de qu’on appelle de validation dans lequel surtout dans les réseaux neurones on apprend des hyperparamètres donc on a juste un petit peu notre nos
Algorithmes et par la suite on a des jeux de données une partie souvent c’est le 10 20 % qui est garder vraiment dans le tiroir et sorti juste au moment de évaluer notre système pour être capable de dire bah ce système il marche bien et à quel point il marche bien donc voici
Notre architecture je rentrerai pas trop dans le détail donc la première tâche que on aborde de façon complètement automatique c’est celle justement de détecter et classifier les composantes donc comme je vous ai expliqué tout à l’heure donc étant donner un une une partie une phrase en fait de de l’un des candidats
On doit être capable mot à mot de dire s’il s’agit d’un mot qui fait partie d’une prémisse qui fait partie d’une conclusion ou en fait c’est du texte non argumentatif ok donc ça c’est notre tâche et comment on on le fait en fait bah on utilise des raisons neurones on a
Testé plusieurs euh plusieurs différentses configurations en choisissant des différents représentation des plangements de mots donc les différents types de edings selon les différents tests et aussi avec différents modèles de langage comme vous pouvez le voir ici euh que qui vous ont été expliqué aussi dans mes pollèges par
Mes collègues dans les autres dans les autres cours donc c’est des des des approches qui s’appuient sur des Transformers justement donc ici il faut faire juste attention à ne pas comparer euh la première ligne avec le reste c’est-à-dire en fait que dans la première ligne on exécute la tâche comme
Je viens de l’expliquer c’est-à-dire mot à mot on définit prémisse conclusion ou texte argum atif par contre dans les autres vous voyez step 1 et step 2 donc la première étape est celle de la classification binaire donc là on évalue seulement la performance du système dans la prédiction du texte argumentatif ou
Du texte non argumentatif OK et la dans la deuxème étape la classification binaire qu’on fera après c’est-à-dire une fois qu’on a trouvé le texte argumentatif être capable de dire s’il s’agit d’une prémisse ou d’une conclusion ok donc néanmoins notre premier modèle est celui qui a obtient les meilleurs résultats hein même si la
Tâche elle est abordée d’un coup euh et c’est voilà le modèle qu’on choisit pour notre architecture finale c’est-à-dire en fait si on veut être un petit peu approximatif on arrive effectivement à détecter pour le 80 % des cas si on a des prémisses on a des conclusions on a du texte non
Argumentatif donc par la suite dans la deuxème dans la deuxème table on arrive à on veut prédire les relations donc étant donné les composantes de nos arguments qu’on a extrait dans la première étape être capable de reconnaître leur structure être capable de savoir si elles vont supporter ou
Attaquer une un autre argument ou une autre conclusion une autre prémisse alors comme on a dans les discours politiques on a des textes qui sont très très longues on a du mal à récupérer les relations qui se retrouvent très très loin dans le texte ok donc comment on a
Découpé ça bah en fait dans les débats politiques télévisés qu’on a qu’on a utilisé souvent il y a un modérateur ou le présentateur en fait qui pose une question au candidats et les candidats bah il répondent donc en fait nous on va chercher les relations entre les arguments qui se retrouvent entre deux
Question du Modérateur ok donc il se peut que beaucoup plus loin dans le discours un des politiciens va revenir sur un sujet traité au tout début ben nous on sera pas capable de le détecter donc on reste en fait dans le dans le même sujet comment on le fait bah à nouveau avec
Des risonnes de neurones et en particulier cette fois-ci le modèle qui a qui obtient les meilleurs résultats est toujours un modèle euh basé sur les sur les Transformers cette fois-ci c’est Roberta donc c’est un petit peu différent de de Bert mais mais pas beaucoup c’est plus sur le sur la stratégie de masquage
Euh de de comment en fait les les mots ils sont ils sont représentés donc cette fois-ci la tâche elle est beaucoup plus difficile que dans le premier cas donc les meilleurs résultats on les obtient justement avec Roberta et ici pareil nous on exécute la tâche d’un coup c’est-à-dire à chaque fois étant donné
Deux euh étant donné deux composantes on va prédire s’il s’agit d’une déjà d’une relation et ensuite quelle est la relation est-ce que c’est une relation de support une relation d’attaque dans les autres cas que je vous montre là et c’est pour ça qu’on a un petit peu de
Résultats meilleurs mais quand on les met en pipeline en fait on a des résultats qui s’t pire donc ici on exécute les tâches une après l’autre d’abord si la une classification deux composantes elles sont liées ou pas et ensuite de quelle relation il s’agit ok mais là elles sont
Évaluées indépendamment et c’est pour ça qu’on a des résultats un peu meilleurs dès qu’on les met ensemble les résultats devienent inférieur au résultat de la première ligne donc jusqu’ici en fait ce qu’on a fait ça a été de justement définir récupérer extraire les composantes argumentaires et leur structure donc dans surtout dans le
Cadre des des débats politiques mais aussi en général en fait sur toute argumentation on se pose la question de évaluer la qualité des arguments ok c’est quoi un bon argument prenons cet exemple là si vous voulez connaître mon point de vue je pense que l’UE devrait autoriser les bateaux de sauvetage en
Méditerranée des nombreux réfugiés enchamp mourant s’il n’y a pas de bateau de sauvtage rien ne justifie de mettre en danger la vie des personnes innocentes alors est-ce que l’affirmation est claire est-ce que les prémisses sont-elles suffisantes pour dire que c’est une bonne argumentation est-ce que elles sont pertinentes pour
La discussion hein après ensuite on se pose des autres questions est-ce que l’argument est efficace pour persuader parce que au final c’est ça qu’on veut faire avec l’argumentation on ve on veut convaincre les autres personnes de la validité de nos arguments est-ce que c’est logiquement convaincante est-ce
Que il y a effectivement euh des des des raisons des des raisons valides h dans nos argumentations donc en fait ça de plus en plus intéressant de évaluer la qualité de l’argumentation de façon automatique euh on veut trouver les meilleurs arguments alors ça c’est une tâche assez difficile il y a maintenant
Quelques petits travaux qui essayent d’aborder cette thématique mais c’est vraiment très très difficile pour l’instant dans le cadre du discours politique par contre les études que nous on a fait concernent en particulier l’étude des arguments fallacieux donc est-ce qu’on peut dire que quand un argument a une qualité médiocre hein
Est-ce que on risque d’aller plutôt vers des des arguments fallacieux donc un raisonnement fallacieux est un raisonnement incorrecte qui a pourtant une apparence de validité logique et on fait la distinction entre deux types de raisonnement fallacieux les sophisme qui a une argumentation destiné à tromper autrui et le paralogisme qui a une
Erreur des raisonnements involontaires alors au vu de caractère persuisif et de des campagnes politiques euh souvent en fait les arguments fallacieux sont utilisés même de façon volontaire je dirais justement pour convaincre les personnes de la de la validité des des des des conclusions donc je prends quelques exemples ici
Donc là par exemple Nixon donc je voudrais rappeler au sénateur Kennedy des derniers 50 ans donc je voudrais lui demander de nommer un président républicain qui a amené la nation dans la dans la guerre il y a eu trois précédents démocratiques qui nous ont amené à faire de la guerre alors alors
Là il s’agit d’une d’une d’une d’une raisonnement fallacieux du type confusion entre corrélation et causalité c’est-àdire le fait que deux événements apparaissent au même temps ça veut pas dire que l’un est la cause de l’autre ok c’est ce qui en fait il laisse un petit peu entendre donc si je prends par exemple
Trump ici on a un autre type de attaque c’est l’attaque du type adominen donc il dit si si tu regardes Bill Clinton c’est encore pire donc les miennes ne sont que des mots les siens ont été actions en fait lui c’est ce qu’il a fait aux
Femmes donc là en fait il ne regarde même pas ce que l’autre personne dit il l’attaque directement ok ça aussi c’est on l’appelle un attaque de type Adin un autre type un cor par exemple c’est l’appel à l’émotion je prends cet exemple là euh donc je dis il a dit tu
Sais ne m’enlève pas tout mon espoir parce que mon espoir c’est ce qui me tient les politiciens ils utilisent beaucoup ça en fait surtout quand quelque chose de grave se se passe bah ils essayent justement de ramener les personnes à un état émotif dans lequel ils arrivent à mieux convaincre les
Personnes de de de ce que de ce qu’il produisent et donc dans ce cas-là bah on l’appelle justement l’appel à l’émotion donc il y a eu pas mal de travaux dernièrement dans le cadre du traitement automatique de la langue qui se sont justement intéressés à la détection automatique de sophisme euh surtout dans
Le cadre de la désinformation et la propagande pas forcément que de discours politiques hein il y en a un peu partout souvent nous aussi hein on fait ce genre d’erreur euh involontairement ou volontairement donc dans notre cas euh nous on s’est basé sur le jeu de
Données dont je vous ai parlé tout à l’heure et on a fait une nouvelle couche d’annotation un nouveau travail d’annotation dans lequel on a annoté toutes les différents arguments fallacieux à l’intérieur de notre jeu de données donc il y a plusieurs taxonomies des des des arguments fallacieux selon
Les différentes études moi je suis pas du tout une expert de de politique he on a pris des travaux qui existent en littérature et on a remarqué que dans nos débats on avait six types des sophismes principaux les attaques àinem les appels à l’émotion et l’appel dont
Je parlé tout à l’heure mais aussi l’appel à l’autorité c’est-à-dire que souvent on fait référence à une personne qui a une certaine autorité comme pour dire bah si cette personne làà l’a dit alors c’est vrai souvent en fait ce qui se passe c’est qu’on prend une personne
Personne qui est bien connue mais dans un autre contexte hein donc en fait là c’est un peu limite parce que si une personne est bien connue dans un domaine ça veut pas dire qu’il pourra dire quelque chose dans un autre domaine donc ensuite on a la pente savonneuse donc c’est-à-dire que on part
D’une prémisse on saute les passages intermédiaires et on dit que si cette chose s’avère alors une grosse conséquence va arriver h donc comme si c’était une avalanche ensuite confusion entre corrélation et causalité dont je parlais tout à l’heure et slogan B tout le monde sait ce que
C’est donc en fait c’est une phrase à effet qui qui qui permet aux gens de de vite comprendre de quoi on parle donc ici aussi hein ça nous a pris à nouveau un grand travail d’annotation avec la même stratégie que tout à l’heure donc ici en fait on peut voir
Donc dans on a choisi un échantillon pour calculer les accords entre les annotateurs et par la suite les annotateurs ont continué à faire leur propre annotation donc ici on en avait que quatre types dans les échantillons que qu’on a pris parce qu’on a pas forcément la même distribution des des
Arguments fallacieux dans les différentes techniques dans les différents discours politiques et on peut voir que en ayant défini des règles assez strictes on arrive à plutôt bien les reconnaître donc ici euh vous avez en fait la distribution des différents types de euh techniques hein de d’arguments de sophisme par rapport aux
Différentes années donc vous pouvez voir que selon la stratégie rhétorique et des discours de certains politiciens ils utilisent plus ou moins he certains stratégies ça c’est assez intéressant à remarquer euh donc là on a un autre représentation ici donc dans notre jeu des données on a beaucoup beaucoup de stratégies de app
To emotion donc en fait effectivement les personnes essayent vraiment de convaincre les personnes en s’appuyant voilà sur leurs émotions on a eu par exemple dans la campagne dans la dernière campagne beaucoup aussi de attaqu à hominem donc ils se sont vraiment beaucoup attaqués l’un l’autre sur des raisons qui n’avaient rien à
Voir avec leur discours politique mais pour des raisons personnelles par exemple donc ça c’est assez intéressant de voir comment ça ça a pu ça a pu varier euh là par exemple c’était un peu la période où on parlait de des guerres et cetera et donc c’est pour ça queil
Faisait beaucoup appel à l’émotion des personnes à l’état où il se’est retrouvait quand il y a eu la guerre et cetera donc ici euh c’est en fait une autre représentation qui nous permet justement de voir ce que je expliquis tout à l’heure donc vous voyez pour
Chaque campagne qu’on a eu au moins la partie qu’on a inclue dans notre débat politique bah queles étaient les stratégies qui étit les plus utilisé donc c’est là que on voit plus que voilà ils se sont beaucoup attaqués entre eux et aussi ont beaucoup utiliser aussi la
Stratégie euh des appil to emotion et en plus donc je vous rappelle que ces ces annotations ont été faites sur he elles s’appuient sur les autres annotations de prémisses et de conclusions par contre quand les annotateurs ont annoté leurs données ils avaient pas connaissance des composantes argumentaires ni de leur
Structure pour effectivement essayer de ne pas ajouter du billet dans leur annotation donc comment donc notre but est toujours hein de détecter ces arguments fallacieux de façon automatique ça c’est toujours notre compétence et notre notre but comment on voit ce cette problématique ben en fait on l’a défini comme une tâche de
Extraction d’argum d’information donc ici on a des morceaux textuels on veut être capable de identifier et de classifier les extraits des débats dans les six catégories que j’ai mentionnis tout à l’heure ici pour améliorer nos résultat on considère un peu plus de contexte en plus de la phrase un rouge
On prend la phrase précédente et la phrase suivante pour donner justement à l’algorithme un peu plus de contexte pour comprendre euh s’il y a ou pas un argument fallacieux on on utilise toujours les mêmes types de méthodes donc toujours des mêmes les mêmes réseau de neurones avec qui s’appuient
Justement sur des architectures à transformer et ici donc on a des approches assez standard il varient pour des type de masquage différents dans la représentation des données ou pour par exemple la la taille hein des modèles et nous on propose le dernier on a proposé le dernier modèle qui en fait euh injecte
Les des caractéristiques extraites de la structure argumentaire à l’intérieur de ce modèle donc en fait notre hypothèse est que la structure argumentaire va aider à reconnaître ce type de argumentation fallacieuse et donc en fait on ajoute en plus des composantes argumentatifes les relations et aussi les part of speech c’est-à-dire les
Fonctions grammaticales des mots parce que on s’est rendu compte que par exemple pour certains types d’arguments fallacieux par exemple euh le les arguments les appil to emotion et cetera on utilise beaucoup de ou par exemple même euh quand on veut exagérer les choses comme dans leslip et slop on
Utilise beaucoup d’adverbes par exemple parce que on veut encore plus charger le le de de sens nos mot ou par exemple dans les attaques ad hinem on s’est rendu compte que comme c’est des attaques personnelles on utilise beaucoup de pronoms pronoms personnels donc c très caractéristiqu là ça pouvait
Aider nos algorithmes à reconnaître bien euh les euh les différents arguments fallacieux donc ici on a notre notre architecture de notre système alors qu’est-ce qu’on fait ici c’est d’utiliser euh justement les approches transformerur Bert euh qui nous permet justement de calculer les poids pour chaque caractéristique en s’appuyant sur
Les composantes les relations et aussi les étiqu les étiquettes des parties des discours euh et par la suite bon ce qu’on propose c’est de calculer euh les poids hein des différents caractéristiques à l’intérieur de Ron neuron pour que ça soit optimisé et que l’algorithme puisse apprendre au mieux
Donc qu’est-ce qu’on fait en fait donc les caractéristiques argumenta et de parties du discours on les rajoute à la fin en extraant la partie donc la dernière couche cachée de notre réson neurone et on ajoute ces nouvelles caractéristiques pour avoir une représentation encore plus riche pour la classification et
C’est avec donc cette cette ce modèle ce modèle com propose on le propose comme modification du meilleur autre modèle qu’on avait testé qui est en fait celui-là donc BERD for token classification c’est-à-dire que en fait c’est une étiquetage par séquence on prend mot à mot et on dit bah cet
Argument là il fait partie d’un argument fallacieux et dequel aussi et justement on arrive à améliorer améliorer pardon encore un peu plus nos résultats grâce au caractéristiqu de type argumentaire et des part des des parties du discours on voit aussi que euh si on utilise les trois hein on obtient les meilleurs
Résultats plutôt que d’en ajouter seulement les composantes ou les relation et cetera donc on est assez satisfait des résultats ils sont pas distribués tous de la même façon selon les différents types de de de d’arguments fallacieux parce qu’il y en a certains qui sont plus faciles à reconnaître que des autres donc comme
Vous pouvez le voir ici par exemple les adominum et les sliper slop ils sont un peu plus simples à à récupérer à détecter par rapport aux autres autre ça c’est aussi parce qu’on en a beaucoup on en a pas mal hein quand même donc support c’est ça ve dire en fait le
Nombre de de arguments faux de ce type là qu’on a dans notre jeu de données donc on en a quand même assez et on arrive bien à la détecter par contre par exemple les slogans on en a très peu et ils sont difficilement prévisibles donc
On arrive on a du mal à les à les reconnaître si on regarde la matrice de confusion donc comme d’habitude donc la diagonale c’est ce qu’on devrait obtenir donc ce qu’on arrive à mieux reconnaître donc ici ce qu’on voit c’est que on a un peu du mal à classer certains à
Reconnaître en fait certains arguments fallacieux donc ce qui se passe c’est que notre algorithme il va souvent les définir comme other c’est-à-dire argument qui n’est pas qui n’est pas fallacieux en fait il arrive pas à les reconnaître c’est pour ça qu’on a des jaunes un peu plus foncés hein dans la
Dans la ligne que j’ai mis en évidence et pour le cas spécifique par exemple c’est les types app to emotion et false Cuse c’est ce qu’on arrive à moins reconnaître en tant que argument fallacieux donc je vous montre euh maintenant euh une petite démonstration d’un système qu’on a développé et qui
Permet de mettre ensemble euh toutes les différentes parties les différents algorithmes qu’on a développé là avec une interface qui est facile donc voilà donc l’outil s’appelle disputol il a été développé aussi en collaboration avec l’Université du Luxembourg donc ce que vous pouvez voir ici c’est que on a les différents euh
Les différents débats politiques donc on peut choisir celui qu’on souhaite et on peut voir justement les différentes transcriptions de ce de ce débat et aussi les annotations en tant que voilà vous le voyez ici en tant que composante d’argumentation la date la personne qui a euh qui a qui a fait
L’intervention donc par la suite on peut choisir de lancer nos algorithmes donc on a la possibilité de choisir justement claims prises donc les conclusions les prémisses mais aussi de trouver détecter de façon automatique les arguments fallacieux donc là vous pouvez le voir donc la personne à noir c’est soit
Le modérateur soit la person le journaliste donc voilà ici c’est pour les arguments qui sont fallacieux donc par la suite on peut déclincher les algorithmes qui reconnaissent les prémisses et les conclusions donc là on les a un bleu et un vert voilà sur les différents discours et par la suite la deuxème
Étape la deuxième tâche c’est celle de reconnaître les structures de notre de nos de nos discussions donc là en fait on a la même discussion hein le même débat et ici on peut voir donc un vert on a les prémisses un bleu on a les différentes conclusions et après un
Rouge on a les attaques et un verre on a les relations de support ok donc là vous pouvez voir alors souvent on a des structures plus complexes souvent c’est moins complexe ça dépend vraiment des vraiment de débats et si on passe la souris dessus on peut effectivement
Reconnaître re voir la phrase qui avait été mentionnée et qui a été annotée donc comme ça ça nous permet effectivement de comprendre si on a des bonnes relations ou pas donc là par exemple voilà on a Trump qui dit je pense que c’est malheureux et après on en a il supporte une autre
Argument qui dit en fait oui une chose pire ne pouvait pas arriver ou quelque chose comme ça donc là c’est le débat en qu’on peut qu’on peut visualiser donc par la suite on peut aussi explorer hein les sujet dont on parle donc on a des filtres en bas qui nous permettent de
Choisir les années les différents entités nommées donc les différents sujets des discussions et aussi les candidats et avec les filtres en fait on peut voir dans le nuage de mot quels ont été les thématiques qui ont été les plus par exemple débattu dans les différents débats politiques hein on peut croiser
Différentes années croiser différents candidats croiser différents sujets auxquels on est le plus intéressé donc vous voyez quand on parle de Kennedy il y a beaucoup les communistes il y a beaucoup Castro Cuba et cetera c’était un peu les années on en parlit beaucoup plus donc ça dépend ça peut les sujets
Peuvent vraiment beaucoup varier selon les différents années donc on a d’abord une représentation à nuage de mots après on a une représentation du type bubble donc c’est ça représente toujours les même thématique et on a aussi des autres représentations qui nous permettent justement de voir pour chaque précédent pour le coup
Quelles étaient les thématiques que la personne a abordé en prévalence des préférences donc voilà on peut les voir indépendamment mais en fait on peut mettre ensemble plusieurs candidats pour voir si effectivement ils ont traité les mêmes sujets ou pas et bien sûr on peut mettre tout le monde ensemble et voir pouvoir justement
Comparer donc on a différents types de représentation vous la la la démo elle est en ligne vous pouvez la tester si si cela vous intéresse donc on a aussi cet autre type de représentation dans laquelle en fait on voit comment les différentes discussions on ont évolué par rapport aux années donc certaines
Thématiques ont été beaucoup traité pendant certaines années et beaucoup moins pendant des autres années donc avec ce type voilà le plus euh la zone elle est grande le plus ça veut dire qu’on a bien traité cette C ces sujet là dans dans une certaine période voilà donc pareil on peut
Toujours avoir ces ce types de graphique en choisissant hein les les années les candidats et cetera donc c’est différents types de représentation de interaction en machine et ça on peut l’avoir aussi pour les pour les arguments fallacieux qui sont calculés automatiquement hop donc là vous pouvez voir pareil hein selon les
Différents candidats quel euh quel le raisonnement de type fallacieux ils ont utilisé un prévalence ou quelle stratégie de communication tout simplement voilà on peut choisir avec les filtres hein quel type de de stratégie on veut on veut regarder quels sont les candidats quelles sont les années parce que même les discours
Ils évolu la la la str stratégie politique des discussions des communications ils ont évolué ils ont changé pendant les années donc effectivement on peut voir comment cela euh varie et donc par la suite on peut tout simplement ajouter nous-même nos propres euh documents si on veut avoir une
Analyse à la volée hein automatique par nos systèmes donc on rentre là-dedans nos nos textes et par la suite on lance le système donc ça prend un petit peu donc on na pas triché sur le temps avec la démo donc ça ça tourne un petit peu
Euh les deux euh pardon pour le coup les trois systèmes sont lancés donc composantes composantes structure et aussi les arguments fallacieux si on est intéressé et pour le coup voilà on peut les visualiser on peut visualiser leur structure comme je vous ai montré tout à l’heure sur des sur des débats qui étaient
Fixes et je pense que c’est tout pour la démo voilà donc je reviens maintenant à la présentation donc bien sûr euh je vous ai montré qu’on arrive à à à récupérer he certaines choses les composantes la structure et cetera bien sûr c’est pas parfait on n pas fini nos études il y a
Pas mal des des défis qui sont encore qui sont encore là qu’il faut encore aborder par exemple tout ce qui est affirmation implicite he on a commencé à travailler mais c’est fort difficile donc en dehors de certains sujets qui sont vraiment mis à l’avance de façon explicite il y a beaucoup beaucoup
D’implicite dans les discours politiques et on a besoin de trouver une façon de l’expliciter pour pouvoir justement récupérer ces informations et pouvoir faire du raisonnement dessus euh en plus on perd aussi tout ce qui est indice visuel hein donc le retour du du du public le TS qui a utilisé et cetera il
Y a quelques jeux de données sur ça parce qu’en fait on se rend compte que important de la réaction du public après les politiciens ou tout Simp simplement la personne qui fait de discours bah il change un petit peu de stratégie s’il voit que la réaction du public n’est pas celle qui est
Souhaitée donc dans le cadre d’un projet européen on va continuer ces travaux-là le projet horbis ici le cadre sort un petit peu de la politique au sens des campagnes électorales mais en fait c’est plus pour pousser vers la démocratie donc essayer justement de prendre en considération euh tout argument des
Personnes par rapport à certains sujets pour arriver à une e collaborative donc on vient de commencer ce projet dans lequel justement nous on va utiliser les algorithmes dont je vous ai parlé pour fouiller dans les discussions des citoyens et pour justement essayer de récupérer le plus possible d’information
Pour que par la suite les étudiants en sciences politiques et les politologues puissent prendre leurs décision informé éclairé aussi par rapport au souhaits des citoyens donc avant de conclure mais je vais passer assez rapidement je voulais vous mon montrer aussi des autres scénarios possibles hein donc nous on travaille beaucoup justement sur la
Fille d’argument mais on ne l’applique pas que au discours politique on a aussi pas mal de projets dans le domaine médical ici bien sûr le le langage est différent euh on a je je peux vous montrer tout simplement donc ici par exemple dans le cas des essais cliniques
On a un langage qui est fort technique le type d’argumentation est beaucoup plus explicite beaucoup plus clair donc on change un peu des stratégies mais on peut appliquer tout de moins les mêmes néanmoins les mêmes les mêmes techniques d’extraction d’arguments d’extraction de structure argumentaes euh pour justement pouvoir bien comparer
Les études entre eux et cetera et fournir par exemple au médecin euh surtout dans le cadre de la médecine fondé par les épreves sur les épreuves hein donc les informations dont il pourrait avoir besoin pour prendre des décisions qui sont informées éclairées donc ici aussi on a proposé une
Architecture qui est assez similaire à celle précédente avec des spécificités pour la médecine je rentrerai pas trop dedans et euh sur ça aussi ce qu’on essaie de faire par la suite c’est euh de proposer aussi des explications des décisions prises par la machine par rapport à certains diagnostics qui ont
Été euh qui ont été proposés étant donné un cas clinique alors celui-ci n’a pas absolument euh le l’objectif de se substituer au médecin ici il est fait dans le cadre d’une collaboration avec l’hôpital universitaire le CHU de Nice pour euh générer de façon automatique les quiz aux examens médicals parce
Qu’en fait les jeunes docteurs ils doivent apprendre à expliquer hein comment ils sont arrivés une certaine diagnostique et cetera et cetera donc là aussi on a une démo en ligne qui nous montre les structures argumentaires et cetera mais dans le contexte du donné médical donc pour
Conclure donc je vous ai parlé de de l’argumentation computationnelle je vous ai présenté trois contributions scientifiques donc la première consiste e dans l’extraction de des composantes d’argumentation la reconstruction de la structure argumentaire de débat et aussi la détection des arguments fallacieux donc c’est quoi l’impact de nos travaux dans ce contexte bah ils
Permettent de fournir une analyse approfondie du discours politique par les Billis d’approche automatique qui peuvent être destiné aux spécialistes du domaine donc aux historiens politologues chercheurs en Scien social aux journalistes mais aussi au grand public donc surtout dans le cadre voilà de la démocratie participative donc en terme de
Perspective par rapport à nos travaux donc je vous ai montré tout à l’heure tout un tas de tâches annexes et nous en tant que équipe on travaille spécialement dans tout ce qui est l’intégration du sens commun de la connaissance euh de dans ce modèle ce qui est pas facile parce qu’il faut
Justement essayer de euh rendre explicite tout un tas de connaissances hein qui sont actuellement implicites l’évaluation de la qualité des arguments dans les différents contextes mais aussi la génération automatique en particulier des contre-arguments hein donc euh et de leur composantes donc euh les perspectives à plus au plus large en
Fait sont de concevoir des technologies de débat pour des systèmes avancés à l’aide de la décision donc l’idée c’est d’avoir une nouvelle génération de systèmes de recommandation qui interagissent avec les humains de façon plus sophistiquée et pertinent dans différents domaines tels que justement la politique la santé l’éducation et
Donc pour pour conclure hein je essayer de générer euh une un débat euh dans le futur hein donc à l’aide des systèmes avancés euh à la décision avec mid journey qui a une intelligence artificielle générative pour les images et ben voilà ce qu’il me donne donc c’est à suivre donc merci beaucoup pour
Pour votre [Applaudissements] [Musique] attention