Découvrez les bases de l’Intelligence Artificielle Générative avec Quentin Auger, Directeur de l’Innovation chez Dada ! Animation et visionnaire, dans cette conférence inédite proposée par Rubika.
Enregistrée le 31 janvier 2024, cette session de 30 minutes sert d’introduction parfaite à l’IA Générative, ses principes, et son potentiel transformateur dans les domaines de l’animation, du jeu vidéo et du design.
Avec son parcours dans des studios de renom en Europe et aux États-Unis, Quentin partage ses connaissances et perspectives sur l’impact de ces technologies émergentes.
Cette conférence est une occasion unique pour les étudiants et les professionnels créatifs de comprendre comment l’IA Générative peut enrichir leur travail et ouvrir de nouvelles avenues d’innovation.
Si vous êtes fascinés par le pouvoir de l’IA dans les industries créatives et souhaitez faire partie de la prochaine génération de talents chez Rubika, visitez https://rubika-edu.com/ pour découvrir nos programmes et commencer votre voyage avec nous.
Dia générative parce que c’est un petit peu les la nouveauté de l’intelligence artificielle il y en a depuis pas mal de temps le la nouveauté depuis quelques années c’est di génératif qui permet de d’être un petit peu créatif et c’est quelque chose qu’on organise entre rubica et d d’animation mais je vais je
Vais commenc ça à me présenter et déjà alors voà ça va ça va ça va marcher mieux comme ça euh et ce n’est qu’une session parmi plusieurs autres dans lequel euh on va revenir sur des des problématiques plus précises entre autres les défis éthiques qu’il y a écologiques sociétaux les cas
Des cas d’usage l’impact sur les métiers et puis et puis même des événements autour desquels on on réagit à tout ça et on y réfléchit parce que en fait tout le monde dans ce moment sur un planète qui réfléchit et je vous enarlerai un petit peu
Plus un peu plus tard sur sur des des groupes de travail sur lesquels on vous pouvez venir réfléchir avec nous alors déjà je comm ça continue à me présenter je m’appelle Quentin Auger euh je suis euh euh dans le métier de l’animation et des des effets spéciaux depuis 25 et
Quelques années euh sur différents continents et j’ai cofondé il y a 4 ans maintenant une société un studio d’animation 3D qui s’appelle d animation et pour lequel moi je suis Directeur de l’innovation je fais énormément de de veilles techniques que je partage ce qui m’amène en fait à être invité à en
Parler quelquefois dans des des newsletters de d’institution un petit peu du métier donc genre de de bilan de l’année en l’occurrence là c’était l’été dernier sur les génératifes parce que c’est vraiment le sujet du du M qui forcément me m’interpelle comme comme plein de gens et par ailleurs on est
Avec Dada en train de développer de la recherche en fait avec des laboratoires dans lequel il y a de Lia et pas forcément génératif et on va voir la la différence qui seront des outils d’animation je reviendrai très vite après et puis ben par la même j’intervient dans pas mal de
D’événements dont le radiraf dernièrement euh pour lequel j’ai fait une k d’ouverture sur le duquel d’ailleurs je vais quter sur les génératives et duquel je vais reprendre quelques éléments aujourd’hui et à la fin duquel d’ailleurs je présentais ce collectif un peu de réflexion interstructurelle avec des écoles des
Labos des des sociétés créative machine donc je parlerai à toute fin d’ d’animation très rapidement s studio d’animation euh voilà don don vous pouvez pouvez voir pas mal de de production assez coloré et surtout très varié pour lesquels on essaie de mettre en face de chaque projet vraiment la
Bonne technologie c’est pour ça que je fais beaucoup de veille et on essaie d’ouvrir l’animation même à des des domaines qui pour lequel c’est compliqué quelquefois donc le documentaire la recherche l’éducation et cetera et et voilà donc ça s’inscrit comme ça d’ailleurs on a on utilise assez peu d’
Générative globalement pour du texte du code et on se l’interdit quasiment pour l’image et on va voir un petit peu pourquoi pourquoi plus tard déjà quand on parle d’ de quoi on parle l’intelligence artificielle donc il a c’est c’est un champ en fait de des recherches et de et des sciences de
L’informatique qui a commencé dès les années 50 et qui cherchait à finalement à reconstituer euh le le cerveau le fonctionnement du cerveau humain donc à simuler des des fonctionnement cognitif euh par la même euh c’est ça a commencé par ce qu’on appelle de Lia symbolique c’est-à-dire vraiment la la conceptualisation des
Raisonnements euh on on on utilise tous les jours les fruits en particulier tous ceux qui codent et qui utilisent des langages orientés objets comme le python le C++ ben ça c’est tiré des des travaux sur sur lia d symbolique qui a eu son heure de gloire au début dans les années
50 60 70 et qui a vécu une sorte d’ivers parce que ça voilà d’autres choses l’ remplacé dans les années 80 90 et en ce moment parce que c’est remplacé par par un autre type d’IA donc les premiers algorithmes et concept sont né sont sont né et long temps ce nouveau type dia
C’est le dia connexionniste qui s’intéresse pas non pas vraiment au concept que génère le cerveau mais à plutôt à la à comment est construit un cerveau et qu’est-ce que ça fait émerger comme comme capacité donc en l’occurrence euh l’ connexionnisme connecte entre des neurones informatiques c’est des des petits des
Microprogrammes qui transmettent euh des des informations ou pas ou avec un certain poids et en en les multipliant et en les stimulant on voit si ça fait quelque chose donc ça donnait lieu à ce qu’on appelle des réseaux de neurones récursifs les les RNN au début qui ont
Ouvert la voix à à un type de d’ qui est le machine learning parce qu’en fait ces réseau là quand on les stimule euh il on quelque part il ils s’adapte et il crée finalement des sortes de eux-mêmes ils génèent des programmes qui euh qui sont spécialisés dans certaines choses par
Exemple quand vous quand vous envoyez des courrier ça arrive encore à certains quand vous en recevez les lettres sont sont scannées et vos l’écriture est est détectée par des as de ce type là voilà les réseaux de neurones ils ont bien évolué on les a empilé euh c’est devenu
Ce qu’on appelle des réseaux profond parce qu’en fait il y a plusieurs couches tout simplement euh donc les deep neural network et ça fait avancer les mathématiques autour du du de l’apprentissage et ça même ouvert carrément une sous-spécialisation qui est le Deep learning dès qu’il y a
Deep c’est parce qu’il a des réseaux de neuron profond les deep mind et cetera c’est tout ça c’est c’est du du DNN et ça a commencé dans les années 90 sauf que ça fait avec les moyens de l’époque les mathématiques derrière étaient assez simple à produire par contre il fallait
D’énormes puissance de calcul donc c’était limité avec les moyens de l’époque et puis il fallait énormément de données pour être un un petit peu pertinent les données qui avait de numérisé en ligne c’était celle des années 2000 c’était le début du web le web le Web 1.0 donc c’est c’est là que
Le l’ya connexionniste a connu son premier hiver au début des années 2000 voilà eTTH et par contraste l’ya symbolique a avancé les systèmes experts sont est et cetera sauf que le web a évolué et les machines ont évolué et les mathématiques ont un petit peu évolué en
Tout cas dans les années 2000 entre autres en 2014 il y a eu plein de enfin en 2000 ouais les années 2010 plutôt il y a eu plein d’avancées euh et puis des choses qui sont venu d’ d’autres domaines par exemple la diffusion le phénomène de diffusion est
Venue des des thermodynamiques c’est le fait de d’étudier la dégradation d’un signal et qu’on peut jouer à l’envers parce qu’on fait bien ce qu’on veut en informatique et donc donc on va voir ce que ça a donnit vous avez entendu parler de stable diffusion de disco diffusion peut-être enfin des des modèles de
Diffusion en fait c’est le fait de jouer à l’envers la dégradation d’un système donc de partir d’un bruit et puis de générer quelque chose de d’ordonner par exemple une image ou un son ou un texte et cetera et la nouveauté dans ces années-là c’est qu’en fait le web a
Évolué et que nous-même les humains générions parf en en foison euh par milliards des des images an Notter des textes euh qu’on qu’on associe à des likes ou des ou enfin plein de signaux qu’on voilà donc des de de la donnée numérique qui avait du sens qui a été scrappé c’est récupéré par
Plein de chercheurs et euh et enfin avec l’évolution des des GPU des cartes graphiques qui sont en fait les meilleurs les meilleurs matériels pour euh pour faire du Deep learning euh on a fait des grosses avancées donc la la diffusion a été intégrée euh en 2017 il
Y a un papier qui est sorti et une et a un nouveau concept qui est celui de Transformers qui permettait alors je suis pas data scientiste donc je vais pas vous expliquer dans le détail ce que c’est mais c’est le le Transformers commence par un T et c’est le T qu’il y
A dans GPT qui ne vousit pas étranger et ça a permis en fait la création des larges modèles de langage les llms comme chat GPT comme Mistral comme Lama et cetera dans lequel en fait l’approche et c’est important de l’avoir en tête toujours c’est que après analyse de milliards de textes
Ces systèmesl d’apprentissage en fait savait générer et on a on a vu arriver donc il y a génératif ça fait générer de nouveaux textes ou de nouvelles images et cetera euh tout simplement avec une approche probabiliste c’est-à-dire que quand vous dialoguez avec Bing ou ou chat GPT ou autre euh d’abord ce n’est
Pas un dialogue en fait c’est un long texte qui continue euh et c’est jusqu’à un moment c’est vous qui continuez et à d’autres moments c’est le c’est le LLM qui continue et le LLM il continue de manière probabiliste il met un mot l’un après l’autre en se disant ben j’ai plus
De chance vu ce qui s’est passé avant vu les tests que j’ai auquel je compare tout ça j’ai plus de chance de mettre cette syllabe là ensuite ce mot-là ensuite cette syllab là et c’est comme ça que ça avance et que c’est pour ça que ça donne des choses un peu bizarres
Par moment en fait ça affabule en permanence les les génératives de temps en temps on aime bien donc on trouve que ça marche bien et puis quelque fois on n’ime pas donc on dit que ça hallucine mais en fait ça a fabule en permanence de deevenir probabilisee comme ça c’est
Important de l’avoir de l’avoir en tête un peu plus tard dans les années 2020 il y a le concept c’est Google qui a sorti ça Google a fait avancer beaucoup de choses d’ailleurs le transformer je crois c’est de chez eux le concept de clip qui est en fait associé du texte
Aux images et et alors ben voilà comme le texte devenait générable de manière assez pertinente et qu’on pouvait générer des images par diffusion B on associé les deux et ça a donner plein de nouvelles choses des m journées des stabil diffusion du des nouvelles boîtes comme
P et cetera et on en est aujourd’hui à à la situation présente qui est li à symbolique euh pouvait rendre des résultats explicables mais pouvait pas faire d’apprentissage et il à connexniste a réussi à faire des choses nouvelle euh semble même raisonner mais en fait vous avez compris que ce n’est pas du
Raisonnement c’est juste des probabilités de bah ça doit se passer comme ça donc on avance et donc c’est pas explicable ce qui se passe en revanche on peut elle peut apprendre prendre des choses il y a génératif pour l’instant et connexionnistes mais on pourrait imaginer que plus tard il y a
Il y a d’ailleurs il y a plein de travaux dans ce sens il y a hybride qui arrive dans lequel on peut on peut expliquer la génération et cetera donc à droite j’ai mis juste un petit exemple de de diffusion mais joué à l’envers l’apparition d’un d’un personnage qui
Est en fait quelqu’un qui a été c’est c’est un des son nom méchappe sur le moment mais c’est un des parins comme il est dit quelquefois de de liya qui a travaillé chez Google longtemps qu’on a dimissionné il y a pas très longtemps parce qu’il est effrayé par tout ce
Qu’il a vu donc voilà c’est ce monde dans lequel on arrive et ce qui se passe derrière c’est l’association du ce que ce qu’on appelle maintenant des promptes c’est du texte qui permet de générer une action un modèle avec une image un système de diffusion d’images et c’est
Le système clip qui qui permet tout ça donc voilà long story short les choses ont évolué de manière exponentielle depuis mid journée pour ne citer que lui alors je vais faire tout de suite un disclaimer je vais citer pas mal d’outils qui ont plein de problématiques juridiques et éthiqu M journée comme St
D’ailleurs c’est basé sur stable diffusion tout comme les outils d’OP a et donc de Microsoft parce que ce sont les leurs euh subissent beaucoup de procès on va faire des sessions spéciales sur le juridique et l’éthique mais je suis obligé d’en parler dès maintenant donc c’est pas parce que je vous présente des
Choses ici que que c’est génial et même si les images sont impressionnantes et que ce n’est pas utiliser sans sans précaution mais ici je je vouis juste se montrer que mid journée a évolué extrêmement vite en fait comme tous les systèmes et d’ailleurs il y a vraiment
Exponentialité de de de plein plein de de plein d’avancé euh chacune nourrissant les autres euh d’ailleurs il y a même des études qui qui prouvent que c’est exponentiel donc si vous vous sentez un peu perdu par les les nouveautés c’est c’est normal euh voilà et c’est pour ça qu’ je penseon fait
Aussi cette session euh c’était la volonté je pense de rubica de de voilà de de former un petit peu de nourrir le regard d’ouvrir les chakras comme on dit petit à petit par des gens qui font ça un petit peu toute la journée comme c’est un peu mon cas voilà je vais
Commencer par l’application maintenant dans nos métiers dans nos métiers on code pas mal et donc on peut maintenant d’ailleurs donner à chat GPT ou donc à Bing vous savez que derrière Bing en mode créatif donc est accessible gratuitement sur ou ça s’appelle copilote maintenant çaarrête pas de
Changer de nom là aussi euh c’est en fait gpt4 donc c’est ce qui a c’est le LLM le plus puissant mais il y en a d’autres comme mistral qui sont Open Source français et et gratuit euh mais moins interfacé on peut donc à gpt4 ING donner
De l’image et lui dire avec cette image fait ceci par exemple la démo qui avait eu lieu il y a un an c’était un petit crar et puis chat GPT avait fait un site web et maintenant en fait sur en ligne vous pouvez voilà la fin de l’année
Dernière il y avait plein de petits outils comme ça comme screenshot code dans lequel uplo une image et ça génère un site web qui correspond à l’image et même les images sont gérées automatiquement par D qui est le générateur d’image de on va dire d’OP
Euh voilà voilà donc il y a plein de choses pour générer du code lié à du texte plutôt lié à nos métiers saga c’est un outil en ligne qui permet de générer de vous aider à écrire écrire du des script des scénarios et qui va jusqu’à la génération d’un storyboard
Assez basique on sait que Blue Spirit une société française a développé ses propres outils internes pour faire en gros ça et en plus rajouter de la budgétisation et cetera je rappelle attention que les LLM a fabu en permanence et même ils sont maintenant intégrés dans des systèmes de recherche
Dans le Bing par exemple ça vous fait de la recherche sur Internet et malgré cela ça a fabu en permanence j’ai fait le test avec d’ailleurs une recherche sur D d’animation l’autre jour ça a bien cité les descriptifs de la société par contre les productions sur lesquelles avait travaillé c’était n’importe quoi et
Pourtant en citant des liens vers notre site Web donc voilà méfiez-vous ces nouveaux systèmes ils sont voilà il faut il faut maîtriser ce qu’on en retire pour plein d’autres raisons et est-ce qu’on en retire est-ce qu’on y upload aussi parce que ça peut partir là Samsung on a payé les frais euh voilà
Mais on fera une session spéciale là-dessus du côté de l’Image vous avez sans doute vu passer des des choses plein de choses tous les tous les jours il y a des choses les les les grosses sociétés s’en sont plus ou moins aré en l’occurrence là c’est Marvel studio méthode studio en fait
Pour Marvel avait fait un générique avec générative on connaît la touche un petit peu bizarre bizarï stable diffusion qui porte très mal son nom parce que ça fait des images pas stable on en parlera plus plus tard euh ça ça a cré créé on peut
Dire une levée de bois vert parce qu’ en fait derrière ces outils là il y a l’utilisation sans doute de données copyrighté pour lequel les artistes n’ont pas été forcément d’accord même pas mis au courant d’ailleurs et donc voir qu’on les utilise pour des des projets comme ça qui rapportent autant
De millions et qu’ y a pas de droits qui ont été géré derrière bah c’est c’est une des grosses problématiques on ça que c’est pas ça ça ça pose des gros problèmes éthiques et en ce moment même même juridique de l’autre côté du spectre où c’est beaucoup plus SF il y a
Une entreprise française s’appelle McGuff mcgfling ils ont un outil qui s’appelle fast Engine qui fait du Deep fake de qualité broadcast et pour lequel eux ils ont DISY clearer les droits donc ils ont vraiment toutes les images qu’ils utilisent pour l’entraînement et pour le la finalité sont sont safe d’un
Point de vue juridique et donc éthique euh et et entre les deux vous avez aussi Netflix qui avait fait faire une un film d’animation vous a peut-être entendu parler dans lequel tous les décors il se vantaient de d’avoir fait faire tous les C paria et ben c’est pareil ça ça a pas
Été bien reçu par la communauté comme vous pouvez l’imaginer voilà euh pour ce qui est de rentrer dans la détail vous avez sans vous connaissez sans doute Corridor Digital ce sont des des artistes ultra ultra talenteux qui testent toutes les nouvelles techno donc ils ont testé il y a quelques mois déjà
Stable diffusion et et qu’on sort pour faire un petit film d’animation et ça avait mis en évidence malgré leur talent il Ctait interdit de dessiner les deux problèmes typiques de l’image animée c’est qu’elle est trop animée elle est pas stle du tout voyez les yeux bougent beaucoup donc comme C interdit de
Dessiner de stabiliser pourtant ils avaient utilisé des des systèmes de de de de compositing mais ça n ça pas résolu tout et puis l’hallucination c’estàdire le moment où probabilistiquement la l’image se transforme comme C ou comme ça et puis il y a des moments ça n plaît pas du
Tout par exemple une main se transforme en en pied et c’est pas c’est pas top cela dit ça va très vite ça avance très vite les stabilité c’est le sujet de plein plein de de nouveaux algorithmes et la petite image vous avez vu bouger là montre que ça s’améliore mais il y en
A plein d’autres et tout en bas à droite là c’est en Renou la société qui avait créé sa B diffusion au départ qui vous montre qu’en 2 3 ans on est passé d’images fixes à des images animées un peu bizarres et maintenant en en an des images de qualité quasiment podcast
Reste le problème du contrôle qu’on a dessus et puis tout le monde tout le monde sort son système de Tex to vidéo là c’est Méa quelques semaines après c’était palabs qui sort un truc avec des images incroyables mais est-ce qu’on a vraiment le contrôle sur tout euh voilà et
Surtout ils nous font une démo mais on a toujours pas la main sur les les outils euh et puis il y a quelques jours Google a sorti lumière qui est un outil où on peut faire euh on peut décrire des choses et euh et ça nous fait des très belles images mais
Là aussi quel est le contrôle comment des des professionnels peuvent prendre s main parce que les professionnels je vous rappelle qu’ils sont responsables de ce qu’ livrent et euh ils doivent savoir retoucher quand il faut euh il y a plusieurs pistes à ça il y a d’abord
La piste de du du GAN c’est-à-dire du du fait de se baser sur justement la base de données pour dire ben j’aurais aimé que tu t’inspires plutôt d’images qui sont comme c comme ça alors ça cette indication peut être donné en bougeant des des points clés dans l’image alors
Ça c’est c’est de la recherche c’est pas très très utilisable pour nous pour l’instant en revance ce qui est utilisable c’est ce qui bouge à droite c’est dans cascadeur c’est un outil qui d’aide à l’animation dans lequel l’IDE aide au positionnement vous voyez il y a
Pas de rig vraiment il y a juste ben j’aimerais bouger à la main vous voyez il va bouger par exemple l’épaule ça va bouger en fait tout le bassin parce qu’en fait ça s’inspire statistiquement de de millions de puses qui ont été analysé on sait que quand on bouge
L’épaule gauche ben l’épaule droite bouge aussi puis le bass c’est un petit peu et cetera et ça aide à faire des pauses très réalistes alors pour des Paes cartoon c’est c’est un peu mort voilà en bas à gauche je vais arrêter à droite
Euh il y a il y a ça fait partie aussi de l’évolution des systèmes alors c’est CB diffusion derrière donc problématique point de vue éthique et juridique mais mais maintenant c’est temps réel en gros donc il y a des systèmes comme crea.ei qui vous proposent vous pouvez le tester
Gratuitement en ligne de d’associer un écran quel qu’il soit ça peut être votre Maya ça peut être là c’était un dessinateur qui sait faire d’ailleurs le dessin qui était à droite mais il lui peint très vite à gauche et donne des indications par texte et ça fait ça fait
Ça génère à droite en temps réel les choses mais ça peut être aussi votre webcam et cetera c’est vous pouvez filmer et demander à ce que ça génère des choses voilà il y a sans doute des choses très créatives à faire avec ça mais ce qui se passe aussi de manière un
Peu plus un peu comme cascadeur c’est que dans les outils que vous utilisez les Photoshop et cetera arrivrive des des des interfaces voilà je vais avancer parce que plein d’autres choses à montrer nous-même chez Dada on est on est au tout début d’une étude donc je vi
Peut-être vous en parler un peu plus tard mais on essaie de faire de créer des outils qui permettent de modifier de l’animation euh l’animation 3D par la voix ou le geste genre je change le rythme l’amplitude mais juste par des indications un peu floues et on en a
Écout au début donc on va voir ce que ça donne je viendrai vous vous en reparler en tous les cas t les ça c’est pour l’animation mais tous les métiers sont touchés le modeling maintenant il y a des systèmes comme chez Luma qui permet de taper du texte ou d’importer une
Image et ça vous sort un mode Lim quel qu’il soit à gauche vous voyez du dessin qui est fait derrière il y a du stable diffusion donc encore une fois c’est problématique mais du dessin plus du texte descriptif ça vous sort des des skybox alors vous êtes étudiant en 3D
Donc vous savez ce que c’est et ça vous génère maintenant même de la 3D texturée qui est d’une qualité elle est ce qu’elle est mais voilà pour faire du décor ça c’est pas mal et bien sûr on peut générer tout ce qui est numérique et le le le motion le mouvement c’est
Numérique donc on peut aussi décrire maintenant par exemple avec motion GPT de Deep motion du mouvement il y a des outils aussi chez dans une société française comme golem qui fait les choses et puis il y a des process entiers qui sont pris en CH al ça ça
Risque d’arriver aussi dans nos outils très vite parce que Autodesk a signé avec Wonder dynamics qui qui est l’origine de ça des outils qui permettent de faire du tracking caméra automatique du tracking de personnage ce qu’on appelle de la mocup faciale ou des doigts même et puis d’ffacer vous l’ vu
D’effacer de détecter les les zones enfin toutes les choses qui sont vraiment très fastidieuses à faire de réer et cetera et vous pouvez surtout ce qui est ce qui est vraiment le plus intéressant pour nous exporter tout toutes les données exporter les MOC exporter les couches les layur de de rendu et cetera
Euh je vais avancer bon il y a plein d’autres choses pour la musique le metum vous connaissez peut-être et en fait c’est ces dernières images pour vous montrer que c’est on va vers ça ça c’est runway qui fait ça ça s’appelle genou sur une image fixe on peut peindre des
Zones et dire ben j’aimerais que ça bouge vers le haut vers le bas vers l’avant vers l’arrière pour l’instant il y a pas plus de contrôle que ça mais je pense qu’on va vers des moyens de de diriger son image comme on dirige des des comédiens sur scène en fait ce qui
Empêchera pas que il faudra avoir des choses à raconter et du talent voilà donc je vais finir avec ça pour vous rappeler je l’ai souligné déjà qu’il y a plein de problèmes derrière beaucoup de ces outilslà peut-être pas ceux d’adob ou d’autotesque euh donc utilisez avec éthique soyez transparent mentionnerz
Toujours que vous utilisez et méfiant sur ce que ça génère ça se trouve ça vous génère des images pour lesquelles les gens ils ça vous génère exactement une une images pour lesquelles les gens ont déposé des droits euh donc vous êtes peut-être en train de copier sans sans
Savoir des choses et pour le texte vérifier aussi surtout s’il y a des des faits ou des liens et soyez créatif servez-vous-en dans vos process créatifs si possible pas en fin de en fin de process pour plein de plein de raisons sur lequell on reviendra on reviendra sur tous ces problèmes aussi de
Manipulation d’opinion publique l’impact sur les métiers et je voulais juste vous dire et finir là-dessus que Ben tous ces problèmes là interpellent un petit peu tout le monde tous les professionnels que nous sommes que une autre école que la vot creative seeds a a lancé un mouvement dans duquel je suis un petit
Peu porte-parole qui s’appelle machine creative machine c’est ça commence par un serveur discord déjà dans lequel je vous je vous convi dans la dernière slide qui suit mais aussi au mois de au mois de d’avril donc au festival d’animation de reenn il y aura une journée dédiée entièrement à des
Coloc des conférences précédé même d’une de d’un weekend d’animation Jam en utilisant des idées génératives c’est sans doute l’espace dans lequel on peut voilà le plus dans le cadre d’une école et avec des laboratoires aussi qui sont à côé réfléchir à queles que soi les les problématiques juridiques mais on en
Parlera qu’il y a derrière réfléchir au à comment ça change aussi les métiers voilà donc ça c’est le lien si vous le voulez mais je vous le transmettrai j’imagine que votre école vous le transmettra vers le serveur discord et un petit un petit un petit sondage juste
Avant de Creative machine si vous voulez suivre en ligne ce qui s’y dit voir même donner donner un petit coup de main pour organiser des événements ou autre ben voilà merci de votre attention al ça c’est c’est pour info c’est le même QR code merci fréri c’est mêmer
Code qu’avant voilà j’ai un peu envoyé plein d’information je sais pas s’il y a des des questions de votre part je vais remettre merci de me remercier merci merci voilà j’ai coupé le partage on encore quelques minutes on a encore 5 minutes donc n’hésitez pas à poser des questions tu as une question
Dans le oui oui on av j’étais pas dessus on a vu beaucoup de choses par rapport à la 3D Ilia quand de la 2D euh bonne question alors c’est vrai que moi je on est un studio qui faisant beaucoup de 3D même même si énormément
De de rendu de d enfin de de stylisation en 2D et en fait j’ai l’impression que que les gros efforts sont là-dessus sur le changement de style alors en fait ce que tu as vu quelque part c’est vrai que j’ai montré de la 3D la génération
De la 3D parce qu’il y a il y a beaucoup d’étapes de fabrication euh mais en fait en fait tu as vu beaucoup ded c’estàd toute la M journée typiquement sert énormément euh en en recherche en idéation en recherche de de concept donc c’est de la
2D pour ce qui est de l’animation pure euh c’est vrai j’ai pas vu beaucoup de travaux qui aident à animer en 2D mais il y en a peut-être c’est peut-être que je suis pas les bonnes personnes et et dans le fond il y a beaucoup de qui
Génèent qui qui partent de rien si ce n’est une idée ou du texte et qui arrive à faire de la vidéo après cette vidéo vous pouvez lui dire de la faire dans n’importe quel style donc en 2D par exemple vous dans le studio vous avez déjà intégré de l’a pour l’instant alors
On est alors tu comprendras donc Martha que il y a ila et ila il y a alors de Lia générative à part pour du texte quelques traductions euh de la de la re la reformulation par exemple de post LinkedIn et cetera je sais qu’on a des gens en communication qui qui passent
Par lia parce que c’est très euh c’est beaucoup plus facile c’est pas très rigolo à faire de toute façon du code on utilise le dans le code on passe de temps en temps par lia mais faut se méfier faut faut repasser derrière entièrement voilà et donc on pour l’instant sinterdit d’utiliser de l
Générative et surtout et comme d’ailleurs pas mal de studios dans les images finales voilà mais on viendra sur ces problématique je pense plus tard la jurisprudence ouais alors la jurisprudence B tout ça on va reparler tu parles donc c’est Aicha qui me parle de Night Shad et tout
Ça la jurisprondance elle est différente dans certains pays en gros ce qui semble ressortir c’est que effectivement les les textes d’ailleur tout comme les tout comme les images généré par sont pas considérés comme un travail d’auteur même s’il y a du prompte derrière et cetera donc les droits d’auteur sont
Liés au fait de d’avoir dans le travail la le la la l’expression de la personnalité d’un d’un auteur voilà et et le je sais que le droit fiscal français est très clair dans la définition de ce qui est un livre par exemple et cette définition interdit à des livres écrits par d’être
Considérés comme des livres donc en fait ça par domino ça fait tomber plein de plein de possibilités il y a pas les mêmes la même TVA il y a plein de choses qui sont impossibles on peut pas être éditeur si c’est pas des livres et cetera est-ce qu’on arrivera à créer une
Vidéo longue court métrage partir d’ oui bien sûr oui oui c’est le bah le but c’est ça ouais c’est de faire tous les système de on voit l’évolution depuis un an là les systèmes de génération de vidéo ils sont ils sont de mieux en mieux et là il y a
Un gros effort qui est fait sur la la continuité voilà en revanche dès que ça bouge euh dès que ça bouge ça ne suit pas les 12 principes de l’animation et cetera mais je sais de source sûr que des chercheurs il travaillent donc donc c’est il est certain qu’on pourra un
Jour s’asseoir devant sa télé ou son écran quel qu’il soit et dire tiens fais-moi un film d’un quart d’heure avec BR pit et et Lou finess et c’est un western et dans le style Miyasaki et puis de changer à la volée c’est c’est sûr que ça sera techniquement possible à
Terme et pareil pour la musique le son et cetera d’ailleurs les premiers touchés pour les métier c’est les les gens de la voix c’est les les comédiens et les traducteurs on peut déjà copier les voix des gens et certains studio hlas ne se privent pas de le faire sans faire
Signer aucun contrat et donc a pas mal de procès en ce moment en cours et la justice n’est pas toujours au fait d’ailleurs de des avancées techniques donc c’est un petit peu un champ de mine hein ce ce ces technologies là par contre on les voit mal disparaître elles vont elles vont
Elles vont s’assaignir c’est un peu comme voilà l’arrivée de l’automobile il a fallu hélas beaucoup de morts avant de légiférer là ce qui est bien c’est que la légifération elle arrive en même temps encore une fois je pense qu’on va se faire un une session spécifique là-dessus donc s’il a suite des données
De possibilité est-il possible elle puisse créer d’elle-même comme et ben faudrait déjà qu’on sache ce que ça veut dire créer pour un cerveau humain c’est pas c’est pas ça c’est tout comme la conscience en fait on narrive pas à le définir donc donc donc voilà aès je suis pas je suis
Pas ni data scientiste ni neurologue donc je vaux pas répondre plus à ces questions mais il faut savoir que chez les humains les les industries dit créative et Curel sont sont sont pas en fait plus créatifs que les autres chez les ingénieurs il y a plein de gens très créatifs chez les
Médecins j’éta chez quelques jours chez des chercheurs au CNRS ils sont ultra créatifs mais ils sont pas dans Industrie cultur créative la particularité c’est qu’en fait c’est des industries dans lesquelles on n’a pas qu’une clientèle même s’il y a on produit quelquefois de la de l’image au
Kilomètes ou de la musique au kilomètre on a un public et un public ça suit des auteurs donc en fait ça c’est pas remplaçable parce que un public suit des auteurs et même quand on est impressionné en tant que public par une nouvelle a en fait on est impressionné
Par les auteurs de l’a on applaudit la performance et en fait c’est ça le cœur des industries créatives et culturelles c’est qu’il y a des performances d’humain derrière et d’ailleurs il y a des règles les droits d’auteur c’est pour c’est c’est pour aider des gens à continuer à s’exprimer donc dans ce
Sens-là intrinsèquement une machine pourra pas le faire et on on crée jamais de zéro ni nous ni ni quoi que ce soit merci à vous est-ce qu’on a fait le tour est-ce qu’il y a encore des questions non visiblement non non c’est bon c’est d’info très bien
Ok c’est va attends la suite bah oui voilà ben merci Quentin donc la suite ce sera le 14 février mêmeure ouais tout à fait euh voilà donc j’enverrai à tous un petit mot euh ça marche ben écoute merci beaucoup Quentin et puis à très bientôt alors bonne journée à très bientôt je
Vois qu’on est 118 is c’est impressionant ou on est monté à 143 donc très bien pas mal bon ben merci à vous bonne journée au revoir bonne fin de journée au revoir