IA, LLM, ChatGPT : quelques analyses

2023-08-22

Impossible d’y échapper : la grande thématique de l’année 2023 dans l’actualité du numérique (pour l’instant), c’est l’intelligence artificielle (IA). Plus précisément, l’IA fait une résurgence dans le débat public suite à des progrès dans les grands modèles de langue (large language models, LLM), qui ont permis de créer des services comme le désormais célèbre ChatGPT.

Puisque je reprends actuellement ma veille, j’en profite pour partager ici quelques analyses sur cette thématique. Ces lectures m’ont permis d’éviter les habituels écueils symétriques – adhésion sans retenue, rejet sans nuance – mais surtout l’indifférence forcée, posture que j’étais bien parti pour adopter au début, par manque d’intérêt, de temps, et progressivement par ignorance accumulée… Heureusement, plusieurs auteurs auxquels je suis abonné se sont penchés sur ces questions. Du coup, leurs réflexions sont arrivées directement dans mon lecteur de flux, et ça m’a évité de passer entièrement à côté du phénomène.

Voici donc quelques liens, vaguement organisés en trois sections qu’on pourrait titrer « aspects techniques », « aspects pédagogiques » et « aspects politico-économiques », si tout n’était pas aussi difficilement dissociable. Cette sélection n’est pas un « guide de survie de l’IA » ; elle ne donnera pas le fin mot de l’affaire ; je me contente de partager ce qui a filtré de cette thématique dans ma veille. Si vous avez des suggestions de lectures incontournables, n’hésitez pas à m’en faire part.

Précision : j’utilise ici l’expression « l’IA » comme on peut dire « le numérique ». C’est un raccourci pratique, du moment qu’on se rappelle que ce n’est pas une entité singulière et homogène mais un phénomène composite.

Bons baisers d’Islande

Le premier auteur que je veux mentionner est Baldur Bjarnason. Je suivais avec impatience sa réflexion naissante sur les outils d’écriture hypertextuelle, les fiches, Markdown, les tools for thought, quand tout ceci a été balayé par l’arrivée de l’IA. Bjarnason s’est plongé entièrement dans cette thématique, à tel point que j’ai d’abord arrêté de le lire, par dépit. Mais au bout d’un moment, parce que je pourrais lire n’importe quoi de quelqu’un dont j’apprécie le style, et que le sien me manquait, j’ai fini par rattraper le train en marche.

Bjarnason a produit plusieurs ressources d’intérêt général sur ce qu’il appelle l’« IA générative » (generative AI), c’est-à-dire les services type ChatGPT, basés sur des LLM. Pour aller vite, on peut d’abord consulter son excellente antisèche sur les LLM. Ensuite, pour plus de détails, il y a son livre The Intelligence Illusion (payant) ainsi que ses nombreuses notes de veille sur l’IA (gratuites). Tout ceci donne de bons repères pour savoir ce qu’on a en face de soi quand on utilise un service comme ChatGPT.

Bjarnason ressort actuellement de cette plongée avec, dit-il, un sentiment d’ennui abyssal. Ce n’est pas seulement la dépression post-partum d’un auteur qui a terminé d’écrire son bouquin : pour lui, « les personnes impliquées [dans l’IA générative] sont parmi les plus ignorantes de la planète en matière de culture et de créativité ». J’ai aussi retenu cette formule mordante de Ted Chiang dans le New Yorker : « ChatGPT Is a Blurry JPEG of the Web ».

Commodification et déqualification

Sur le rapport entre ces nouveaux outils et l’activité d’enseignant-chercheur, j’ai beaucoup aimé l’article « Textpocalypse » de Matthew Kirschenbaum pour le blog Scholarly Kitchen.

Pour Kirschenbaum, les LLM illustrent et amplifient la commodification de ce qu’on appelait « texte » au sens littéraire, et qui constitue désormais de la donnée. Il insiste surtout sur la posture humaniste qu’il aimerait transmettre à ses étudiants pour guider leur découverte de ces outils : une posture qui consiste à valoriser la créativité, le sens des responsabilités et l’esprit critique.

Kirschenbaum se montre confiant dans le fait que l’IA ne remplacera pas les métiers basés sur l’écriture mais constituera un nouvel outil. Dans ce contexte, le principal risque auquel nous devons être attentif est la perte d’apprentissages critiques, la « déqualification », comme le souligne Hubert Guillaud dans une note de veille sur ce sujet :

« Le problème n’est pas tant que les IA vont faire disparaître le travail […] que de savoir alors comment, privés de ces apprentissages, les nouveaux venus vont atteindre les niveaux d’expertise nécessaire à leurs pratiques ? »

Pour trouver des éléments de réflexion sur cette question, je recommande l’état de l’art très fourni réalisé par Anthony Masure et Florie Souday sur IA et pédagogie.

Follow the money

Enfin, pour mettre le sujet en perspective, j’ai apprécié le parallèle entre Web3 et IA suggéré par Jeremy Keith dans une conférence du même nom. Keith explique notamment d’où vient la profusion de discours sur l’IA :

“So what’s with all the hype? Venture capital. With this model of funding, belief in a technology’s future matters more than the technology’s actual future.”« Qu’est-ce qui explique tout ce battage médiatique ? En un mot : le capital-risque. Dans ce modèle de financement, la croyance en l’avenir d’une technologie est plus importante que son avenir réel. »

Cette idée est développée par Cory Doctorow dans une longue note de veille. Il y explique en quoi l’IA est devenue la hype du jour dans le monde financier, comme avant elle le Web3, le métavers et les cryptomonnaies. Ceci ne signifie pas que le sujet n’a aucune légitimité mais que, pour adopter le langage économique, les décisions d’un certain nombre d’agents sont motivées par l’appât du gain. On retrouve alors le mélange habituel de lobbying anti-régulation et de marketing techno-solutionniste propre à la Silicon Valley, souvent en décalage avec les réalités du champ de recherche scientifique sous-jacent.