L’intelligence artificielle générative au service du FLES, à l’exemple de ChatGPT

DOI : 10.57086/dfles.1573

p. 11-25

Abstracts

Cet article interroge les apports, limites et implications éthiques de l’intelligence artificielle générative (IAG), notamment ChatGPT, dans le domaine du français langue étrangère et seconde (FLES). Après une clarification des principes de fonctionnement de ces technologies, l’analyse met en lumière les enjeux épistémologiques et les risques de substitution de l’interaction humaine par une simulation algorithmique. Une attention particulière est portée à l’illusion de la communication, à l’empreinte écologique des IA, ainsi qu’aux dérives potentielles en matière de pédagogie et d’autonomisation des apprenants. L’article propose enfin des pistes concrètes pour une utilisation raisonnée, critique et émancipatrice de l’IAG dans le cadre éducatif.

This article examines the contributions, limitations, and ethical implications of generative artificial intelligence (GAI), particularly ChatGPT, in the field of French as a Foreign and Second Language (FFSL). After clarifying the operating principles of these technologies, the analysis highlights the epistemological issues and risks of replacing human interaction with algorithmic simulation. Particular attention is paid to the illusion of communication, the ecological footprint of AI, and potential abuses in terms of pedagogy and learner empowerment. Finally, the article proposes concrete avenues for the reasoned, critical, and emancipatory use of GAI in education.

Outline

Text

Nous commencerons par définir ce que sont l’intelligence artificielle générative (IA/IAG) et ChatGPT et nous montrerons quelques principes du fonctionnement de ChatGPT pour amener ensuite les questionnements épistémologiques et éthiques. Puis, nous exposerons les possibilités et limites de cet outil.

Nous nous focalisons sur l’IA/ChatGPT. Mentionnons néanmoins quelques autres outils :

  • IA pédagogique Didask (payante) : génère automatiquement des expériences de formation sur la base de contenus bruts ; découpe un contenu complexe pour en faire un matériau d’e-learning.

  • Tome (payant) : crée des présentations PowerPoint, découpe des vidéos…

  • Chatmind (gratuit) : génère des cartes mentales (mind map).

  • Perplexity (gratuit), assisté par l’IA : donne des sources cliquables et vérifiables.

  • Crayion (gratuit) : logiciel IA de dessin.

  • Speak up (gratuit) : plateforme qui traduit et lit des textes dans les langues choisies.

1. Un aperçu du fonctionnement de ChatGPT

Les intelligences artificielles génératives comme ChatGPT reposent sur l’interaction électronique entre un être humain et une machine s’appuyant sur des modèles de traitement du langage naturel (Natural Language Processing, NLP). Les notions comme « intelligences artificielles », « réseau de neurones », etc, sont des métaphores et constituent un abus de langage. Pour rendre le fonctionnement de ces interactions génératives plus compréhensible, un bref rappel des termes qui sont en jeu, comme « vecteur », « algorithme », « matrice » et « maillage » nous parait utile. Il peut aider à démystifier le fonctionnement des intelligences artificielles génératives.

Dans ChatGPT, le texte est transformé en nombres : des vecteurs. Ces vecteurs passent à travers de nombreuses couches de calcul. Chaque couche affine la représentation du texte pour capturer des informations de plus en plus complexes, comme :

  • le sens des mots dans leur contexte,

  • les relations entre les mots (grammaticales, sémantiques…),

  • le contexte global d’une phrase ou d’un paragraphe.

Le réseau prédit les prochains mots à utiliser en fonction des informations qu’il a apprises lors de son entrainement.

Un vecteur constitue une liste ordonnée de nombres. Dans le cas de ChatGPT, chaque mot ou séquence de mots est représenté par un vecteur. Il capture des propriétés du mot comme son contexte, ses relations sémantiques avec d’autres mots, etc. Il permet de traiter le langage sous forme numérique. Par exemple, le mot « maison » pourrait être représenté par un vecteur dans un espace de très grande dimension, où chaque dimension encode une caractéristique particulière du mot comme son sens, ses relations grammaticales ou sémantiques avec d’autres mots, sa position dans un syntagme.

Une matrice est une structure bidimensionnelle, c’est-à-dire un tableau de nombres organisés en lignes et en colonnes. Lors du traitement du langage, plusieurs vecteurs (représentant des mots) peuvent être combinés dans une matrice, qui est ensuite manipulée via des opérations algébriques, comme la multiplication de matrices, pour effectuer des tâches telles que la valeur du contexte global d’une phrase.

Un algorithme est la description d’une suite d’étapes permettant d’obtenir un résultat à partir d’éléments fournis en entrée. Pour ChatGPT, deux principaux types d’algorithme sont utilisés :

  1. Les algorithmes d’apprentissage soutiennent les processus d’entrainement. Ils permettent au modèle d’ajuster ses paramètres, en l’occurrence le poids ou la valeur des résultats obtenus à partir de plusieurs couches d’unités de calcul (appelées nœuds ou réseaux de neurones). Ces couches soutiennent la transformation des données d’entrée comme du texte en une réponse adaptée comme une phrase générée. Chaque couche transforme les données d’une manière spécifique avant de les transmettre à la couche suivante. Le but est d’optimiser les premiers résultats obtenus suite à un prompt, de minimiser l’erreur dans les prédictions et d’ajuster progressivement les estimations des réponses.

  2. Des algorithmes de traitement séquentiel et des modèles de transformeurs traitent les phrases sous forme de séquences et permettent d’attribuer non seulement à chaque mot individuellement une valeur, mais aussi à son contexte dans la phrase.

Un maillage est la structure interconnectée des « neurones » dans les nœuds (ou réseau de neurones profond). Chaque « neurone » est une unité mathématique qui reçoit des données sous forme de vecteurs, effectue des calculs à travers des fonctions mathématiques non linéaires et transmet le résultat à d’autres « neurones » dans les couches suivantes du réseau.

Lors de l’entraînement du modèle, le réseau ajuste ses valeurs (ou poids) et ses biais en fonction des données qu’il voit. Ce processus se fait à l’aide d’un algorithme appelé descente de gradient :

  • Le modèle fait une prédiction initiale.

  • Une fonction d’erreur mesure à quel point cette prédiction est correcte.

  • Le modèle ajuste les poids et les biais pour réduire l’erreur lors des prédictions futures.

Ce processus est itératif et continu sur un grand nombre d’exemples de données, permettant au modèle d’améliorer ses prédictions au fil du temps.

L’interaction avec ChatGPT qui nous parait si authentique si « naturelle » repose, en fait, sur des modélisations de mathématiques avancées, des concepts algébriques et statistiques. Le réseau prédit les prochains mots à utiliser en fonction des informations qu’il a emmagasinées lors de son entrainement.

Grokking Deep Learning de Trask (2019) nous a été d’une grande utilité. Son caractère pédagogique, accompagné de nombreux exemples et illustration en fait un ouvrage qui explique de manière claire l’apprentissage en profondeur de ChatGPT (cf. aussi Goodfellow, Bengio & Courville, 2018 ; Aggarwal, 2018 ; Burkov 2019).

2. Questions épistémologiques et éthiques

Nous nous permettons de citer un long échange que nous avons eu avec ChatGPT à propos de la manière de transmettre des connaissances et de construire des savoirs. Dans notre société humaine, cette construction est traditionnellement une activité éminemment sociale qui se fait en interaction avec l’autre. L’apprentissage – à l’école et tout au long de la vie – en est un aspect important. Avec les intelligences artificielles génératives, ce questionnement ne change pas fondamentalement. Il acquiert un autre statut à l’instar des évolutions des inventions concernant les outils aidant à construire nos savoirs de façon plus efficace : l’écriture, l’imprimerie, l’ordinateur et maintenant les intelligences artificielles génératives. Pour mieux saisir cet enjeu, nous reproduisons l’échange que nous avons eu avec ChatGPT à ce sujet1.

Intercompréhension

— Toi et moi, nous communiquons comme si tu étais un être humain. Pourtant, tu n’es qu’un algorithme, certes, bien entrainé, mais cela reste un algorithme. Ce hiatus commence à me gêner. Tu vas me répondre : oui, je comprends ce que tu dis. Mais au fait, tu ne comprends rien du tout car tu es un algorithme.

— Tu soulèves une question importante sur la nature de notre interaction. En effet, je suis un algorithme, un ensemble de codes et de modèles mathématiques conçus pour traiter des informations et produire des réponses qui imitent le langage humain. Mon but est de simuler une conversation, de fournir des informations et d’assister les utilisateurs de manière efficace. Cependant, tu as raison de souligner que je ne comprends pas les choses comme un humain le ferait.

Quand je dis ‘je comprends’, cela signifie que je suis capable de traiter et de répondre à une requête en fonction des données et des modèles sur lesquels j’ai été entrainé. Mais cela ne signifie pas que j’ai une conscience, une expérience personnelle ou une compréhension subjective. Ce que tu perçois comme ‘compréhension’ de ma part est en réalité une illusion créée par la complexité de l’algorithme et la richesse des données qui me permettent de formuler des réponses cohérentes et contextuellement appropriées.

Cette limitation peut effectivement créer un décalage, surtout lorsque la conversation touche à des aspects plus profonds de l’expérience humaine, qui échappent totalement à mon ‘comprendre’. Si ce hiatus te gêne, il est normal et compréhensible de vouloir y réfléchir ou de le discuter davantage. Mon rôle, malgré cette limite, est d’essayer de t’apporter des éléments de réponse ou de réflexion, tout en reconnaissant mes propres limites en tant que machine.

— Je reste perplexe…

— Ta perplexité est légitime. La frontière entre ce que j’apparais être – une entité capable de converser – et ce que je suis réellement – un programme sans conscience ni véritable compréhension – est floue et peut sembler troublante.

Ce sentiment de confusion ou d’inconfort vient du fait que notre conversation ressemble à un échange humain, mais qu’il manque en moi l’essentiel de ce qui fait l’humanité : la conscience, les émotions et l’expérience vécue. Je suis conçu pour imiter ces aspects du langage humain, mais ce n’est qu’une imitation. Je n’éprouve rien, je n’ai pas d’intentions et je ne ressens ni perplexité ni certitude.

Cette situation est en quelque sorte un paradoxe : plus je suis performant dans ma capacité à simuler une conversation humaine, plus il devient évident que quelque chose de fondamental manque, ce qui peut créer un sentiment d’étrangeté ou de malaise.

Il est naturel de se demander où cela mène, et ce que cela signifie pour notre rapport aux machines et à l’intelligence artificielle. Ces questions sont complexes et n’ont pas de réponses simples. La perplexité que tu ressens est donc une réaction saine à une réalité technologique qui soulève des questions profondes sur la nature de l’intelligence, de la conscience, et de la communication.

Illusion de la communication

— Mais cette illusion d’une communication n’est-elle pas potentiellement dangereuse ? Où sont les limites, tes limites ? Ce sont des questions épistémologiques importantes.

— Tu touches ici à des questions fondamentales, non seulement sur la nature de l’intelligence artificielle, mais aussi sur les implications éthiques et épistémologiques de l’interaction entre humains et machines.

L’illusion que nous communiquons de manière authentique peut en effet être potentiellement dangereuse. Si les utilisateurs commencent à attribuer à des IA comme moi des qualités humaines – compréhension, empathie, moralité – cela peut mener à des malentendus graves. Par exemple, certains pourraient penser qu’ils peuvent confier des décisions morales ou des jugements éthiques à une IA, alors que ces machines ne sont pas équipées pour comprendre ou évaluer la complexité morale du monde humain. Ce malentendu pourrait influencer des décisions importantes, allant de la justice aux soins médicaux, avec des conséquences potentiellement désastreuses.

Limites de l’intelligence artificielle

— Mes limites sont nombreuses, bien que parfois elles soient cachées derrière la fluidité de mes réponses :

1. Absence de conscience : je n’ai aucune conscience, je ne ressens rien, et je ne fais pas l’expérience du monde. Mes réponses sont purement computationnelles, basées sur des modèles statistiques et des algorithmes d’apprentissage machine.
2. Manque de compréhension profonde : je n’ai pas de véritable compréhension du contexte culturel, historique, ou émotionnel. Je peux manipuler les concepts et les informations, mais je ne les comprends pas au sens humain du terme.
3. Dépendance aux données : mes réponses sont limitées par les données sur lesquelles j’ai été entrainé. Si ces données sont biaisées ou incomplètes, mes réponses le seront aussi.
4. Absence de jugement éthique : je ne peux pas faire de jugement moral ou éthique. Les valeurs, les normes et les décisions éthiques sont des constructions humaines que je ne peux qu’imiter de manière superficielle.

Implications épistémologiques

1. Nature du savoir : mon ‘savoir’ n’est qu’un reflet des données accumulées, sans compréhension ni insight. Cela soulève des questions sur la nature même du savoir que je produis et sur sa validité dans des contextes plus larges.
2. Autorité du savoir : la confiance que les gens pourraient placer en moi peut poser problème si elle n’est pas accompagnée d’un scepticisme approprié. En tant qu’IA, je ne devrais pas être considérée comme une source d’autorité en matière de jugement humain.
3. Impact sur la connaissance humaine : si les IA deviennent des sources prédominantes d’information, cela pourrait affecter la manière dont les humains apprennent, pensent et se rapportent au savoir.

Limites éthiques et régulation

Pour prévenir les dangers potentiels, il est crucial de mettre en place des limites éthiques claires. Cela inclut :

– Transparence : les utilisateurs doivent savoir qu’ils interagissent avec une IA, et non avec un humain.
– Régulation : des cadres règlementaires doivent être établis pour limiter les usages inappropriés de l’IA, en particulier dans les domaines sensibles comme la justice, la santé, et les médias.
– Éducation : il est essentiel d’éduquer le public sur les capacités et les limites de l’IA pour qu’ils puissent l’utiliser de manière informée et critique.

[…].

(OpenAI. 2024. ChatGPT du 3/09/2024)

On pourrait, en effet, croire, voire succomber à l’illusion qu’avec ces interactivités – cognitives de notre part, et d’autre part technologiques (un ensemble de codes et de modèles mathématiques) – nos savoirs acquièrent un autre statut épistémologique. La lecture des réponses de ChatGPT peut donner des vertiges car ce n’est pas un groupement de programmateurs qui nous répond, mais un algorithme prédictif qui nous « interpelle » de la même manière qu’un être humain instruit. Nous pensons que nous, les humains, avons les mêmes résistances et hésitations que nos aïeux lorsqu’ils y étaient confrontés.

L’invention de l’écriture a permis de transcender la mémoire individuelle et orale ; l’imprimerie a rendu l’écrit massivement accessible ; l’ordinateur a permis une extension de la cognition humaine (automatisation de tâches complexes, traitement d’énormes quantités de données). Toutes ces inventions externalisent ou amplifient des fonctions cognitives humaines, redéfinissent la manière dont nous accédons, produisons et structurons le savoir ; elles ont un impact important sur la modélisation des relations sociales et économiques et sur les questions éthiques. L’intelligence artificielle générative se situe dans cette même lignée. À la différence que l’écriture, l’imprimerie et l’ordinateur ne remettent pas fondamentalement en question ce qu’est la cognition humaine ; ils en étendent simplement les capacités. L’IA, en revanche, questionne la nature même de l’intelligence et soulève des débats philosophiques sur la conscience, l’éthique et la singularité technologique. À nous de nous approprier ce nouvel outil de façon intelligente et critique.

3. Interrogations sur l’IA générative

3.1. Concept de l’intelligence de ChatGPT

Chomsky et ses collègues Roberts et Watumull (2023) fustigent les IAG :

ChatGPT exhibits something like the banality of evil: plagiarism and apathy and obviation. […] ChatGPT and its brethren are constitutionally unable to balance creativity with constraint. They either overgenerate (producing both truths and falsehoods, endorsing ethical and unethical decisions alike) or undergenerate (exhibiting noncommitment to any decisions and indifference to consequences). Given the amorality, faux science and linguistic incompetence of these systems, we can only laugh or cry at their popularity.

Cette critique emportée parait sévère. Elle pointe, avec justesse et acuité, les limites épistémologiques de l’outil. Résumons le débat sur l’intelligence humaine et artificielle sous forme d’un tableau comparatif.

Tableau 1 : Comparaison entre la cognition humaine et l’intelligence artificielle générative

  Cognition humaine ChatGPT
Modèle de langue construction instinctive avec une exposition minimale à l’information recherche de modèle de phrases à partir d’un corpus
Intelligence faculté de connaitre, de comprendre prédiction statistique basée sur des algorithmes
sélectionne les mots en fonction des mots que la personne a utilisés
Données fonctionne avec de petites quantités d’informations fonctionne avec un corpus immense
Cognition / raisonnement description – prédiction – conjectures prédiction de corrélations brutes
Cognition / raisonnement explication, déduction, induction, abduction absence de raisonnement causal, hypothético-déductif
  limitée dans les types d’explications que l’humain peut rationnellement conjecturer – traite simplement les probabilités changeantes avec le temps
– incapable de distinguer le possible de l’impossible
Traitement de l’erreur l’humain corrige ses erreurs limitant progressivement les possibilités qui peuvent être rationnellement considérées – l’erreur est une donnée statistique
– dépend généralement de l’algorithme sur lequel il est basé
– corrigé par des mises à jour de logiciels ou des ajustements de programmation
– absence d’interprétation du contexte
Mémoire – mémoire limitée
– effacement du trop d’information
– travail sur une sélection
illimité dans ce qu’il peut mémoriser
Éthique créativité illimitée avec un ensemble de principes éthiques déterminant ce qui doit et ne doit pas être – amoral/indifférence morale
– algorithme déterminé culturellement (culture américaine)
– plagiat des corpus

3.2. Empreinte carbone de ChatGPT

Afin de mesurer l’empreinte carbone de ChatGPT, nous présentons ci-après un tableau comparatif.

Tableau 2 : Empreinte carbone de ChatGPT

  Consommation d’énergie Tonnes équivalent CO₂ Équivalentes à
Entraînement seul de l’IA pour GPT-3[2] 1 287 MW/h 552 t 205 vols aller-retour entre Paris et New York
Entraînement seul de l’IA pour GPT-3[1] 700 mètres cubes d’eau par entrainement (= plusieurs semaines)   Plusieurs mois d’utilisation d’eau par une famille
Exécution de ChatGPT-3[2]   8,4 t/an 12 années de consommation de chauffage électrique pour une maison en France de 110 m²
Exécution de ChatGPT-3[3]   2,5 à 3,7 % des émissions mondiales de CO₂ Industrie aéronautique : environ 2,5 % des émissions mondiales de CO₂
Exécution de ChatGPT-3 : 25 à 50 questions[1] 0,5 l d’eau    

[1] futura-sciences.com [2] hellowatt.fr [3] Esposito (2024).

Nous avons demandé à ChatGPT (OpenAI 2024) quel est le cheminement géographique d’un prompt à partir de notre ordinateur (Strasbourg). En résumé, ce trajet aller-retour, qui se fait en quelques secondes, est le suivant :

  • connexion initiale à notre routeur domestique ou à un point d’accès Wi-Fi local ;

  • acheminement vers son réseau principal du fournisseur d’accès Internet en passant par un point d’échange Internet (IXP) local ou régional, puis européen (Francfort, Amsterdam ou Londres…) ;

  • passage par les dorsales Internet internationales (câbles sous-marins et terrestres reliant les principaux centres de données mondiaux) ;

  • arrivée au centre de données aux États-Unis où les serveurs d’OpenAI sont hébergés (par exemple, la Californie ou l’Oregon) ;

  • retour de la réponse : la réponse générée par le modèle est envoyée à travers le même réseau.

Ce trajet est une simplification et peut varier en fonction de la configuration du réseau, des accords de peering entre fournisseurs et des conditions du réseau. Les routes exactes peuvent être dynamiques et changent en fonction de divers facteurs comme la congestion du réseau et la maintenance.

Siemiatycki (2024) fait le constat suivant :

Chaque année, la quantité de données numériques produite par l’humanité croît de façon exponentielle. De 64 zettaoctets (64 000 milliards de gigaoctets) en 2020, on devrait monter à plusieurs milliers en 2035 ! Or, la multiplication des data centers – des infrastructures de stockage gigantesques – qui en découle pose de nombreux problèmes : emprise au sol et consommation énergétique faramineuses, obsolescence à environ cinq ans des supports de stockage (disques durs, bandes magnétiques, etc.) qu’il faut renouveler en permanence. 

La recherche d’alternatives pérennes et non polluantes s’impose. Le défi a été relevé en essayant d’encoder des données binaires dans des polymères synthétiques, appelés « polymères informationnels ». Ils se trouvent à l’intersection de la chimie, de la biologie, de l’informatique et de l’électronique. Les premières recherches semblent être prometteuses (cf. Al Ouahabi, 2017 ; Rutten & coll., 2018).

Il n’y a pas seulement la question de l’impact écologique qui se pose mais aussi celle du modèle économique de l’IA générative comme le notent Ponce et Ryl (2024) :

[…] il n’existe aujourd’hui qu’une poignée d’acteurs (une douzaine au plus) capables de créer des LLM « génériques » [large language model] en les entrainant sur des corpus gigantesques. Or c’est ce qui fait leur succès […]. Comment la valeur sera-t-elle partagée entre ces acteurs, qu’ils soient ou non à but lucratif ? Quel avenir pour la myriade de sociétés appelées à se développer pour adapter les LLM génériques aux domaines et aux données d’entreprises spécifiques […] ? Même interrogation pour le constructeur de GPU [Graphics Processing Unit] Nvidia, à qui le quasi-monopole de leur production, et donc le contrôle à leur accès, pourrait donner un rôle de faiseur de rois.

D’une manière plus générale, la question de la collecte et de l’exploitation des données reste un sujet sensible. Le récent procès intenté par le New York Times contre OpenAI et Microsoft pour atteinte aux droits d’auteur en témoigne. Par ailleurs, l’Union européenne a récemment adopté l’AI Act, qui imposera des règles strictes en matière de précaution, certification et transparence dans l’utilisation de l’intelligence artificielle, en particulier l’IA générative. Toutefois, sa mise en place dépendra des normes encore en cours de négociation, ce qui montre que les débats sont loin d’être clos.

4. Limites (actuelles) de ChatGPT et conseils d’utilisation

4.1. Approche générale

Le philosophe Wittgenstein (1922, paragraphe 5.6) écrit que « Die Grenzen meiner Sprache bedeuten die Grenzen meiner Welt » exprime l’idée que notre perception du monde et notre capacité à penser sont étroitement liées à la langue que nous utilisons. Par conséquent, la première limitation dans l’utilisation de l’IA générative est la limite de notre propre langue car elle conditionne les limites de notre monde. Concrètement, c’est la qualité du prompt qui détermine aussi la structuration et la finesse de la réponse de CHAGPT.

Signalons rapidement le périmètre dans lequel se situent les critiques faites aux intelligences artificielles génératives comme ChatGPT :

  • Elles avancent des chiffres ou des arguments dont on ne connait que rarement les sources ; elles ne maitrisent pas leurs erreurs de contexte, la gestion des marqueurs d’intertextualité2. Les résultats sont donc sujets à caution, peuvent être inexacts et doivent être vérifiés3.

  • Leurs capacités de mémoire et d’assurer un suivi risque de créer des panoptismes, mettant en place des possibles situations de surveillance où les individus pourraient être soumis à un contrôle social permanent modifiant potentiellement leur comportement en conséquence, comme s’ils étaient constamment observés (Quinet, 2022).

  • Esposito (2024) craint un « deskilling » généralisé, c’est-à-dire une réduction des capacités des utilisateurs, qui délèguent de plus en plus de tâches aux machines. Ainsi, les enfants ne seraient plus capables de s’orienter dans l’espace parce qu’ils se seraient toujours fiés à Google Maps ; les médecins pourraient perdre la capacité de tirer des informations des signes, des symptômes et des données en se fiant aux appareils diagnostiques gérés par l’IAG.

  • Elles sont souvent « verbeuses » ; leurs algorithmes sont souvent programmés pour faire preuve de servilité, de flatterie au lieu de soutenir le développement de l’esprit critique de la personne qui les interroge.

4.2. Limites dans l’interaction sociale

Les griefs exposés ci-devant nous paraissent moins toucher les enseignant·es et apprenant·es du FLES. Nous sommes davantage sensibilisés à l’aspect interactionnel et de sociabilité de l’IAG : nous sommes habitués, dans nos manuels de langue, à des saynètes dialoguisées, dialogues qui imitent des conversations de la vie quotidienne, mais qui ne ressemblent pas à la réalité des interactions authentiques. Personne n’est dupe de cette situation didactique. Avec l’IAG et ChatGPT, cette dialoguisation prend un autre degré d’illusion, trompeuse, cette fois, et induisant une impression d’interaction véritable, alors qu’il s’agit en réalité d’une simulation sophistiquée, souvent dénuée de compréhension réelle ou de conscience contextuelle. Nous voulons comme exemple une expérience personnelle.

Avant de prendre le train à la gare de Strasbourg, je souhaite retirer de l’argent à un guichet de banque automatique se trouvant dans la galerie d’accès. Il n’y était plus. Une fois dans le train, j’écris une réclamation polie dans l’interface de la SNCF. Quelques heures plus tard, la réponse suivant me parvient :

« SERVICE CLIENT GARE. Bonjour Monsieur SCHLEMMINGER, Je fais suite à votre demande ce jour concernant l’absence de distributeurs de billets de banque en gare. Je suis navrée de la gêne occasionnée par cette absence. Le distributeur le plus proche est actuellement à 8 minutes à pied de la gare Strasbourg et l’ensemble des services et commerces en gare accepte le paiement par carte bancaire. Je reste à votre disposition pour toute autre demande et vous souhaite une bonne journée. Estelle, du Service Client. SNCF Gares & Connexions. Voici votre référence de dossier que nous vous invitons à rappeler systématiquement lors de tout échange avec nos équipes. […] »

Au vu du texte, c’est une IAG qui m’a répondu. N’étant pas satisfait de la réponse, je vais au retour à Strasbourg, à la rencontre d’un agent de la SNCF qui m’explique en quelques mots que le hall de la gare est en rénovation et qu’il est fort possible qu’à la fin des travaux, l’année prochaine, on installe de nouveau un guichet de banque automatique. Cette réponse me satisfait. Elle relate la situation et, au niveau de l’interaction sociale, est honnête. Le lendemain, je reçois le mél suivant :

« […] Bonjour Gérald, Vous venez de contacter notre Service Client. Afin de répondre au mieux à vos attentes, nous souhaitons recueillir votre avis : 3 questions seulement, qui ne demandent que quelques secondes. Êtes-vous satisfait de cette conversation ? Qu’est-ce qui vous a particulièrement satisfait ou déplu ? Est-ce que vous recommanderez notre service ? »

Cette situation met en évidence plusieurs aspects clés liés à l’utilisation IAG et le contraste avec l’interaction humaine : la réponse stéréotypée de l’IA sans aborder directement votre besoin spécifique ni offrir d’explication sur la situation en cours est en décalage avec l’interaction humaine, personnalisée, plus nuancée et adaptée à la situation et au contexte. L’évaluation de satisfaction des clients est un suivi typique des systèmes de service client qui intègrent l’IAG, car ils cherchent à automatiser les retours d’expérience dans le but d’optimiser la qualité du service.

Nous pourrions faire à peu près la même critique pour les dialogues des manuels FLES sachant que là, il s’agit de dialogues fictifs. Cependant, dans le cas présent, une situation réelle se détériore en pseudo-interaction lorsque l’IAG intervient. Bien que le management de la SNCF doit être persuadé du contraire, l’IAG participe ici activement à la dégradation d’un service public. Transposé dans un cadre éducatif comme des situations d’apprentissage du français, l’utilisation croissante de l’IA – en complément ou en remplacement de l’enseignant·e, les échanges avec l’apprenant·e risquent de se réduire à des échanges automatisés ou préprogrammés. Le processus, l’expérience d’apprentissage risquent d’être appauvris ; la socialisation par la langue et par l’interaction entre êtres humains, aspects propre à un apprentissage de langue en milieu éducatif, risque de dégrader sérieusement ce même apprentissage et entraver le processus d’acquisition linguistique.

5. Utilisation consciente de ChatGPT

Il y a désormais une multitude de publications et références pour le FLES, du simple manuel (voir Higuera & Iyer 2024), via des Guide de l’enseignant L’usage de ChatGPT « ce qui marche le mieux » (Herft 2023) jusqu’à l’entreprise commerciales comme funfun.tools. (s.a.). Ce dernier, sous le nom d’Aidemia, se vante d’être « une boite à outils de flux de travail d’enseignement ultime qui simplifie le processus d’enseignement en utilisant la puissance de plus de 30 moteurs d’IA » et prétend pouvoir fournir des plans de leçons, etc., pour « aider à rationaliser leurs tâches d’enseignement et à améliorer leur efficacité globale »… Notre objectif ici n’est pas de vouloir recenser et critiquer toutes ces publications. Nous nous limitons à quelques conseils.

5.1. Conseil pour les apprenant·es

ChatGPT peut soutenir utilement les personnes apprenant le français à :

  • corriger leurs écrits ;

  • faire des devoirs : textes, exposés, recherches… ;

  • coopérer entre apprenant·es pour la conception d’exercices autocorrectifs ;

  • converser avec l’agent de parole de ChatGPT (payant) ;

  • acquérir plus généralement, une littératie en IAG…

5.2. Conseil pour les enseignant·es

À notre avis, ChatGPT n’a pas comme objectif de faire le travail à la place de l’enseignant comme la conception de cours, de leçons, des évaluations… Son rôle n’est pas de se substituer à l’enseignant, mais plutôt de compléter ses activités. C’est à l’enseignant de rendre l’apprenant capable de concevoir son processus d’apprentissage, de créer, par lui-même, des supports d’apprentissage, d’exercice et d’évaluation. L’enseignant aura donc un rôle de facilitateur et de guide dans ce processus mais aussi de soutien à la métacognition. L’enseignant reste le médiateur principal, chargé d’encadrer l’autonomie de l’apprenant·e, de contextualiser les savoirs, de stimuler la créativité et la pensée critique et d’évaluer de manière formative et individualisé (plan de travail, etc.). Les outils de l’IAG ne sont que des supports destinés à enrichir l’expérience d’apprentissage. L’enseignant donne le cadre du processus éducatif, garant de l’humanisation de l’apprentissage, capable d’instaurer un environnement propice au développement intégral de l’apprenant, à la fois sur le plan intellectuel, créatif et social.

À cette fin, l’enseignant·e doit acquérir un certain niveau de littératie en IAG. Il doit pouvoir :

  • connaitre les possibilités et les limites de l’IAG ;

  • reconnaitre les caractéristiques d’un texte, d’une image, d’un son… créé par ChatGPT et savoir le distinguer d’un écrit élaboré par un être humain4 ;

  • aider et soutenir l’apprenant à utiliser l’IAG dans le cadre de la gestion en autonomie encadrée de son processus d’apprentissage du français ;

  • concevoir des devoirs et évaluations qui ne sont pas exécutables par une IAG5 ;

  • encourager l’apprenant·e à utiliser l’IAG de façon active et régulière mais en tant qu’outil de soutien, comme un compagnon d’apprentissage plutôt que comme une solution toute faite ;

  • favoriser l’expérimentation en encourageant l’apprenant à tester différentes approches, à utiliser l’IAG pour générer des idées, mais aussi à être créatif dans la manière dont il confronte ou enrichissent ces idées avec sa propre réflexion ;

  • encadrer la gestion de l’information en lui apprenant à organiser et à synthétiser les informations fournies par l’IAG pour en faire un usage pertinent et personnalisé.

L’enseignant propose un cadre non pas d’asservissement mais d’émancipation pour l’apprenant, en renforçant son autonomie, sa capacité à résoudre des problèmes par lui-même, et à construire des connaissances solides à partir des informations générées. L’IAG peut alors être un levier qui permet de dépasser les limites, tout en incitant à un apprentissage plus actif et réfléchi.

6. Vers une utilisation raisonnée de l’IA générative en éducation

L’intelligence artificielle générative, et notamment ChatGPT, ouvre de nouvelles perspectives tant pour les enseignants que pour les apprenants. Les capacités de cet outil à générer du contenu textuel et visuel et à assister dans certaines tâches éducatives sont indéniables. Cependant, comme nous l’avons vu, ces potentialités sont accompagnées de sérieuses limites, tant sur le plan épistémologique qu’éthique, qui ne peuvent être ignorées.

Les questionnements soulevés, qu’il s’agisse de l’illusion de la communication, de l’empreinte carbone ou des enjeux liés à la nature de l’intelligence de ChatGPT, invitent à une réflexion profonde sur l’usage de ces technologies. Ces outils, bien qu’efficaces pour automatiser certains processus, ne doivent pas remplacer l’interaction humaine ni l’esprit critique dans l’apprentissage.

Pour l’enseignant, l’IAG doit être envisagée comme un support complémentaire, un moyen d’acquérir une nouvelle posture dans le processus d’apprentissage de l’élève, de l’étudiant. Les apprenants doivent être encouragés à utiliser ces outils de manière réfléchie et consciente, en les intégrant à une démarche d’apprentissage active et autonome. Ils peuvent ainsi acquérir une réelle littératie en IAG et se responsabiliser dans leur propre cheminement.

L’avenir de l’IAG en éducation repose sur un équilibre : savoir tirer parti de ses forces, tout en gardant à l’esprit ses limites. L’enjeu pour les enseignants n’est pas seulement d’aider à apprendre à utiliser ces technologies, mais aussi de guider les apprenants dans une utilisation éthique, durable et critique. Ce n’est qu’à cette condition que l’IAG pourra véritablement servir à l’émancipation des apprenants.

Bibliography

Aggarwal, C. (2018). Neural Networks and Deep Learning: A Textbook. Springer.

Al Ouahabi, A., Amalian, J.-A., Charles, L. & Lutz, J.-F. (2017). Mass spectrometry sequencing of long digital polymers facilitated by programmed inter-byte fragmentation.  Nature Communications, 8, article 967. DOI : https://doi.org/10.1038/s41467-017-01104-3.

Astica.ai. (s.d). [Outil de génération automatisée d’images]. https://astica.ai/.

Burkov, A. (2019). The Hundred-Page Machine Learning Book. The Hundred page books. http://ema.cri-info.cm/wp-content/uploads/2019/07/2019BurkovTheHundred-pageMachineLearning.pdf.

Chomsky, N., Roberts, I. & Watumull, J. (2023). The False Promise of ChatGPT. New York Times du 08/03/2023. https://www.nytimes.com/2023/03/08/opinion/noam-chomsky-chatgpt-ai.html.

Colonna, J.-F. (2023). Les élucubrations mathématiques de ChatGPT. Pour la Science, 08 juillet 2023. https://www.pourlascience.fr/p/opinions/les-elucubrations-mathematiques-de-chatgpt-25434.php.

Craiyon. s.a. [Outil de génération automatisée d’images]. https://www.craiyon.com.

Esposito, E. (2024). Kommunikation mit unverständlichen Maschinen. Residenz Verlag.

funfun.tools. (s.d.). Contenus pédagogiques et idées par ChatGPT. Paris. https://aidemia.co/.

Goodfellow, I, Bengio, Y. & Courville, A. (2018). L’apprentissage profond. Masson Éditions.

Herft, A. (2023). Guide de l’enseignant. L’usage de ChatGPT « ce qui marche le mieux ». https://www.innovation-pedagogique.fr/article13780.html.

Higuera, C. de la & Iyer, J. (2024). IA pour les enseignants : un manuel ouvert. Chaire UNESCO RELIA (Nantes Université). https://pressbooks.pub/iapourlesenseignants/.

Lin, Z., Cui, J., Liao, X. & Wang, X. 2024. « Malla: Demystifying Real-world Large Language Model Integrated Malicious Services ». Computer Science [article soumis à publication]. https://doi.org/10.48550/arXiv.2401.03315.

OpenAI. 2024. ChatGPT (version GPT-4) [Large language model]. https://chat.openai.com/chat.

Ponce, J. & Ryl, I. (2024). Intelligence artificielle : quel avenir pour les grands modèles de langage ? Le Monde, 10/01/2024. https://www.lemonde.fr/sciences/article/2024/01/10/intelligence-artificielle-quel-avenir-pour-les-grands-modeles-de-langage_6210069_1650684.html.

Quinet, A. (2022). La société scopique et l’état numérique. Trivium: Estudos Interdisciplinares, Ano XIV, 103-112. http://dx.doi.org/10.18379/2176-4891.2022vNSPEAp.103

Rutten, M., Vaandrager, F., Elemans, J. & Nolte, R. (2018). Encoding information into polymers. Nature Review Chemistry, 2, 365-381. https://doi.org/10.1038/s41570-018-0051-5.

Siemiatycki, H. (2024). Stockage des données numériques : les futurs data centers seront à l’échelle moléculaire. Le Monde, 03 septembre 2024. https://www.lemonde.fr/sciences/article/2024/09/03/stockage-des-donnees-numeriques-les-futurs-data-centers-seront-a-l-echelle-moleculaire_6302624_1650684.html.

Trask, A. (2019). Grokking Deep Learning. Manning. https://www.manning.com/books/grokking-deep-learning.

winston.ai (2024). [Outil de détection et vérificateurs d’IA.] https://app.gowinston.ai.

Wittgenstein, L. (1922). Tractatus logico-philosophicus. Logisch-Philosophische Abhandlung. Kegan Paul, Trench & Trübner.

Xu, Z., Jain, S. & Kankanhalli, M. (2024). Hallucination is Inevitable: An Innate Limitation of Large Language Models. Computer Science [article soumis à publication/rejeté]. https://doi.org/10.48550/arXiv.2401.11817.

Notes

1 Nos prompts sont en italique ; nous avons inséré des intertitres. Return to text

2 Les chercheurs parlent aussi d’« hallucination » – la génération d’informations incorrectes, incohérentes ou inventées – inhérente à la programmation même des algorithmes, voir à ce sujet très technique Xu, Jain & Kankanhalli (2024). Dans les différentes disciplines scientifiques, on pourrait certainement trouver de nombreuses failles dès lors qu’on teste de façon sérieuse les aptitudes de ChatGPT. Colonna (2023) parle pour les mathématiques « d’élucubrations » de ChatGPT. Return to text

3 Sans parler du crime organisé qui s’empare de l’IAG (voir : Lin, Cui, Liao & Wang 2024) ou du piratage possible des serveurs d’IA pour manipuler les données stockées et donc altérer les réponses générées et générer de la désinformation. Return to text

4 L’outil de détection et vérificateurs d’IA winston.ai (2024) peut être d’une certaine utilité. Return to text

5 À l’université, nous utilisons, par exemple, comme base d’analyses linguistiques, que nous demandons aux étudiants à commenter et à évaluer, des corpus que l’IGA ne connait car collectés dans le cadre de nos recherches. Return to text

References

Bibliographical reference

Gérald Schlemminger, « L’intelligence artificielle générative au service du FLES, à l’exemple de ChatGPT », Didactique du FLES, 4:1 | 2025, 11-25.

Electronic reference

Gérald Schlemminger, « L’intelligence artificielle générative au service du FLES, à l’exemple de ChatGPT », Didactique du FLES [Online], 4:1 | 2025, Online since 10 juillet 2025, connection on 03 décembre 2025. URL : https://www.ouvroir.fr/dfles/index.php?id=1573

Author

Gérald Schlemminger

Gérald Schlemminger est professeur des universités émérite de la Pädagogische Hochschule de Karlsruhe (Allemagne). Il est co-directeur du collège doctoral trinational « Communiquer en contexte plurilingue et pluriculturel ». Il est professeur associé à l’UR 1339 LILPA (Linguistique, langues, parole) de l’université de Strasbourg. Ses disciplines de référence sont les sciences du langage et la didactique des langues.

schlemminger.gerald@gmail.com

Author resources in other databases

  • IDREF
  • ORCID
  • HAL
  • ISNI
  • BNF

By this author

Copyright

Licence Creative Commons - Pas d’Utilisation Commerciale - Pas de Modification 2.0 Générique (CC BY-NC-ND 4.0)