Vers une nouvelle épistémologie : repenser le pouvoir, la technologie et le langage

DOI : 10.57086/cpe.1822

Zusammenfassungen

À partir d’un croisement de perspectives et réflexions depuis le Sud Global, l’article analyse l’intelligence artificielle (IA) générative autour de trois axes. Le premier est épistémologique : il interroge la manière dont l’IA transforme les formes de connaissance, en re-contextualisant les notions de savoir, d’apprentissage, de vérité et d’autorité cognitive. Le deuxième axe est linguistique et sémantique, explorant la manière dont les modèles de langage – entraînés sur des corpus majoritairement en anglais et conçus pour produire une prédiction cohérente – opèrent une forme subtile mais omniprésente d’homogénéisation du sens, en érodant la diversité des langues, des concepts et des récits. Le troisième est politique et géopolitique montrant comment l’IA agit comme vecteur de pouvoir symbolique et dispositif d’exclusion, dans la continuité de formes historiques de colonialisme cognitif, aujourd’hui reproduites à travers la standardisation algorithmique et la gouvernementalité numérique. La démarche n’est pas seulement critique, mais aussi prospective, postulant la nécessité d’une reformulation radicale des présupposés pédagogiques et conceptuels liés à l’IA, mettant au centre la pluralité épistémique, la responsabilité symbolique et la possibilité de mondes alternatifs.

Drawing upon a diverse array of perspectives and reflections from the Global South, the article undertakes a comprehensive analysis of generative artificial intelligence (AI) from three distinct angles. The first of these is epistemological, examining how AI transforms forms of knowledge by recontextualising the notions of knowledge, learning, truth and cognitive authority. The second angle is linguistic and semantic, exploring how language models, trained on mostly English-language corpora and designed for coherent prediction, operate a subtle but omnipresent form of homogenisation of meaning, eroding the diversity of languages, concepts and narratives. The third is political and geopolitical, showing how AI acts as a vector of symbolic power and a device of exclusion, continuing historical forms of cognitive colonialism, now reproduced through algorithmic standardisation and digital governmentality. This approach is critical and forward-looking. It argues for a radical reformulation of the pedagogical and conceptual assumptions associated with AI. This reformulation should focus on epistemic plurality, symbolic responsibility, and the possibility of alternative worlds.

A partir de un cruce de perspectivas y reflexiones desde el Sur Global, el artículo analiza la Inteligencia Artificial generativa en torno a tres ejes. El primero es epistemológico e interroga la transformación de las formas de conocimiento recontextualizando las nociones de saber, aprendizaje, verdad y autoridad cognitiva. Un segundo eje lingüístico y semántico explora cómo los modelos de lenguaje, entrenados en corpus mayormente anglófonos y concebidos para una predicción coherente, operan una forma sutil pero omnipresente de homogeneización del sentido, erosionando la diversidad de lenguas, conceptos y narraciones. Y un tercer eje geopolítico que muestra como la IA actúa como un vector de poder simbólico y dispositivo de exclusión. Se realiza una propuesta crítica y prospectiva: la reformulación radical de los presupuestos epistemológicos y conceptuales asociados a la IA generativa., asumiendo la responsabilidad educativa de reconstrucción del lenguaje como espacio de resistencia, y pensar más allá de la inclusión en un proyecto político de pluralidad narrativa epistémica.

Gliederung

Text

Prémisses méthodologiques

Cet article naît de la rencontre entre deux trajectoires différentes mais profondément entremêlées : d’un côté, une expérience acquise sur le terrain, dans le secteur de la conception, du développement et de l’évaluation des systèmes d’intelligence artificielle (IA) ; de l’autre, un parcours académique fondé sur la recherche et l’enseignement universitaire dans des domaines interdisciplinaires de la communication, la théorie critique et les études socio-technologiques. L’union de ces deux perspectives – l’une technique et opérationnelle, l’autre théorique et analytique, ancrée dans une réflexion d’ordre anthropologique et philosophique – permet d’aborder l’intelligence artificielle non comme un objet neutre ou purement fonctionnel, mais comme un seuil épistémique et politique, où convergent également des enjeux éthiques, et à travers lequel se redéfinissent les modalités du savoir, les conditions de l’expérience et les possibilités du futur.

Notre analyse, centrée sur l’intelligence artificielle générative, s’articule autour de trois axes principaux. Le premier est épistémologique : nous interrogeons la manière dont l’IA transforme les formes de connaissance, en re-contextualisant les notions de savoir, d’apprentissage, de vérité et d’autorité cognitive. Le deuxième axe est linguistique et sémantique : nous explorons comment les modèles de langage – entraînés sur des corpus majoritairement anglophones et conçus pour produire une prédiction cohérente – opèrent une forme subtile mais omniprésente d’homogénéisation du sens, en érodant la diversité des langues, des concepts et des récits. Le troisième est politique et géopolitique : nous montrons comment l’IA agit comme vecteur de pouvoir symbolique et dispositif d’exclusion, dans la continuité de formes historiques de colonialisme cognitif, aujourd’hui reproduites à travers la standardisation algorithmique et la gouvernementalité numérique.

Dans ce cadre, notre démarche n’est pas seulement critique, mais aussi prospective. Nous postulons la nécessité d’une reformulation radicale des présupposés pédagogiques et conceptuels liés à l’IA, mettant au centre la pluralité épistémique, la responsabilité symbolique et la possibilité de mondes alternatifs. Cela implique un changement de paradigme : passer d’une logique de performance à une logique de générativité créatrice, de la centralité des données à celle de la relation, de la prévision automatisée à l’imagination collective. L’urgence d’une telle révision est à la fois éducative et politique : elle concerne notre manière de former la pensée, de défendre la complexité et de préserver le langage comme espace de liberté et de résistance. C’est pourquoi cet article se conclut par une réflexion sur la fonction contre-hégémonique de la parole, sur la responsabilité de l’éducation dans un contexte algorithmique et sur la nécessité de concevoir des technologies qui ne normalisent pas le monde, mais en amplifient les différences.

En définitive, ce travail est une invitation à dépasser l’alternative stérile entre technophilie et technophobie ; à reconnaître que l’intelligence artificielle ne peut être comprise ni régulée sans une conscience de ses racines et de ses implications épistémologiques, linguistiques et politiques ; à comprendre que seule une vision capable d’intégrer des compétences techniques et une pensée critique peut ouvrir un espace pour un avenir technologique non seulement plus juste, mais capable de valoriser la complexité, la pluralité des savoirs, et la dimension – nécessairement dynamique et relationnelle – de l’intelligence.

1. Introduction épistémologique : la crise de la pensée moderne et l’émergence d’une géographie cognitive fragmentée

Le début du xxie siècle marque une rupture silencieuse mais radicale : l’effondrement progressif d’une certaine idée de l’intelligence, du savoir et de l’humanité, forgée au fil des siècles des Lumières et consolidée durant l’ère de la modernité industrielle. Les structures cognitives qui ont soutenu la science moderne – fondées sur la dichotomie entre sujet et objet, la linéarité du temps historique, l’universalité des catégories logiques – apparaissent aujourd’hui incapables de contenir la complexité exponentielle du monde numérique. L’infrastructure technologique contemporaine a induit un changement d’échelle, de vitesse, mais surtout de la nature du penser. Le savoir n’est plus seulement ce que l’on connaît : c’est désormais ce qui est reconnu comme pertinent et cohérent par des systèmes automatisés, algorithmiques, computationnels. C’est ce qui survit au filtre des plateformes, à la logique de l’engagement – fondée sur des mécaniques d’action et de réaction soigneusement calibrées pour capter l’attention et susciter des réponses humaines –, à la grammaire des métriques.

Les grandes plateformes numériques agissent comme de nouvelles souverainetés symboliques, régulant l’accès au langage et à la mémoire, et déterminant l’horizon du pensable à travers des architectures informationnelles opaques et centralisées. Dans cette optique, l’intelligence artificielle n’est pas un simple outil : elle est une nouvelle forme d’infrastructure épistémique globale. Comme l’a montré James Bridle (2018) dans New Dark Age, plus nous disposons d’outils pour comprendre le monde, plus nous risquons d’en perdre le sens.

La transparence des données est souvent invoquée comme gage de neutralité et d’accessibilité, mais cette idée peut être trompeuse. Les données ne sont jamais neutres : elles sont le produit de décisions – ce qui a été observé, comment cela a été classé, ce qui a été exclu – et portent en elles les empreintes de ces choix. Leur exposition dite « transparente » risque ainsi de produire un effet de fausse évidence, en masquant les logiques de pouvoir, les asymétries et les exclusions qui en façonnent la structure1. Sans cadre critique ni instruments d’interprétation, la transparence ne révèle pas : elle désoriente. Elle ne clarifie pas la réalité, mais la recompose selon des schémas préconfigurés. Pire encore, cette transparence de façade – souvent alignée sur des critères formels de conformité – devient un écran : elle donne à voir pour mieux détourner le regard, fonctionnant moins comme outil de vérifiabilité que comme dispositif de légitimation et de distraction2. Ainsi, la promesse de clarté bascule subtilement vers une forme d’opacité : une transparence obscure, qui montre tout mais n’explique rien, et qui peut facilement être utilisée pour légitimer des décisions opaques sous le masque de l’évidence. Mais le problème ne se limite pas aux données elles-mêmes : il concerne aussi le langage – le code même à travers lequel les données sont interprétées, classées, narrées.

Les systèmes algorithmiques ne se contentent pas de privilégier certaines formulations aux dépens d’autres : ils orientent les choix, automatisent les réponses, anticipent les désirs, et finissent ainsi par modeler les comportements collectifs selon des trajectoires prévues et prévisibles. Lorsque les mots disponibles pour nommer l’expérience sont rares, standardisés ou culturellement déséquilibrés, la capacité même de reconnaître un problème, de formuler une question ou de concevoir une alternative se réduit. Se constitue alors un environnement symbolique dans lequel l’action est préconditionnée par ce qui est déjà codé, par ce qui est compatible computationnellement ; et tout ce qui dévie de ces logiques est perçu comme insignifiant, irrationnel ou tout simplement impensable. En ce sens, l’IA ne structure pas seulement ce que nous pouvons dire, mais aussi ce que nous pouvons désirer, concevoir, contester.

2. La technologie comme vecteur épistémique et dispositif idéologique

La technologie n’est jamais neutre. Elle ne l’a jamais été, et elle ne peut l’être aujourd’hui. Elle n’est pas un simple prolongement fonctionnel du corps humain, ni un ensemble d’outils à utiliser selon la volonté de l’utilisateur. Elle constitue un environnement cognitif, imposé plutôt que choisi, une écologie symbolique qui façonne, conditionne et oriente la manière même dont nous pensons, ressentons, apprenons et décidons. Chaque innovation technique transforme non seulement ce que nous pouvons faire, mais aussi ce que nous pouvons imaginer. L’histoire de la technique, comme le rappelle Gilbert Simondon (2014), est inséparable de l’histoire de la subjectivité.

L’intelligence artificielle, en ce sens, ne représente pas une simple rupture « quantitative », mais une transformation qualitative dans la relation entre l’humain et la technologie : elle n’étend pas simplement les facultés humaines, elle reconstruit de l’intérieur les logiques de la connaissance, en les inscrivant dans des architectures algorithmiques opaques, performatives, et souvent autoréférentielles.

Les modèles linguistiques d’intelligence artificielle n’apprennent pas comme les humains. Ils ne généralisent pas à partir d’une expérience incarnée, mais transforment le sens en statistiques à partir des récurrences dans les données. Ce déplacement est fondamental. Le langage, d’un système vivant de relations, devient une fonction prédictive ; la connaissance, d’une pratique dialogique et située, devient un calcul de probabilités. Cette mutation épistémique, si elle n’est pas reconnue et interrogée, peut engendrer un modèle cognitif implicitement autoritaire, dans lequel la valeur du savoir se mesure uniquement en termes d’efficacité, de prévisibilité, de reproductibilité. C’est la logique du machine learning qui devient ontologie : ce qui compte, c’est ce qui se répète, ce qui se conforme, ce qui « fonctionne ». Tout ce qui dévie, dissone ou diverge est traité comme du bruit, une erreur, une anomalie à corriger. Et pourtant, comme l’enseigne l’histoire des idées, ce sont précisément les déviations qui provoquent les sauts de paradigme. L’évolution de la pensée – scientifique, artistique, philosophique – est faite de ruptures, non de continuités.

Le concept foucaldien de « régime de vérité » prend ici une forme automatisée : est vrai ce que l’algorithme désigne comme tel, ce que les métriques de performance valident, ce qui est compatible avec les modèles de prédiction. Mais qui définit ces modèles ? Selon quels choix politiques, linguistiques, culturels ? Aussi impersonnelle, objective ou inévitable qu’elle puisse paraître, cette autorité n’est qu’une illusion. L’algorithme ne pense pas de lui-même : il reflète, souvent sans transparence, les visions du monde de ceux qui l’ont conçu.

Les technologies d’intelligence artificielle – en particulier celles liées au langage – ne représentent pas la réalité : elles la construisent. Comme l’a démontré Safiya Noble (2018) dans son ouvrage Algorithms of Oppression, les moteurs de recherche ne sont pas des miroirs neutres de la société : ce sont des instruments de classification et de hiérarchisation. Leur effet est de sédimenter dans la culture numérique des logiques d’exclusion, de stéréotypisation et de marginalisation, qui touchent particulièrement les subjectivités déjà vulnérables : minorités linguistiques, communautés postcoloniales, savoirs autochtones. En ce sens, l’intelligence artificielle devient un accumulateur cognitif de pouvoir : un médium à travers lequel se reproduisent, souvent de manière invisible, les hiérarchies du monde.

Penser la technologie comme vecteur épistémique signifie alors renverser la question, qui n’est plus « comment pouvons-nous utiliser l’IA ? », mais « quel type de savoir produit-elle ? », « quelles formes de subjectivité encourage-t-elle ou décourage-t-elle ? », « quels mondes rend-elle possibles – ou impossibles ? »3. C’est dans ce déplacement théorique que la réflexion devient politique. Et que la conception des technologies devient inséparable d’une vision du futur. Un futur que nous ne pouvons déléguer aux modèles, mais que nous devons écrire – de manière critique et collective – mot par mot. Des initiatives comme celles portées par Vukosi Marivate et son équipe en Afrique du Sud, qui développent des modèles linguistiques pour les langues africaines marginalisées, rappellent l’importance de construire une IA enracinée dans les réalités locales (voir l’initiative Masakhane4). En Nouvelle-Zélande, le travail de Te Hiku Media sur des modèles en langue maorie illustre une approche de souveraineté algorithmique où la communauté conserve le contrôle sur ses données et leur usage (Srivastava et Upadhyay, 2024). En Amérique latine, des projets tels que ceux du collectif Tierra Común en Colombie (Gómez-Cruz, Ricaurte et Siles, 2023 : 160-181) ou de Coding Rights au Brésil (Lobato et Gonzalez, 2020) explorent des formes d’autonomie technologique et de justice numérique qui défient les normes hégémoniques du Nord global. Ces exemples montrent que d’autres trajectoires sont possibles : décentrées, plurilingues, et portées par des imaginaires collectifs.

3. Colonialisme numérique et épistémologies niées : la lutte pour le droit de penser autrement

La révolution numérique, malgré son apparente horizontalité, a engendré de nouvelles formes de verticalisation épistémique. La promesse d’un accès universel, d’une interconnexion globale et d’une démocratisation du savoir s’est heurtée à la réalité d’infrastructures cognitives centralisées, dominées par quelques acteurs géopolitiques et par une vision du monde étroite. Les plateformes, les moteurs de recherche, les modèles linguistiques d’IA n’opèrent pas dans un vide neutre : ils reflètent et renforcent des systèmes de pouvoir, des visions du monde et des architectures cognitives issus de contextes spécifiques – historiquement occidentaux, culturellement anglophones, idéologiquement néolibéraux. Leur fonctionnement repose sur la naturalisation de l’occidental comme l’universel, qui n’est en réalité que le masque d’un particulier hégémonique.

Comme l’ont souligné des penseurs tels que Quijano (2007) et De Sousa Santos (2015), nous sommes immergés dans une colonialité du savoir qui n’a pas besoin d’armées ni de frontières physiques pour exercer sa domination : ses armes sont le langage, les patrons épistémiques, les métriques de légitimité. L’intelligence artificielle, notamment dans ses dimensions linguistiques et prédictives, agit comme une machine de synthèse idéologique, qui intègre les asymétries du monde dans ses modèles et les restitue sous forme de neutralité statistique, autrement dit l’art de faire passer pour objectif ce qui est profondément situé et sélectif.

Les données sur lesquelles ces systèmes sont entraînés – produites majoritairement en langue anglaise, selon des catégories de classification occidentales – deviennent la base matérielle d’une épistémologie computationnelle mondialisée, qui marginalise tout ce qui n’est pas représenté, traduisible, quantifiable. Dans cette logique, les langues autochtones, les savoirs ancestraux, les récits situés et oraux sont réduits au silence, non par malveillance, mais par non-conformité ontologique : ce qui ne peut être modélisé est ignoré – à moins de faire de la promptification une ouverture, et non une réduction5.

Il ne s’agit pas ici d’un simple dysfonctionnement technique, mais d’un épistémicide systémique6 où non seulement les savoirs, mais aussi les manières de les interroger sont calibrés par ce que les modèles peuvent absorber. Ce n’est pas seulement une question de représentation, mais de possibilité ontologique : si une communauté n’a pas accès aux outils lui permettant de définir son propre avenir, alors cet avenir a déjà été écrit par d’autres. La décolonisation du savoir devient, dans ce contexte, une nécessité stratégique. Il ne s’agit pas d’ajouter de la « diversité » au système, mais de repenser le système lui-même : déconstruire les fondements cognitifs sur lesquels reposent les modèles actuels de connaissance et de prévision, afin de construire de nouveaux espaces épistémiques poreux et pluriels.

Ce processus implique une réécriture radicale de l’idée même de futur. Comme le rappelle Arturo Escobar (dans Escobar et al., à paraître), la modernité a imposé une monoculture hégémonique du développement, qui a colonisé non seulement les économies et les territoires, mais aussi l’imaginaire du possible. L’intelligence artificielle, si elle n’est pas interrogée de manière critique, risque de devenir le nouveau visage de cette monoculture : un mécanisme global de prédiction qui exclut, par principe, l’inédit, le discontinu, le différencié. En ce sens, la lutte pour la décolonisation cognitive n’est pas une lutte contre la technologie, mais contre sa réduction à un dispositif de contrôle épistémique. Il ne s’agit pas de rejeter l’IA, mais de lui redonner une fonction relationnelle et pluriverselle, qui ne nie pas la différence mais la fait résonner.

En définitive, ce qui est en jeu, c’est le droit de penser autrement. De produire des mondes qui ne se contentent pas de reproduire, sous des formes appauvries, les codes d’une culture hégémonique, mais qui incarnent la vitalité de cosmologies multiples. De parler des langues qui ne soient pas de simples moyens, mais des univers. De concevoir des technologies qui ne normalisent pas le monde, mais l’élargissent. D’imaginer des futurs qui ne soient pas calculés par des algorithmes prédictifs, mais découverts, explorés, créés. C’est là que la géopolitique du langage rejoint l’ontologie politique du futur. Et que la pensée redevient un geste de liberté créatrice.

4. L’intelligence artificielle comme dispositif d’homogénéisation sémantique et cognitive

Il n’est donc pas surprenant que l’intelligence artificielle soit aujourd’hui au cœur d’une guerre sémantique mondiale. Car ce que ces systèmes sélectionnent, codifient, suggèrent ou omettent ne concerne pas seulement le savoir, mais aussi le pouvoir. À l’ère des plateformes, où l’information circule à travers des algorithmes propriétaires, la technologie devient un dispositif idéologique : elle décide de ce qui mérite l’attention, de ce qui est rendu invisible, de ce qui semble neutre mais est profondément situé.

Dans ce contexte, le langage n’est donc pas seulement un moyen d’expression : il est un champ de lutte. Barbara Cassin (2014 : 25-36), philosophe du langage et de l’intraduisible, le rappelle avec force : chaque langue est une métaphysique, et toute réduction linguistique est une réduction ontologique. L’universalisme linguistique – incarné dans les modèles d’IA entraînés sur des corpus anglophones, dans la domination de la sémantique occidentale dans les classifications numériques, dans la standardisation lexicale des interfaces – produit une nouvelle forme de colonisation, non plus seulement des corps, mais des pensées, des images mentales, des futurs possibles7.

La question n’est plus « qui parle pour qui ? », mais « quels mots sont disponibles pour dire quoi, et à quel prix ? » Comme l’a souligné Achille Mbembe (2019), l’enjeu est l’accès à la production symbolique, à la capacité de nommer le réel8 : qui ne peut nommer, ne peut exister politiquement. Dans ce cadre, parler d’intelligence artificielle sans aborder la redéfinition épistémique et géopolitique du savoir revient à rester prisonnier d’un technicisme aveugle. Il faut un saut : une pensée qui ne cherche pas seulement à gouverner l’innovation, mais qui interroge les conditions mêmes du savoir9. Non pas une simple réforme des outils, mais une réécriture des grammaires cognitives, des formes de relation entre langage, corps, savoir et monde. Ce saut ne peut advenir sans un effort théorique radical, mais pas non plus sans le courage d’assumer le désordre, l’ambiguïté, l’imperfection comme conditions génératives. Car seule une intelligence capable de reconnaître ses propres limites peut s’ouvrir à l’inattendu. Et seul un savoir qui accepte sa propre partialité peut aspirer à une forme plus profonde d’universalité, non celle de l’abstraction, mais celle de la relation.

Dans le récit dominant, l’intelligence artificielle est souvent présentée comme un outil neutre au service de la connaissance, capable de simplifier l’accès à l’information et de démocratiser l’usage du savoir. Mais ce récit masque un paradoxe structurel : plus l’IA promet d’étendre l’intelligence humaine, plus elle tend à en réduire la portée sémantique. Les modèles de langage génératifs, tels que GPT, BERT ou LLaMA, reposent sur une logique purement statistique : ils sélectionnent le « mot le plus probable » en fonction de sa distribution dans les données. Cela signifie que ce qui est dit – et donc ce qui est pensé – résulte d’une moyenne computationnelle entre des énoncés préexistants. Le langage n’est plus une pratique créative, mais une fonction prédictive. L’intelligence n’est plus ouverture à l’inconnu, mais adaptation à ce qui est déjà prévisible.

L’homogénéisation produite par ces systèmes est d’autant plus risquée qu’elle est invisible. Elle ne s’impose pas par la censure, mais par la sélection implicite : ce qui n’émerge pas dans la prédiction n’est pas affiché, et ce qui n’est pas affiché perd de sa réalité. Comme l’a écrit Byung-Chul Han (2013), notre époque ne connaît plus la négativité : tout doit être fluide, performant, immédiatement consommable. L’intelligence artificielle s’inscrit parfaitement dans cette esthétique de la transparence fonctionnelle. Mais à quel prix ? Le prix est l’aplatissement de l’expérience humaine, la disparition du doute comme source de découverte, de l’ambiguïté comme ouverture sémantique, de l’ignorance comme condition générative de la pensée.

Ce n’est pas un hasard si de plus en plus de chercheurs – de Joy Buolamwini (2024) à Kate Crawford et al. (2014) – ont signalé l’effet colonisateur et homogénéisateur de ces systèmes. Ce que l’on présente comme de « l’objectivité » est en réalité le produit d’une longue chaîne de décisions normatives : depuis la définition des catégories pertinentes jusqu’à la sélection des données, la conception de l’architecture computationnelle et les objectifs économiques et stratégiques qui orientent le développement des technologies. L’illusion de neutralité ne naît pas dans les données, mais en amont : dans la vision du monde qui détermine ce qui mérite d’être observé, mesuré, modélisé (Xavier, 2025). Chaque algorithme porte en lui une métaphysique implicite ; chaque système prédictif présuppose une logique d’exclusion, ce qui échappe à ses paramètres devient invisible, insignifiant ou anormal. Ainsi, sous le masque de la précision technique, l’intelligence artificielle contribue à délimiter les frontières du pensable, en rigidifiant l’imagination collective dans des cadres préétablis.

L’enjeu, dès lors, ne consiste pas simplement à « inclure plus de données » ou à « éliminer les biais ». Il faut redéfinir la finalité même des modèles cognitifs, en déplaçant l’attention de la prédiction vers la possibilité, de la ressemblance vers la différence, de la récurrence vers la découverte. Ce n’est qu’à cette condition que l’intelligence artificielle pourra cesser d’être un dispositif de colonisation sémantique pour devenir un outil pluriel et transformateur. Il ne s’agit pas de lui demander d’imiter l’humain, mais d’en reconnaître les limites. Et de s’en servir pour restituer à la pensée son pouvoir le plus radical : celui d’imaginer l’inexistant.

5. La responsabilité éducative et la reconstruction du langage comme espace de résistance

Dans un monde où les modèles linguistiques génèrent en temps réel des textes, des synthèses, des argumentations, l’enjeu n’est plus la production de contenu, mais la capacité à interroger les codes mêmes avec lesquels ce contenu est construit. Cela exige un changement radical de paradigme éducatif : non pas une simple alphabétisation technique, mais une écologie sémantique ; non pas un entraînement à l’usage, mais une conscience métalinguistique ; non pas un apprentissage de l’adaptation, mais une capacité à produire des contre-récits créatifs.

Nous vivons une époque où le langage est de plus en plus évalué selon sa capacité à susciter une réponse immédiate. Les plateformes numériques fonctionnent selon des logiques de visibilité algorithmique qui privilégient ce qui provoque des réactions rapides – likes, commentaires, partages – au détriment de ce qui exige attention, réflexion ou complexité interprétative10. Cela enclenche un cercle vicieux : les contenus qui déclenchent des réactions obtiennent une exposition accrue, et les systèmes apprennent à promouvoir précisément ce type de langage qui a déjà démontré son efficacité en termes d’engagement11.

Les utilisateurs, à leur tour – consciemment ou non – modèlent leur communication pour se conformer à ces dynamiques, en accentuant les tonalités émotionnelles, les polarisations, les simplifications. Dans ce système autoréférentiel, ce qui est amplifié n’est pas nécessairement ce qui est pertinent ou fondé, mais ce qui est algorithmiquement rentable. C’est une économie de l’attention qui risque de produire des phénomènes de saturation sémantique et de désertification symbolique. Les mots risquent de se vider progressivement de leur sens, de se répéter, de devenir des automatismes. Dans ce contexte, éduquer au langage signifie avant tout reconnaître l’érosion du sens – et la combattre. Il n’y a pas d’avenir pour l’intelligence humaine sans une profonde re-signification de la parole (Turner, 2022).

Mais la question éducative ne s’arrête pas à l’école : elle concerne l’ensemble de l’écosystème communicationnel – médias, art, philosophie publique. Dans un monde où le discours est de plus en plus médiatisé par des modèles prédictifs, il faut repenser la parole comme un geste : un acte situé, irréductible, chargé de responsabilité. Comme le rappelle Derrida (1967 : 409-428), chaque parole véritablement nouvelle est une interruption du code – un accroc, et par conséquent une opportunité de déviation. C’est ce type de parole que l’éducation doit rendre à nouveau possible. Aujourd’hui, de nouveaux termes prolifèrent, souvent introduits par les plateformes elles-mêmes ou par des systèmes automatisés. Mais produisent-ils réellement du sens nouveau ? Ou ne sont-ils que des néologismes fonctionnels, imposés d’en haut, qui étendent le langage sans en élargir la pensée ? Comme l’observe Éric Sadin (2015), nous vivons une époque où les mots ne naissent plus de la confrontation, mais nous sont administrés, dans une inversion des flux et des hiérarchies décisionnelles. Des mots – et des réflexions – prédéfinis, standardisés, optimisés pour l’usage.

6. Au-delà de l’inclusion : vers un projet politique de pluralité épistémique

Dans le langage politique et académique contemporain, l’« inclusion » est devenue un mot d’ordre. Mais que signifie inclure dans un système dont les axes fondamentaux demeurent inchangés ? Qui est inclus, et à quelles conditions ? Et surtout : qu’advient-il de ce qui ne peut – ou ne veut – pas être inclus ? La logique de l’inclusion, si elle n’est pas repensée en profondeur, risque de devenir une forme d’assimilation symbolique, une tolérance décorative qui apprivoise les différences au lieu de les valoriser.

L’alternative ne réside ni dans un interculturalisme superficiel, ni dans une simple ouverture à la diversité : elle repose sur la construction d’un horizon épistémique pluriel, qui reconnaît la coexistence de multiples manières de connaître, de dire, d’interpréter et de transformer le monde. Une « pluriversité », comme l’appelle Escobar et al. (à paraître), qui n’est pas une addition d’épistémologies, mais leur enchevêtrement conflictuel et génératif.

Cette vision implique un geste théorique et politique profond : décentrer la modernité comme critère de validation du savoir, reconnaître les épistémologies indigènes, orales, relationnelles comme des formes autonomes d’intelligence. Il ne s’agit pas simplement de légitimer de nouvelles voix, mais de transformer les structures de légitimation, les critères à partir desquels nous décidons ce qui compte comme connaissance, ce qui est « scientifique », ce qui est « utile ». Les technologies – et en particulier l’intelligence artificielle – peuvent jouer un rôle décisif dans ce processus, mais seulement si elles sont radicalement repensées. L’IA ne peut plus être conçue comme un dispositif d’universalisation, mais comme une machine relationnelle, capable de refléter la complexité sans la réduire.

Cela signifie qu’il faut reconcevoir les modèles non pas pour les rendre « neutres » – une option ni cognitive ni techniquement tenable – mais pour les rendre hospitaliers à la différence, capables d’intégrer les contradictions, les voix en tension, les langages qui défient la codification (Bakiner, 2023 : 558-582 ; Vega et al., 2024 ; Rudschies, Schneider et Simon, 2021). Pourtant, la pluralité n’est pas seulement une question épistémique. Elle est aussi – et peut-être avant tout – une posture éthique et anthropologique. Elle suppose d’accepter qu’aucun savoir n’est totalisant, que toute vérité est située, et que l’intelligence humaine – à l’origine de l’intelligence artificielle, et toujours en interaction avec elle – se manifeste dans l’inachèvement, dans la capacité d’errer, d’écouter, de co-créer.

Conclusion : l’enjeu, c’est l’humain

Ce qui est aujourd’hui présenté comme un progrès inévitable est, en réalité, un choix historique. Derrière l’automatisation du langage, derrière l’efficacité prédictive des modèles, derrière la rationalisation du sens, se cache un enjeu bien plus vaste : l’avenir même de l’intelligence en tant que pratique humaine. L’intelligence artificielle n’est pas simplement une technologie parmi d’autres : c’est une machine culturelle, un dispositif de gouvernement du pensable, un nouveau seuil épistémique qui nous oblige à redéfinir non seulement ce que nous savons, mais qui nous sommes lorsque nous savons.

La question n’est plus de savoir si les machines peuvent, de manière vraisemblable, produire de la pensée. Elle est de savoir si nous, en tant qu’êtres humains, saurons encore en faire l’expérience de manière authentique – si nous saurons préserver un espace, en nous et autour de nous, où la pensée ne soit pas seulement réponse, calcul ou adaptation, mais aussi déviation, doute, création. Si nous saurons réapprendre, dans l’acte même de penser, la valeur nécessaire de la lenteur – non pas comme inefficacité, mais comme temps vital pour élaborer la complexité, remettre en question l’évidence, ouvrir des brèches dans le prévisible. Si nous saurons réhabiliter indétermination, même provisoire, et les zones de flou, d’incertitude, de non-savoir. À une époque où l’on fétichise la transparence algorithmique, reconnaître la valeur de l’ambiguïté – comme espace d’incertitude et de tension entre les possibles –, ainsi que celle de la partialité et de la complexité, devient un geste profondément politique. Comme nous l’a enseigné Carlo Ginzburg (2023), ce sont parfois les indices, les traces, les écarts qui révèlent plus que la règle. Et comme nous l’a rappelé Umberto Eco (2023), seule une pensée capable d’osciller entre ordre et désordre peut produire un savoir vivant.

Il ne s’agit pas de rejeter la technologie, ni d’en craindre la puissance. Il s’agit d’en interroger la téléologie : vers quelle idée du savoir, du langage, du monde nous dirigeons-nous ? Qui a le pouvoir de définir les métriques de l’intelligence ? Qui décide de ce qu’est une « erreur » ? Qui fixe les futurs modélisables, et ceux qui doivent rester hors du champ sémantique des machines ? Les réponses à ces questions ne sont pas techniques : elles sont politiques, culturelles, éthiques. Et elles sont urgentes. Parce qu’il ne s’agit pas seulement d’imaginer un autre usage de l’intelligence artificielle, mais de défendre la possibilité même de la pensée comme espace d’altérité. Dans un environnement où les modèles apprennent à généraliser, à lisser les différences pour produire des réponses cohérentes et immédiates, l’altérité nous rappelle que simplifier n’est pas un mal en soi ; c’est souvent nécessaire pour agir, décider, organiser. Mais lorsque cette simplification devient un filtre unique sur le réel, elle appauvrit la pensée. L’altérité, ce sont ces voix, ces récits, ces manières d’être qui ne rentrent pas dans les cases prédéfinies. C’est ce qui échappe aux catégories, interrompt l’évidence, déplace la logique de prédiction. C’est ce qui rend possible une co-intelligence : pas une fusion, mais une confrontation vivante entre des mondes qui ne se traduisent pas toujours.

Ce n’est qu’en reconnaissant cette altérité comme une valeur, et non comme un défaut, que nous pourrons construire un nouveau pacte épistémologique et technologique. Un pacte dans lequel l’intelligence artificielle ne soit pas une alternative à l’humain, mais l’occasion d’en redécouvrir la profondeur. Un pacte dans lequel le langage ne soit pas réduit à un signal, mais retrouvé comme événement. Un pacte dans lequel le savoir redevienne une pratique collective du monde, et non la simple réplique du passé.

Car le futur ne sera pas gouverné par ce qui peut être calculé, mais par ce qui reste imprévisible, par ce qui peut encore surprendre. Par cette marge d’indétermination où la pensée humaine s’ouvre à l’autre, au doute, au-delà de la limite usuelle du possible. Rester humain, ce n’est pas s’opposer à la technique, mais préserver en nous cette part qui échappe au modèle quand il prétend tout saisir, qui ne refuse pas la mesure mais en conteste l’absolu, qui résiste à ce qu’elle exclut.

C’est là, dans la tension potentielle de l’inachèvement, que pourra naître toute transformation.

Bibliografie

BAKINER Onur, 2023, « Pluralistic sociotechnical imaginaries in Artificial Intelligence (AI) law : the case of the European Union’s AI Act », Law, Innovation and Technology, vol. 15, no 2, p. 558-582, [https://doi.org/10.1080/17579961.2023.2245675].

BARRIOS TAO Hernando, DÍAZ PÉREZ Vianney et GUERRA Yolanda, 2020, « Subjetividades e inteligencia artificial : desafíos para “lo humano” », Veritas, no 47, p. 81-107, [https://doi.org/10.4067/S0718-92732020000300081].

BRIDLE James, 2018, New dark age : Technology and the end of the future, Londres, Verso Books.

BUOLAMWINI Joy, 2024, Unmasking AI : My mission to protect what is human in a world of machines, New York, Random House.

CASSIN Barbara, 2014, « Traduire les intraduisibles, un état des lieux », Cliniques méditerranéennes, vol. 90, no 2, p. 25-36, [https://doi.org/10.3917/cm.090.0025].

CRAWFORD Kate, GRAY Mary L. et MILTNER Kate, 2014, « Big Data, critiquing Big Data : Politics, ethics, epistemology, special section introduction », International Journal of Communication, vol. 8, p. 1663-1672, [https://ijoc.org/index.php/ijoc/article/view/2167].

DE JAGER Sonia, 2023, « Semantic Noise and Conceptual Stagnation in Natural Language Processing », Angelaki, vol. 28, no 3, p. 111-132, [https://doi.org/10.1080/0969725X.2023.2216555].

DERRIDA Jacques, 1967, « La structure, le signe et le jeu dans le discours des sciences humaines », L’écriture et la différence, París, Seuil, p. 409-428.

DE SOUSA SANTOS Boaventura, 2015, Epistemologies of the South : Justice against epistemicide, London, Routledge.

DOBINSON Toni, CHEN Julian et STEELE Carly, 2024, « Decolonizing or recolonizing? : AI through the eyes of applied linguists, language teachers, and language learners », Australian Review of Applied Linguistics, vol. 47, no 3, p. 253-258, [https://doi.org/10.1075/aral.24146.dob].

ECO Umberto, 2023, Opera aperta, Milan, La Nave di Teseo Editore.

ESCOBAR Arturo et al., à paraître, « Pluriversal horizons : Notes for an onto-epistemic reorientation of technology », Incomputable Earth : Digital Technologies and the Anthropocene, Londres, Bloomsbury, [https://audir.org/wp-content/uploads/2023/06/For-Incomputable-Earth-Escobar-Osterweil-Sharma-CLEAN-FINAL-single-space-1.pdf], consulté le 01 décembre 2025.

FIORAMONTI Lorenzo, 2014, How numbers rule the world : The use and abuse of statistics in global politics, Londres, Zed Books Ltd.

GINZBURG Carlo, 2023, Miti, emblemi, spie. Morfologia e storia, Milan, Adelphi.

GILBERT Thomas Krendl, BROZEK Megan Welle et BROZEK Andrew, 2023, « Beyond bias and compliance : towards individual agency and plurality of ethics in AI », arXiv, [arXiv :2302.12149].

GÓMEZ-CRUZ Edgar, RICAURTE Paola et SILES Ignacio, 2023, « Descolonizando los métodos para estudiar la cultura digital : una propuesta desde Latinoamérica », Cuadernos.info, no 54, p. 160-181, [https://doi.org/10.7764/cdi.54.52605].

HAN Byun Chul, 2013, La sociedad de la transparencia, Barcelone, Herder.

HELM Paula et al., 2023, « Diversity and language technology: how techno-linguistic bias can cause epistemic injustice », arXiv, [arXiv :2307.13714].

JUNG Bohdan, 2021, « Attention as a scarce resource in the platform economy », Disruptive Platforms, Londres, Routledge, p. 130-143.

KHOBOKO Pitso Walter, MARIVATE Vukosi et SEFARA Joseph, 2025, « Optimizing translation for low-resource languages : Efficient fine-tuning with custom prompt engineering in large language models », Machine Learning with Applications, vol. 20, p. 100-649, [https://doi.org/10.1016/j.mlwa.2025.100649].

KOLEVA Anna, 2024, « L’ontologie de l’IA générative en question(s) : essence et sens », Revue Intelligibilité du Numérique – Le numérique comme objet, le numérique comme système, no 6, [https://intelligibilite-numerique.numerev.com/numeros/n-6-2024/2930-l-ontologie-de-l-ia-generative-en-question-s-essence-et-sens].

LIU Hin-Yan, 2018, « The power structure of artificial intelligence », Law, Innovation and Technology, vol. 10, no 2, p. 197-229.

LOBATO Luisa Cruz et GONZALEZ Cristiana, 2020, « Embodying the Web, recoding gender : How feminists are shaping progressive politics in Latin America », First Monday, vol. 25, no 5, [https://doi.org/10.5210/fm.v25i5.10129].

MBEMBE Achille, 2019, Out of the dark night: Essays on decolonization, New York, Columbia University Press.

MHALLA Asma et FRIED Tsiporah, 2024, « L’IA : un enjeu géopolitique et stratégique », Servir, no 530.6, p. 39-41, [https://doi.org/10.3917/servir.530.0039].

MONETT Dagmar et GRIGORESCU Bogdan, 2024, « Deconstructing the AI myth : Fallacies and harms of algorithmification », European Conference on e-Learning, vol. 23, Academic Conferences International.

MULDOON James et WU Boxi A., 2023, « Artificial intelligence in the colonial matrix of power », Philosophy & Technology, vol. 36, no 4, [https://doi.org/10.1007/s13347-023-00687-8].

NOBLE Safiya Umoja, 2018, Algorithms of oppression : How search engines reinforce racism, New York, New York University Press.

OFOSU-ASARE Yaw, 2024, « Cognitive imperialism in artificial intelligence: counteracting bias with indigenous epistemologies », AI & Society, no 40, p. 3045-3016, [https://doi.org/10.1007/s00146-024-02065-0].

QUIJANO Aníbal, 2007, « “Race” et colonialité du pouvoir », Mouvements, 2007/3, no 51, p. 111-118, [https://doi.org/10.3917/mouv.051.0111].

RICAURTE Paola, 2019, « Data epistemologies, the coloniality of power, and resistance », Television & New Media, vol. 20, no 4, p. 350-365, [https://doi.org/10.1177/1527476419831640].

ROGERS Kenneth, 2024, « Quick Bites : Short-Form Attention in the Era of Platform Capitalism », The Politics of Curiosity, Londres, Routledge, p. 35-48.

RUDSCHIES Catharina, SCHNEIDER Ingrid et SIMON Judith, 2021, « Value pluralism in the AI ethics debate : Different actors, different priorities », The International Review of Information Ethics, vol. 29, no 3, 15 p., [https://doi.org/10.29173/irie419].

SADIN Éric, 2015, La vie algorithmique. Critique de la raison numérique, Paris, L’Échappée.

SIMONDON Gilbert, 2014, Sur la technique, Paris, Presses universitaires de France.

SRIVASTAVA Sankalp et UPADHYAY Parijat, 2024, « Digital Empowerment for Indigenous Communities Using Generative AI », Global Journal of Business Social Sciences Review, vol. 12, no 2, p 74-82, [https://doi.org/10.35609/gjbssr.2024.12.2(3)].

STYPINSKA Justyna, 2023, « AI ageism: a critical roadmap for studying age discrimination and exclusion in digitalized societies », AI & Society, vol. 38, no 2, p. 665-677, [https://doi.org/10.1007/s00146-022-01553-5].

TURNER Stephen, 2022, « Curation : The Digital World of Manipulated Experience », Facing the Future, Facing the Screen, Budapest, Hungarian Academy of Sciences, p. 69-75.

VEGA Rafael Padilla et al., 2024, « Harnessing inclusive innovation to build socially impactful A : Embracing social impact, cultural diversity, and equity », Issues in Information Systems, vol. 25, no 4, p. 442-454, [https://doi.org/10.48009/1_iis_2024_134].

WAKUNUMA Kutoma et al., 2025, « Decoloniality as an Essential Trustworthy AI Requirement », Eke, D.O., Wakunuma, K., Akintoye, S., Ogoh, G. (dir), Trustworthy AI, Palgrave Macmillan, Cham, p. 255-276, [https://doi.org/10.1007/978-3-031-75674-0_12].

WANG Hao, 2022, « Transparency as manipulation ? Uncovering the disciplinary power of algorithmic transparency », Philosophy & Technology, vol. 35, no 3, [https://doi.org/10.1007/s13347-022-00564-w].

WORMSER Gérard, 2018, « Les Conquérants : comment les plateformes colonisent l’espace attentionnel : facebook ou l’école des fans », Sens Public, [https://doi.org/10.7202/1059048ar].

XAVIER Bibin, 2025, « Biases within AI : challenging the illusion of neutrality », AI & Society, vol. 40, no 3, p. 1545-1546, [https://doi.org/10.1007/s00146-024-01985-1].

Anmerkungen

1 Sur le colonialisme et les épistémologies des données, voir Ricaurte (2019). Zurück zum Text

2 Sur la transparence comme mécanisme de narration stratégique, voir Wang (2022 : 69). Zurück zum Text

3 Sur ces thématiques, voir, entre autres, Liu (2018 : 197-229), Stypinska (2023 : 665-677), Barrios Tao, Díaz Pérez et Guerra (2020 : 81-107). Zurück zum Text

4 [https://www.masakhane.io], consulté le 01 décembre 2025. Zurück zum Text

5 Pour l’analyse des implications négatives et les risques potentiels, voir Muldoon et Wu (2023 : 80), et Helm et al. (2023). Pour des exemples de reconsidération à partir de la pensée décoloniale et du pluralisme épistémique, voir Ofosu-Asare (2024 : 1-17) et Wakunuma et al. (2025 : 255). Zurück zum Text

6 Sur ce concept, nous nous référons à De Sousa Santos (2015). Zurück zum Text

7 Sur l’usage du langage décontextualisé, les problématiques possibles vont de questions apparemment plus techniques – comme le bruit sémantique (voir à ce sujet de Jager (2023 : 111-132)) – à des enjeux nettement plus substantiels, tels que de véritables phénomènes de colonialisme linguistique. Sur cet aspect, et notamment en ce qui concerne l’enseignement des langues, voir Dobinson, Chen et Steele (2024). Zurück zum Text

8 Avec des perspectives et des implications hétérogènes, Mbembe (2019) parle de dépossession symbolique et de coercition symbolique. Zurück zum Text

9 Sur le rapport entre connaissance, IA et géopolitique, voir Mhalla et Fried (2024 : 39-41). Pour une critique ontologique de l’IA générative, voir Koleva (2025). Zurück zum Text

10 Sur ce sujet, il est recommandé de lire Rogers (2024). Zurück zum Text

11 Bien qu’elle soit un peu datée, nous recommandons la réflexion de Wormser (2018) et l’étude plus récente de Jung (2021). Zurück zum Text

Diesen Artikel zitieren

Elektronische Referenz

Luca Baraldi und Ma. del Carmen Rico Menge, « Vers une nouvelle épistémologie : repenser le pouvoir, la technologie et le langage », Cahiers du plurilinguisme européen [Online], 17 | 2025, online gestellt am 12 décembre 2025, aufgerufen am 17 décembre 2025. URL : https://www.ouvroir.fr/cpe/index.php?id=1822

Autoren

Luca Baraldi

Expert en intelligence stratégique et analyse des politiques, il étudie depuis plus de vingt ans les impacts des technologies émergentes sur la gouvernance, les systèmes de connaissance et la compétition cognitive. Conseiller pour institutions, entreprises et centres de recherche, il est membre associé d’ORBICOM, ambassadeur de la European Digital SME Alliance et membre du comité directeur du Joint Focus Group on AI (EIT–SME Alliance).

baraldi.luca@gmail.com

Ma. del Carmen Rico Menge

Professeure honoraire de la faculté de communication de l’UQAM. Elle s’intéresse à la communication internationale et interculturelle, avec un focus pour les enjeux de santé, la critique du développement et les perspectives décoloniales et la diversité culturelle. Ancienne doyenne et titulaire de la chaire UNESCO en communication en Uruguay, elle est associée aux chaires des universités Villa María (Argentine) et du Québec à Montréal (UQAM), et coordonne plusieurs projets internationaux.

rico.carmen@uqam.ca

Mehr vom selben Autors

  • IDREF
  • ISNI
  • BNF

Urheberrecht

Licence Creative Commons – Attribution - Utilisation non commerciale - Partage dans les mêmes conditions 4.0 (CC-BY-NC-SA)