Prémisses méthodologiques
Cet article naît de la rencontre entre deux trajectoires différentes mais profondément entremêlées : d’un côté, une expérience acquise sur le terrain, dans le secteur de la conception, du développement et de l’évaluation des systèmes d’intelligence artificielle (IA) ; de l’autre, un parcours académique fondé sur la recherche et l’enseignement universitaire dans des domaines interdisciplinaires de la communication, la théorie critique et les études socio-technologiques. L’union de ces deux perspectives – l’une technique et opérationnelle, l’autre théorique et analytique, ancrée dans une réflexion d’ordre anthropologique et philosophique – permet d’aborder l’intelligence artificielle non comme un objet neutre ou purement fonctionnel, mais comme un seuil épistémique et politique, où convergent également des enjeux éthiques, et à travers lequel se redéfinissent les modalités du savoir, les conditions de l’expérience et les possibilités du futur.
Notre analyse, centrée sur l’intelligence artificielle générative, s’articule autour de trois axes principaux. Le premier est épistémologique : nous interrogeons la manière dont l’IA transforme les formes de connaissance, en re-contextualisant les notions de savoir, d’apprentissage, de vérité et d’autorité cognitive. Le deuxième axe est linguistique et sémantique : nous explorons comment les modèles de langage – entraînés sur des corpus majoritairement anglophones et conçus pour produire une prédiction cohérente – opèrent une forme subtile mais omniprésente d’homogénéisation du sens, en érodant la diversité des langues, des concepts et des récits. Le troisième est politique et géopolitique : nous montrons comment l’IA agit comme vecteur de pouvoir symbolique et dispositif d’exclusion, dans la continuité de formes historiques de colonialisme cognitif, aujourd’hui reproduites à travers la standardisation algorithmique et la gouvernementalité numérique.
Dans ce cadre, notre démarche n’est pas seulement critique, mais aussi prospective. Nous postulons la nécessité d’une reformulation radicale des présupposés pédagogiques et conceptuels liés à l’IA, mettant au centre la pluralité épistémique, la responsabilité symbolique et la possibilité de mondes alternatifs. Cela implique un changement de paradigme : passer d’une logique de performance à une logique de générativité créatrice, de la centralité des données à celle de la relation, de la prévision automatisée à l’imagination collective. L’urgence d’une telle révision est à la fois éducative et politique : elle concerne notre manière de former la pensée, de défendre la complexité et de préserver le langage comme espace de liberté et de résistance. C’est pourquoi cet article se conclut par une réflexion sur la fonction contre-hégémonique de la parole, sur la responsabilité de l’éducation dans un contexte algorithmique et sur la nécessité de concevoir des technologies qui ne normalisent pas le monde, mais en amplifient les différences.
En définitive, ce travail est une invitation à dépasser l’alternative stérile entre technophilie et technophobie ; à reconnaître que l’intelligence artificielle ne peut être comprise ni régulée sans une conscience de ses racines et de ses implications épistémologiques, linguistiques et politiques ; à comprendre que seule une vision capable d’intégrer des compétences techniques et une pensée critique peut ouvrir un espace pour un avenir technologique non seulement plus juste, mais capable de valoriser la complexité, la pluralité des savoirs, et la dimension – nécessairement dynamique et relationnelle – de l’intelligence.
1. Introduction épistémologique : la crise de la pensée moderne et l’émergence d’une géographie cognitive fragmentée
Le début du xxie siècle marque une rupture silencieuse mais radicale : l’effondrement progressif d’une certaine idée de l’intelligence, du savoir et de l’humanité, forgée au fil des siècles des Lumières et consolidée durant l’ère de la modernité industrielle. Les structures cognitives qui ont soutenu la science moderne – fondées sur la dichotomie entre sujet et objet, la linéarité du temps historique, l’universalité des catégories logiques – apparaissent aujourd’hui incapables de contenir la complexité exponentielle du monde numérique. L’infrastructure technologique contemporaine a induit un changement d’échelle, de vitesse, mais surtout de la nature du penser. Le savoir n’est plus seulement ce que l’on connaît : c’est désormais ce qui est reconnu comme pertinent et cohérent par des systèmes automatisés, algorithmiques, computationnels. C’est ce qui survit au filtre des plateformes, à la logique de l’engagement – fondée sur des mécaniques d’action et de réaction soigneusement calibrées pour capter l’attention et susciter des réponses humaines –, à la grammaire des métriques.
Les grandes plateformes numériques agissent comme de nouvelles souverainetés symboliques, régulant l’accès au langage et à la mémoire, et déterminant l’horizon du pensable à travers des architectures informationnelles opaques et centralisées. Dans cette optique, l’intelligence artificielle n’est pas un simple outil : elle est une nouvelle forme d’infrastructure épistémique globale. Comme l’a montré James Bridle (2018) dans New Dark Age, plus nous disposons d’outils pour comprendre le monde, plus nous risquons d’en perdre le sens.
La transparence des données est souvent invoquée comme gage de neutralité et d’accessibilité, mais cette idée peut être trompeuse. Les données ne sont jamais neutres : elles sont le produit de décisions – ce qui a été observé, comment cela a été classé, ce qui a été exclu – et portent en elles les empreintes de ces choix. Leur exposition dite « transparente » risque ainsi de produire un effet de fausse évidence, en masquant les logiques de pouvoir, les asymétries et les exclusions qui en façonnent la structure1. Sans cadre critique ni instruments d’interprétation, la transparence ne révèle pas : elle désoriente. Elle ne clarifie pas la réalité, mais la recompose selon des schémas préconfigurés. Pire encore, cette transparence de façade – souvent alignée sur des critères formels de conformité – devient un écran : elle donne à voir pour mieux détourner le regard, fonctionnant moins comme outil de vérifiabilité que comme dispositif de légitimation et de distraction2. Ainsi, la promesse de clarté bascule subtilement vers une forme d’opacité : une transparence obscure, qui montre tout mais n’explique rien, et qui peut facilement être utilisée pour légitimer des décisions opaques sous le masque de l’évidence. Mais le problème ne se limite pas aux données elles-mêmes : il concerne aussi le langage – le code même à travers lequel les données sont interprétées, classées, narrées.
Les systèmes algorithmiques ne se contentent pas de privilégier certaines formulations aux dépens d’autres : ils orientent les choix, automatisent les réponses, anticipent les désirs, et finissent ainsi par modeler les comportements collectifs selon des trajectoires prévues et prévisibles. Lorsque les mots disponibles pour nommer l’expérience sont rares, standardisés ou culturellement déséquilibrés, la capacité même de reconnaître un problème, de formuler une question ou de concevoir une alternative se réduit. Se constitue alors un environnement symbolique dans lequel l’action est préconditionnée par ce qui est déjà codé, par ce qui est compatible computationnellement ; et tout ce qui dévie de ces logiques est perçu comme insignifiant, irrationnel ou tout simplement impensable. En ce sens, l’IA ne structure pas seulement ce que nous pouvons dire, mais aussi ce que nous pouvons désirer, concevoir, contester.
2. La technologie comme vecteur épistémique et dispositif idéologique
La technologie n’est jamais neutre. Elle ne l’a jamais été, et elle ne peut l’être aujourd’hui. Elle n’est pas un simple prolongement fonctionnel du corps humain, ni un ensemble d’outils à utiliser selon la volonté de l’utilisateur. Elle constitue un environnement cognitif, imposé plutôt que choisi, une écologie symbolique qui façonne, conditionne et oriente la manière même dont nous pensons, ressentons, apprenons et décidons. Chaque innovation technique transforme non seulement ce que nous pouvons faire, mais aussi ce que nous pouvons imaginer. L’histoire de la technique, comme le rappelle Gilbert Simondon (2014), est inséparable de l’histoire de la subjectivité.
L’intelligence artificielle, en ce sens, ne représente pas une simple rupture « quantitative », mais une transformation qualitative dans la relation entre l’humain et la technologie : elle n’étend pas simplement les facultés humaines, elle reconstruit de l’intérieur les logiques de la connaissance, en les inscrivant dans des architectures algorithmiques opaques, performatives, et souvent autoréférentielles.
Les modèles linguistiques d’intelligence artificielle n’apprennent pas comme les humains. Ils ne généralisent pas à partir d’une expérience incarnée, mais transforment le sens en statistiques à partir des récurrences dans les données. Ce déplacement est fondamental. Le langage, d’un système vivant de relations, devient une fonction prédictive ; la connaissance, d’une pratique dialogique et située, devient un calcul de probabilités. Cette mutation épistémique, si elle n’est pas reconnue et interrogée, peut engendrer un modèle cognitif implicitement autoritaire, dans lequel la valeur du savoir se mesure uniquement en termes d’efficacité, de prévisibilité, de reproductibilité. C’est la logique du machine learning qui devient ontologie : ce qui compte, c’est ce qui se répète, ce qui se conforme, ce qui « fonctionne ». Tout ce qui dévie, dissone ou diverge est traité comme du bruit, une erreur, une anomalie à corriger. Et pourtant, comme l’enseigne l’histoire des idées, ce sont précisément les déviations qui provoquent les sauts de paradigme. L’évolution de la pensée – scientifique, artistique, philosophique – est faite de ruptures, non de continuités.
Le concept foucaldien de « régime de vérité » prend ici une forme automatisée : est vrai ce que l’algorithme désigne comme tel, ce que les métriques de performance valident, ce qui est compatible avec les modèles de prédiction. Mais qui définit ces modèles ? Selon quels choix politiques, linguistiques, culturels ? Aussi impersonnelle, objective ou inévitable qu’elle puisse paraître, cette autorité n’est qu’une illusion. L’algorithme ne pense pas de lui-même : il reflète, souvent sans transparence, les visions du monde de ceux qui l’ont conçu.
Les technologies d’intelligence artificielle – en particulier celles liées au langage – ne représentent pas la réalité : elles la construisent. Comme l’a démontré Safiya Noble (2018) dans son ouvrage Algorithms of Oppression, les moteurs de recherche ne sont pas des miroirs neutres de la société : ce sont des instruments de classification et de hiérarchisation. Leur effet est de sédimenter dans la culture numérique des logiques d’exclusion, de stéréotypisation et de marginalisation, qui touchent particulièrement les subjectivités déjà vulnérables : minorités linguistiques, communautés postcoloniales, savoirs autochtones. En ce sens, l’intelligence artificielle devient un accumulateur cognitif de pouvoir : un médium à travers lequel se reproduisent, souvent de manière invisible, les hiérarchies du monde.
Penser la technologie comme vecteur épistémique signifie alors renverser la question, qui n’est plus « comment pouvons-nous utiliser l’IA ? », mais « quel type de savoir produit-elle ? », « quelles formes de subjectivité encourage-t-elle ou décourage-t-elle ? », « quels mondes rend-elle possibles – ou impossibles ? »3. C’est dans ce déplacement théorique que la réflexion devient politique. Et que la conception des technologies devient inséparable d’une vision du futur. Un futur que nous ne pouvons déléguer aux modèles, mais que nous devons écrire – de manière critique et collective – mot par mot. Des initiatives comme celles portées par Vukosi Marivate et son équipe en Afrique du Sud, qui développent des modèles linguistiques pour les langues africaines marginalisées, rappellent l’importance de construire une IA enracinée dans les réalités locales (voir l’initiative Masakhane4). En Nouvelle-Zélande, le travail de Te Hiku Media sur des modèles en langue maorie illustre une approche de souveraineté algorithmique où la communauté conserve le contrôle sur ses données et leur usage (Srivastava et Upadhyay, 2024). En Amérique latine, des projets tels que ceux du collectif Tierra Común en Colombie (Gómez-Cruz, Ricaurte et Siles, 2023 : 160-181) ou de Coding Rights au Brésil (Lobato et Gonzalez, 2020) explorent des formes d’autonomie technologique et de justice numérique qui défient les normes hégémoniques du Nord global. Ces exemples montrent que d’autres trajectoires sont possibles : décentrées, plurilingues, et portées par des imaginaires collectifs.
3. Colonialisme numérique et épistémologies niées : la lutte pour le droit de penser autrement
La révolution numérique, malgré son apparente horizontalité, a engendré de nouvelles formes de verticalisation épistémique. La promesse d’un accès universel, d’une interconnexion globale et d’une démocratisation du savoir s’est heurtée à la réalité d’infrastructures cognitives centralisées, dominées par quelques acteurs géopolitiques et par une vision du monde étroite. Les plateformes, les moteurs de recherche, les modèles linguistiques d’IA n’opèrent pas dans un vide neutre : ils reflètent et renforcent des systèmes de pouvoir, des visions du monde et des architectures cognitives issus de contextes spécifiques – historiquement occidentaux, culturellement anglophones, idéologiquement néolibéraux. Leur fonctionnement repose sur la naturalisation de l’occidental comme l’universel, qui n’est en réalité que le masque d’un particulier hégémonique.
Comme l’ont souligné des penseurs tels que Quijano (2007) et De Sousa Santos (2015), nous sommes immergés dans une colonialité du savoir qui n’a pas besoin d’armées ni de frontières physiques pour exercer sa domination : ses armes sont le langage, les patrons épistémiques, les métriques de légitimité. L’intelligence artificielle, notamment dans ses dimensions linguistiques et prédictives, agit comme une machine de synthèse idéologique, qui intègre les asymétries du monde dans ses modèles et les restitue sous forme de neutralité statistique, autrement dit l’art de faire passer pour objectif ce qui est profondément situé et sélectif.
Les données sur lesquelles ces systèmes sont entraînés – produites majoritairement en langue anglaise, selon des catégories de classification occidentales – deviennent la base matérielle d’une épistémologie computationnelle mondialisée, qui marginalise tout ce qui n’est pas représenté, traduisible, quantifiable. Dans cette logique, les langues autochtones, les savoirs ancestraux, les récits situés et oraux sont réduits au silence, non par malveillance, mais par non-conformité ontologique : ce qui ne peut être modélisé est ignoré – à moins de faire de la promptification une ouverture, et non une réduction5.
Il ne s’agit pas ici d’un simple dysfonctionnement technique, mais d’un épistémicide systémique6 où non seulement les savoirs, mais aussi les manières de les interroger sont calibrés par ce que les modèles peuvent absorber. Ce n’est pas seulement une question de représentation, mais de possibilité ontologique : si une communauté n’a pas accès aux outils lui permettant de définir son propre avenir, alors cet avenir a déjà été écrit par d’autres. La décolonisation du savoir devient, dans ce contexte, une nécessité stratégique. Il ne s’agit pas d’ajouter de la « diversité » au système, mais de repenser le système lui-même : déconstruire les fondements cognitifs sur lesquels reposent les modèles actuels de connaissance et de prévision, afin de construire de nouveaux espaces épistémiques poreux et pluriels.
Ce processus implique une réécriture radicale de l’idée même de futur. Comme le rappelle Arturo Escobar (dans Escobar et al., à paraître), la modernité a imposé une monoculture hégémonique du développement, qui a colonisé non seulement les économies et les territoires, mais aussi l’imaginaire du possible. L’intelligence artificielle, si elle n’est pas interrogée de manière critique, risque de devenir le nouveau visage de cette monoculture : un mécanisme global de prédiction qui exclut, par principe, l’inédit, le discontinu, le différencié. En ce sens, la lutte pour la décolonisation cognitive n’est pas une lutte contre la technologie, mais contre sa réduction à un dispositif de contrôle épistémique. Il ne s’agit pas de rejeter l’IA, mais de lui redonner une fonction relationnelle et pluriverselle, qui ne nie pas la différence mais la fait résonner.
En définitive, ce qui est en jeu, c’est le droit de penser autrement. De produire des mondes qui ne se contentent pas de reproduire, sous des formes appauvries, les codes d’une culture hégémonique, mais qui incarnent la vitalité de cosmologies multiples. De parler des langues qui ne soient pas de simples moyens, mais des univers. De concevoir des technologies qui ne normalisent pas le monde, mais l’élargissent. D’imaginer des futurs qui ne soient pas calculés par des algorithmes prédictifs, mais découverts, explorés, créés. C’est là que la géopolitique du langage rejoint l’ontologie politique du futur. Et que la pensée redevient un geste de liberté créatrice.
4. L’intelligence artificielle comme dispositif d’homogénéisation sémantique et cognitive
Il n’est donc pas surprenant que l’intelligence artificielle soit aujourd’hui au cœur d’une guerre sémantique mondiale. Car ce que ces systèmes sélectionnent, codifient, suggèrent ou omettent ne concerne pas seulement le savoir, mais aussi le pouvoir. À l’ère des plateformes, où l’information circule à travers des algorithmes propriétaires, la technologie devient un dispositif idéologique : elle décide de ce qui mérite l’attention, de ce qui est rendu invisible, de ce qui semble neutre mais est profondément situé.
Dans ce contexte, le langage n’est donc pas seulement un moyen d’expression : il est un champ de lutte. Barbara Cassin (2014 : 25-36), philosophe du langage et de l’intraduisible, le rappelle avec force : chaque langue est une métaphysique, et toute réduction linguistique est une réduction ontologique. L’universalisme linguistique – incarné dans les modèles d’IA entraînés sur des corpus anglophones, dans la domination de la sémantique occidentale dans les classifications numériques, dans la standardisation lexicale des interfaces – produit une nouvelle forme de colonisation, non plus seulement des corps, mais des pensées, des images mentales, des futurs possibles7.
La question n’est plus « qui parle pour qui ? », mais « quels mots sont disponibles pour dire quoi, et à quel prix ? » Comme l’a souligné Achille Mbembe (2019), l’enjeu est l’accès à la production symbolique, à la capacité de nommer le réel8 : qui ne peut nommer, ne peut exister politiquement. Dans ce cadre, parler d’intelligence artificielle sans aborder la redéfinition épistémique et géopolitique du savoir revient à rester prisonnier d’un technicisme aveugle. Il faut un saut : une pensée qui ne cherche pas seulement à gouverner l’innovation, mais qui interroge les conditions mêmes du savoir9. Non pas une simple réforme des outils, mais une réécriture des grammaires cognitives, des formes de relation entre langage, corps, savoir et monde. Ce saut ne peut advenir sans un effort théorique radical, mais pas non plus sans le courage d’assumer le désordre, l’ambiguïté, l’imperfection comme conditions génératives. Car seule une intelligence capable de reconnaître ses propres limites peut s’ouvrir à l’inattendu. Et seul un savoir qui accepte sa propre partialité peut aspirer à une forme plus profonde d’universalité, non celle de l’abstraction, mais celle de la relation.
Dans le récit dominant, l’intelligence artificielle est souvent présentée comme un outil neutre au service de la connaissance, capable de simplifier l’accès à l’information et de démocratiser l’usage du savoir. Mais ce récit masque un paradoxe structurel : plus l’IA promet d’étendre l’intelligence humaine, plus elle tend à en réduire la portée sémantique. Les modèles de langage génératifs, tels que GPT, BERT ou LLaMA, reposent sur une logique purement statistique : ils sélectionnent le « mot le plus probable » en fonction de sa distribution dans les données. Cela signifie que ce qui est dit – et donc ce qui est pensé – résulte d’une moyenne computationnelle entre des énoncés préexistants. Le langage n’est plus une pratique créative, mais une fonction prédictive. L’intelligence n’est plus ouverture à l’inconnu, mais adaptation à ce qui est déjà prévisible.
L’homogénéisation produite par ces systèmes est d’autant plus risquée qu’elle est invisible. Elle ne s’impose pas par la censure, mais par la sélection implicite : ce qui n’émerge pas dans la prédiction n’est pas affiché, et ce qui n’est pas affiché perd de sa réalité. Comme l’a écrit Byung-Chul Han (2013), notre époque ne connaît plus la négativité : tout doit être fluide, performant, immédiatement consommable. L’intelligence artificielle s’inscrit parfaitement dans cette esthétique de la transparence fonctionnelle. Mais à quel prix ? Le prix est l’aplatissement de l’expérience humaine, la disparition du doute comme source de découverte, de l’ambiguïté comme ouverture sémantique, de l’ignorance comme condition générative de la pensée.
Ce n’est pas un hasard si de plus en plus de chercheurs – de Joy Buolamwini (2024) à Kate Crawford et al. (2014) – ont signalé l’effet colonisateur et homogénéisateur de ces systèmes. Ce que l’on présente comme de « l’objectivité » est en réalité le produit d’une longue chaîne de décisions normatives : depuis la définition des catégories pertinentes jusqu’à la sélection des données, la conception de l’architecture computationnelle et les objectifs économiques et stratégiques qui orientent le développement des technologies. L’illusion de neutralité ne naît pas dans les données, mais en amont : dans la vision du monde qui détermine ce qui mérite d’être observé, mesuré, modélisé (Xavier, 2025). Chaque algorithme porte en lui une métaphysique implicite ; chaque système prédictif présuppose une logique d’exclusion, ce qui échappe à ses paramètres devient invisible, insignifiant ou anormal. Ainsi, sous le masque de la précision technique, l’intelligence artificielle contribue à délimiter les frontières du pensable, en rigidifiant l’imagination collective dans des cadres préétablis.
L’enjeu, dès lors, ne consiste pas simplement à « inclure plus de données » ou à « éliminer les biais ». Il faut redéfinir la finalité même des modèles cognitifs, en déplaçant l’attention de la prédiction vers la possibilité, de la ressemblance vers la différence, de la récurrence vers la découverte. Ce n’est qu’à cette condition que l’intelligence artificielle pourra cesser d’être un dispositif de colonisation sémantique pour devenir un outil pluriel et transformateur. Il ne s’agit pas de lui demander d’imiter l’humain, mais d’en reconnaître les limites. Et de s’en servir pour restituer à la pensée son pouvoir le plus radical : celui d’imaginer l’inexistant.
5. La responsabilité éducative et la reconstruction du langage comme espace de résistance
Dans un monde où les modèles linguistiques génèrent en temps réel des textes, des synthèses, des argumentations, l’enjeu n’est plus la production de contenu, mais la capacité à interroger les codes mêmes avec lesquels ce contenu est construit. Cela exige un changement radical de paradigme éducatif : non pas une simple alphabétisation technique, mais une écologie sémantique ; non pas un entraînement à l’usage, mais une conscience métalinguistique ; non pas un apprentissage de l’adaptation, mais une capacité à produire des contre-récits créatifs.
Nous vivons une époque où le langage est de plus en plus évalué selon sa capacité à susciter une réponse immédiate. Les plateformes numériques fonctionnent selon des logiques de visibilité algorithmique qui privilégient ce qui provoque des réactions rapides – likes, commentaires, partages – au détriment de ce qui exige attention, réflexion ou complexité interprétative10. Cela enclenche un cercle vicieux : les contenus qui déclenchent des réactions obtiennent une exposition accrue, et les systèmes apprennent à promouvoir précisément ce type de langage qui a déjà démontré son efficacité en termes d’engagement11.
Les utilisateurs, à leur tour – consciemment ou non – modèlent leur communication pour se conformer à ces dynamiques, en accentuant les tonalités émotionnelles, les polarisations, les simplifications. Dans ce système autoréférentiel, ce qui est amplifié n’est pas nécessairement ce qui est pertinent ou fondé, mais ce qui est algorithmiquement rentable. C’est une économie de l’attention qui risque de produire des phénomènes de saturation sémantique et de désertification symbolique. Les mots risquent de se vider progressivement de leur sens, de se répéter, de devenir des automatismes. Dans ce contexte, éduquer au langage signifie avant tout reconnaître l’érosion du sens – et la combattre. Il n’y a pas d’avenir pour l’intelligence humaine sans une profonde re-signification de la parole (Turner, 2022).
Mais la question éducative ne s’arrête pas à l’école : elle concerne l’ensemble de l’écosystème communicationnel – médias, art, philosophie publique. Dans un monde où le discours est de plus en plus médiatisé par des modèles prédictifs, il faut repenser la parole comme un geste : un acte situé, irréductible, chargé de responsabilité. Comme le rappelle Derrida (1967 : 409-428), chaque parole véritablement nouvelle est une interruption du code – un accroc, et par conséquent une opportunité de déviation. C’est ce type de parole que l’éducation doit rendre à nouveau possible. Aujourd’hui, de nouveaux termes prolifèrent, souvent introduits par les plateformes elles-mêmes ou par des systèmes automatisés. Mais produisent-ils réellement du sens nouveau ? Ou ne sont-ils que des néologismes fonctionnels, imposés d’en haut, qui étendent le langage sans en élargir la pensée ? Comme l’observe Éric Sadin (2015), nous vivons une époque où les mots ne naissent plus de la confrontation, mais nous sont administrés, dans une inversion des flux et des hiérarchies décisionnelles. Des mots – et des réflexions – prédéfinis, standardisés, optimisés pour l’usage.
6. Au-delà de l’inclusion : vers un projet politique de pluralité épistémique
Dans le langage politique et académique contemporain, l’« inclusion » est devenue un mot d’ordre. Mais que signifie inclure dans un système dont les axes fondamentaux demeurent inchangés ? Qui est inclus, et à quelles conditions ? Et surtout : qu’advient-il de ce qui ne peut – ou ne veut – pas être inclus ? La logique de l’inclusion, si elle n’est pas repensée en profondeur, risque de devenir une forme d’assimilation symbolique, une tolérance décorative qui apprivoise les différences au lieu de les valoriser.
L’alternative ne réside ni dans un interculturalisme superficiel, ni dans une simple ouverture à la diversité : elle repose sur la construction d’un horizon épistémique pluriel, qui reconnaît la coexistence de multiples manières de connaître, de dire, d’interpréter et de transformer le monde. Une « pluriversité », comme l’appelle Escobar et al. (à paraître), qui n’est pas une addition d’épistémologies, mais leur enchevêtrement conflictuel et génératif.
Cette vision implique un geste théorique et politique profond : décentrer la modernité comme critère de validation du savoir, reconnaître les épistémologies indigènes, orales, relationnelles comme des formes autonomes d’intelligence. Il ne s’agit pas simplement de légitimer de nouvelles voix, mais de transformer les structures de légitimation, les critères à partir desquels nous décidons ce qui compte comme connaissance, ce qui est « scientifique », ce qui est « utile ». Les technologies – et en particulier l’intelligence artificielle – peuvent jouer un rôle décisif dans ce processus, mais seulement si elles sont radicalement repensées. L’IA ne peut plus être conçue comme un dispositif d’universalisation, mais comme une machine relationnelle, capable de refléter la complexité sans la réduire.
Cela signifie qu’il faut reconcevoir les modèles non pas pour les rendre « neutres » – une option ni cognitive ni techniquement tenable – mais pour les rendre hospitaliers à la différence, capables d’intégrer les contradictions, les voix en tension, les langages qui défient la codification (Bakiner, 2023 : 558-582 ; Vega et al., 2024 ; Rudschies, Schneider et Simon, 2021). Pourtant, la pluralité n’est pas seulement une question épistémique. Elle est aussi – et peut-être avant tout – une posture éthique et anthropologique. Elle suppose d’accepter qu’aucun savoir n’est totalisant, que toute vérité est située, et que l’intelligence humaine – à l’origine de l’intelligence artificielle, et toujours en interaction avec elle – se manifeste dans l’inachèvement, dans la capacité d’errer, d’écouter, de co-créer.
Conclusion : l’enjeu, c’est l’humain
Ce qui est aujourd’hui présenté comme un progrès inévitable est, en réalité, un choix historique. Derrière l’automatisation du langage, derrière l’efficacité prédictive des modèles, derrière la rationalisation du sens, se cache un enjeu bien plus vaste : l’avenir même de l’intelligence en tant que pratique humaine. L’intelligence artificielle n’est pas simplement une technologie parmi d’autres : c’est une machine culturelle, un dispositif de gouvernement du pensable, un nouveau seuil épistémique qui nous oblige à redéfinir non seulement ce que nous savons, mais qui nous sommes lorsque nous savons.
La question n’est plus de savoir si les machines peuvent, de manière vraisemblable, produire de la pensée. Elle est de savoir si nous, en tant qu’êtres humains, saurons encore en faire l’expérience de manière authentique – si nous saurons préserver un espace, en nous et autour de nous, où la pensée ne soit pas seulement réponse, calcul ou adaptation, mais aussi déviation, doute, création. Si nous saurons réapprendre, dans l’acte même de penser, la valeur nécessaire de la lenteur – non pas comme inefficacité, mais comme temps vital pour élaborer la complexité, remettre en question l’évidence, ouvrir des brèches dans le prévisible. Si nous saurons réhabiliter indétermination, même provisoire, et les zones de flou, d’incertitude, de non-savoir. À une époque où l’on fétichise la transparence algorithmique, reconnaître la valeur de l’ambiguïté – comme espace d’incertitude et de tension entre les possibles –, ainsi que celle de la partialité et de la complexité, devient un geste profondément politique. Comme nous l’a enseigné Carlo Ginzburg (2023), ce sont parfois les indices, les traces, les écarts qui révèlent plus que la règle. Et comme nous l’a rappelé Umberto Eco (2023), seule une pensée capable d’osciller entre ordre et désordre peut produire un savoir vivant.
Il ne s’agit pas de rejeter la technologie, ni d’en craindre la puissance. Il s’agit d’en interroger la téléologie : vers quelle idée du savoir, du langage, du monde nous dirigeons-nous ? Qui a le pouvoir de définir les métriques de l’intelligence ? Qui décide de ce qu’est une « erreur » ? Qui fixe les futurs modélisables, et ceux qui doivent rester hors du champ sémantique des machines ? Les réponses à ces questions ne sont pas techniques : elles sont politiques, culturelles, éthiques. Et elles sont urgentes. Parce qu’il ne s’agit pas seulement d’imaginer un autre usage de l’intelligence artificielle, mais de défendre la possibilité même de la pensée comme espace d’altérité. Dans un environnement où les modèles apprennent à généraliser, à lisser les différences pour produire des réponses cohérentes et immédiates, l’altérité nous rappelle que simplifier n’est pas un mal en soi ; c’est souvent nécessaire pour agir, décider, organiser. Mais lorsque cette simplification devient un filtre unique sur le réel, elle appauvrit la pensée. L’altérité, ce sont ces voix, ces récits, ces manières d’être qui ne rentrent pas dans les cases prédéfinies. C’est ce qui échappe aux catégories, interrompt l’évidence, déplace la logique de prédiction. C’est ce qui rend possible une co-intelligence : pas une fusion, mais une confrontation vivante entre des mondes qui ne se traduisent pas toujours.
Ce n’est qu’en reconnaissant cette altérité comme une valeur, et non comme un défaut, que nous pourrons construire un nouveau pacte épistémologique et technologique. Un pacte dans lequel l’intelligence artificielle ne soit pas une alternative à l’humain, mais l’occasion d’en redécouvrir la profondeur. Un pacte dans lequel le langage ne soit pas réduit à un signal, mais retrouvé comme événement. Un pacte dans lequel le savoir redevienne une pratique collective du monde, et non la simple réplique du passé.
Car le futur ne sera pas gouverné par ce qui peut être calculé, mais par ce qui reste imprévisible, par ce qui peut encore surprendre. Par cette marge d’indétermination où la pensée humaine s’ouvre à l’autre, au doute, au-delà de la limite usuelle du possible. Rester humain, ce n’est pas s’opposer à la technique, mais préserver en nous cette part qui échappe au modèle quand il prétend tout saisir, qui ne refuse pas la mesure mais en conteste l’absolu, qui résiste à ce qu’elle exclut.
C’est là, dans la tension potentielle de l’inachèvement, que pourra naître toute transformation.
