Menu Fermer

ChatGPT, un agent colonialiste du monde vécu : une analyse habermasienne des conversations

par R. Martineau, E. Berlinski, F. Rowe
Big Data & Society 13 (1), 20539517261421473
https://journals.sagepub.com/doi/full/10.1177/20539517261421473

Résumé :

Les systèmes conversationnels basés sur l’IA générative (CGAIS), tels que ChatGPT, semblent capables de participer à des conversations avec une telle fluidité qu’il peut être difficile de les distinguer de celles d’un être humain. L’intégration des CGAIS dans tout comporte toutefois divers risques, notamment celui d’une colonisation du social par le biais des données. Dans cet article, nous nous intéressons à la colonisation d’un nouveau territoire : celui des conversations. Nous étudions donc la nature des conversations que les individus ont avec ces technologies. Selon Habermas, le domaine du communicatif est ce qui permet de partager et de construire un monde social commun, un monde vécu. Confondre le communicatif et l’instrumental menace la construction du monde vécu et, plus largement, notre démocratie. Nous explorons les propriétés techniques et conceptuelles des CGAIS et montrons qu’elles ne favorisent pas l’agir communicationnel. Au contraire, les CGAIS devraient rester confinées au domaine de l’agir instrumental. Pourtant, comme elles donnent l’impression d’appartenir au domaine du communicatif, nous les conceptualisons comme des agents colonialistes. Ils sont notamment des agents impérialistes, car ils sont de plus en plus utilisés pour toutes sortes d’activités au travail et dans les sphères privée et publique. Cela réduit l’espace dédié à l’agir communicationnel. De plus, ce sont des agents de déréalisation, car ils déforment la conversation en donnant l’illusion d’un agir communicationnel. En conséquence, ils menacent la co-construction d’un monde de vie commun, qui constitue le fondement de nos sociétés démocratiques.

L’utilisation de l’IA générative (IAG), telle que ChatGPT, se généralise et s’étend de la sphère professionnelle à la vie privée. De plus en plus utilisée comme aide à la réflexion, notre relation avec elle évolue : elle n’est plus un simple outil, mais devient un compagnon apparemment indispensable. Sa généralisation implique de profonds changements dans les interactions communicatives quotidiennes.

S’appuyant donc sur la théorie de la communication d’Habermas et sur une analyse des propriétés de l’IAG, cet article montre que les interactions avec l’IAG ne peuvent être qu’instrumentales. En effet, l’IA générative ne comprend pas une conversation, mais produit plutôt des phrases probabilistes : c’est un perroquet stochastique. On ne peut pas lui faire confiance, car elle est biaisée, ses affirmations changent au fil du temps et ne sont pas cohérentes. De plus, l’origine de ces biais ne peut être identifiée, car l’IA générative n’a pas conscience des fondements de ses jugements, puisqu’elle ne comprend pas ce qu’est un jugement.

Cela a de graves conséquences pour nos démocraties. En effet, les IA génératives envahissent progressivement l’espace de la communication co-constructive, ce qui signifie que les individus ont de plus en plus de mal à communiquer de manière non instrumentale. Les IA déforment les conversations et brouillent la frontière entre l’instrumental et le co-constructif. Pire encore, de plus en plus d’études font état de gains de productivité très limités et démontrent même des effets cognitifs négatifs. Nous appelons à tirer les conclusions qui s’imposent et à restreindre ces outils à des usages instrumentaux clairement délimités.