«Nous sommes les apprentis sorciers d’une nouvelle Tour de Babel, où chaque investissement est une brique montant vers un ciel que personne ne comprend plus ». La phrase que vous venez de lire a été écrite par DeepSeek, le concurrent chinois de ChatGpt.
Le Grand modèle de langage (Llm) réagissait à une invite autour de la frénésie des fonds d’investissement américains dans la construction de centres de données, le rachat des start-ups les plus prometteuses au monde, le recrutement à coup de millions de dollars des nouveaux talents de la Tech (surtout indiens). On l’a mis en condition en lui parlant aussi des comportements non rationnels de certaines entreprises de capital-risque installées dans l’escalade, « investir pour investir, investir pour ne pas faire moins que le concurrent ». La machine a donc écrit à notre place. En tant que sujet, qu’est-ce qu’un auteur perd en externalisant un processus mental comme l’écriture ?
Assurément, selon ce que dit la science, tout le bénéfice des « conversations » entre ses neurones, le gain des échanges d’informations entre ses systèmes nerveux et ses appareils moteurs ; il ne tirera donc pas profit de ce réseau dynamique où l’influx nerveux sculpte la pensée, la mémoire et l’action pour permettre à l’intelligence de se déployer. Comme un sportif qui sèche un entrainement. Un jour, deux jours, ça pourrait aller, mais sur le long terme, la suite serait classique : fin de carrière. L’auteur en question perd surtout le sentiment de paternité, cette incomparable sensation d’avoir contribué à l’avancement de la connaissance par le partage. Les journalistes, les chercheurs, les écrivains, les contributeurs, signent du reste leurs articles, travaux, romans ou essais par leur nom principalement pour cette raison. Pensez aux différences d’affection entre un fils biologique et un enfant adopté (Cf. le récit du « fils d’emprunt » dans la famille politique libérale au Sénégal).
En se déchargeant systématiquement sur les machines, l’auteur contracte une « dette » cognitive. Depuis quelques jours, le monde de l’IA est secoué par une étude* du prestigieux MIT (Boston – Usa) menée en 2024 et qui dit, grosso modo, que l’utilisation de ces nouveaux outils nous fait perdre notre… intelligence. Elle a étudié l’impact cognitif de l’utilisation de ChatGpt pour la rédaction de dissertations, en comparant ses effets sur l’activité cérébrale, la mémoire et la perception de la propriété intellectuelle à ceux observés lors de l’usage d’un moteur de recherche ou d’une rédaction sans aide extérieure. Les participants ont été répartis en trois groupes (ChatGpt, moteur de recherche, sans aide) et ont rédigé des dissertations lors de quatre sessions. L’activité cérébrale a été mesurée par électroencéphalogramme, puis les dissertations ont été analysées avec des outils de traitement du langage naturel (pour la compréhension, l’analyse et l’interprétation automatiques) ; elles ont ensuite été évaluées par des enseignants humains et par une autre IA dédiée. Résultats ?
Le groupe utilisant ChatGpt a montré « une connectivité neuronale plus faible, une moindre capacité à citer leurs propres textes et un sentiment réduit de propriété intellectuelle ». À l’inverse, le groupe sans aide a présenté » une activité cérébrale plus intense et une meilleure rétention des idées ». Et lorsque les participants habitués à l’IA ont dû rédiger sans assistance, leur performance cognitive n’a pas retrouvé le niveau du groupe sans aide initial, suggérant une forme de « dette cognitive » due à la dépendance à l’IA. Les chercheurs du MIT mettent en garde contre « les risques d’affaiblissement des compétences d’apprentissage et de pensée critique avec l’usage excessif des IA, tout en soulignant la nécessité de mieux comprendre leur intégration dans les environnements éducatifs ». Le paradoxe est que ces machines « intelligentes » ont besoin d’utilisateurs humains qui ont les mêmes facultés d’intelligence pour continuer à apprendre. Si penser devient optionnel, l’homme devient en jachère… samboudian.kamara@lesoleil.sn