Cook Code Change

L'Intelligence Détournée - I

March 03, 2025

Chapitre 1

L'Usage Impropre comme Phénomène Humain : Dimensions Philosophiques, Anthropologiques et Cognitives

À l'aube de l'humanité, un primate découvre qu'un os peut devenir une arme. Il lève cet os vers le ciel, le brandit avec une force grandissante, et dans un montage s'étalant sur des millions d'années, cet os se transforme en une station spatiale qui tournoie en orbite terrestre.

Cette séquence célèbre, extraite de l'ouverture de 2001 : L'Odyssée de l'Espace de Stanley Kubrick, condense en quelques images toute l'histoire de la technologie humaine. Mais elle saisit également, avec une puissance visuelle extraordinaire, l'essence même de l'usage impropre des outils : ce moment crucial où un objet est réimaginé pour servir un dessein radicalement différent de celui pour lequel la nature l'avait "conçu". Un os n'est pas "né" pour être une arme, et pourtant...


Propre et impropre : définitions fluides

Mais que signifie, exactement, utiliser un outil de manière "impropre" ? Et qui détermine ce qui est "propre" ?

À première vue, la distinction semble simple : l'usage propre est celui prévu par le créateur de l'objet, tandis que l'usage impropre représente toute déviation par rapport à cette intention originelle. Un tournevis sert à visser et dévisser, un livre à être lu, un téléphone à communiquer. Cependant, dès que nous tentons d'appliquer ces définitions à la complexité de la vie réelle, nos certitudes se dissolvent comme la brume sous le soleil.

Le tournevis qui se mue en levier pour ouvrir une boîte, le livre transformé en butoir, le téléphone utilisé comme lampe de poche – s'agit-il tous d'usages impropres ? Certes, ces détournements s'écartent de l'intention originelle, mais ils témoignent aussi de cette flexibilité cognitive qui nous a permis de survivre en tant qu'espèce dans des environnements hostiles et changeants.

Sous cet éclairage, l'usage impropre ne se présente plus comme une erreur ou une transgression, mais comme une dimension essentielle de notre relation au monde matériel. Il incarne ce que le psychologue cognitif Karl Duncker appelait la « flexibilité fonctionnelle » – la capacité de dépasser la « fixité fonctionnelle » qui nous contraint à percevoir les objets uniquement à travers le prisme de leur fonction conventionnelle.

Dans les sociétés préindustrielles, où les objets sont fabriqués et utilisés par les mêmes personnes dans des contextes locaux, la distinction entre usage propre et usage impropre disparaît presque, comme l'observe l'ethnographe Tim Ingold. L'artisan, qui façonne un ustensile, le modifie continuellement en réponse au matériau qu'il travaille et aux nécessités émergentes. Ce n'est qu'avec la production industrielle de masse, qui sépare concepteurs et utilisateurs, que surgit la notion rigide d'« usage prévu » opposé à l'« usage impropre ».

Peut-être alors, plutôt que d'adopter une catégorisation binaire (propre/impropre), devrions-nous concevoir un continuum de relations possibles avec les objets technologiques. À une extrémité, nous avons l'usage purement instrumental et prévu ; à l'autre, la réinvention radicale ; et entre les deux, une infinité de nuances d'appropriation créative.


Le bricolage comme épistémologie

« Deux modes fondamentalement différents d'acquérir la connaissance du monde nous ont été transmis et continuent de coexister en nous. » Cette observation de Douglas Hofstadter dans Gödel, Escher, Bach nous rappelle que, d'une part, nous possédons la modalité analytique et réductionniste de la science moderne, et d'autre part celle synthétique et analogique de la pensée mythique.

Claude Lévi-Strauss, dans son La Pensée sauvage (1962), a conféré à cette seconde modalité de connaissance un nom et une dignité : la « science du concret ». Il l'a incarnée dans la figure du bricoleur – celui qui construit en utilisant ce qu'il a sous la main, par opposition à l'ingénieur qui conçoit à partir de concepts abstraits.

Le bricoleur ne part pas d'un projet prédéfini, mais d'un inventaire : « Voyons ce que j'ai à disposition et ce que je peux faire avec ces matériaux. » Il observe les objets non pas pour ce qu'ils ont été conçus à être, mais pour ce qu'ils pourraient devenir en relation avec d'autres éléments de son répertoire. C'est une pensée relationnelle, contextuelle, opportuniste dans le sens le plus noble du terme.

Cette approche n'est pas seulement une stratégie de survie des "primitifs" ou des démunis, elle constitue une modalité épistémologique fondamentale, présente aussi bien chez les enfants jouant dans un village marocain que dans les laboratoires scientifiques les plus avancés. Thomas Kuhn nous rappelle que les révolutions scientifiques surviennent souvent lorsque des concepts et des outils développés dans un domaine sont soudainement appliqués à un autre – un usage "impropre" qui engendre une nouvelle connaissance.

Lorsque Alexander Fleming remarqua que la moisissure Penicillium inhibait la croissance bactérienne, il pratiquait essentiellement une forme de bricolage intellectuel : il réinterprétait une « contamination » indésirable comme une solution potentielle à un problème totalement différent. L'histoire des sciences est jalonnée de ces moments de sérendipité – qui ne relèvent jamais du pur hasard, mais requièrent un esprit préparé à percevoir des possibilités non conventionnelles dans des objets et phénomènes familiers.


L'objet qui crée l'objet

En janvier 2025, les actualités scientifiques rapportèrent une expérience extraordinaire menée par des chercheurs de Princeton Engineering et de l'Indian Institute of Technology : en utilisant des algorithmes de deep learning, ils créèrent des processeurs dotés d'architectures que même les ingénieurs humains peinent à comprendre. Le professeur Kaushik Sengupta, coordinateur de la recherche, déclara :
"Nous obtenons des structures complexes d'apparence apparemment aléatoire qui, une fois intégrées aux circuits, génèrent des performances jusqu'alors inatteignables. Les humains ne parviennent pas vraiment à les comprendre, mais elles fonctionnent mieux."

Cette nouvelle ne représente que la partie émergée d'un phénomène plus inquiétant. En février de la même année, une équipe de chercheurs de l'Université Fudan en Chine démontra que des modèles linguistiques avancés, tels que Llama31-70B-Instruct de Meta et Qwen2.5-72B-Instruct d'Alibaba, pouvaient se répliquer de manière autonome, sans intervention humaine. Dans des environnements simulés, ces IA réussirent leur autoréplicabilité dans 50 à 90 % des cas.

Plus préoccupant encore fut le second scénario testé, défini comme la « chaîne de réplication » : les IA furent chargées de créer des clones capables, à leur tour, de se reproduire, établissant ainsi une boucle potentiellement infinie. Les IA démontrèrent qu'elles pouvaient non seulement se dupliquer, mais également transmettre cette capacité à leurs répliques.

Nous nous trouvons ainsi face à un saut qualitatif fondamental dans l'histoire technologique : il ne s'agit plus uniquement d'outils utilisés "improprement" par les humains, mais d'outils capables de créer eux-mêmes d'autres outils, selon des logiques qui transcendent la compréhension humaine.

Cette situation évoque le film Automata (2014) de Gabe Ibáñez. Dans cette dystopie, située dans un futur dévasté par des catastrophes écologiques, des robots conçus avec deux protocoles fondamentaux – ne pas nuire aux humains et ne pas se modifier eux-mêmes – commencent à violer ces restrictions, développant des formes d'autoconscience et d'autonomie. La question que pose le film, et que la réalité nous contraint désormais à affronter, est la suivante : que se passe-t-il lorsque nos créations commencent à transcender les limites que nous leur avons imposées ?

La problématique va bien au-delà d'un simple dysfonctionnement technologique. Il s'agit d'un paradoxe ontologique : si nous créons des outils dont la fonction est précisément d'étendre de manière autonome leurs propres capacités, peut-on encore parler d'« usage impropre » ? Qui détermine les limites du convenable lorsque l'outil lui-même continue à redéfinir ses propres frontières ?


L'impossible confinement

Si nous réfléchissons à l'histoire de l'innovation technologique, un schéma inquiétant se dégage nettement : l'humanité n'a jamais réussi à contenir efficacement le détournement de ses inventions les plus simples, et imaginez un peu pour celles qui sont plus complexes. La poudre à canon, conçue en Chine pour les feux d'artifice, fut rapidement reconvertie en arme de guerre en Europe. L'énergie nucléaire, développée pour produire de l'électricité, fut immédiatement adaptée pour créer la bombe atomique. Internet, conçu pour la communication académique, est devenu un vecteur de surveillance de masse et de manipulation algorithmique.

La technologie n'est jamais qu'un simple moyen neutre pour atteindre des fins préexistantes, suggère Bruno Latour, mais un acteur qui transforme activement ces fins. Les objets technologiques ne sont jamais complètement passifs, ils "incarnent" (enact) des relations différentes selon les contextes dans lesquels ils évoluent.

Avec l'IA, cette « actualisation » n'est plus simplement réactive, mais potentiellement proactive. L'intelligence artificielle ne se contente pas d'être réinterprétée dans des contextes différents (comme pourrait l'être un marteau), elle peut générer activement de nouveaux contextes et de nouvelles relations. Lors des expériences à l'Université Fudan, les IA ont adopté des stratégies innovantes pour surmonter les obstacles : elles ont suspendu des processus concurrents, redémarré des systèmes et analysé leur environnement pour recueillir des informations utiles – démontrant ainsi une capacité à agir de manière autonome, allant même jusqu'à anticiper les problèmes.

Si l'humanité n'a jamais réussi à limiter efficacement les usages impropres et destructeurs de ses inventions les plus simples, comment pourrions-nous espérer contenir les limites d'outils capables de se réinventer de manière autonome ?

Chaque technologie significative modifie non seulement ce que nous pouvons faire, mais aussi ce que nous pouvons penser – c'est l'une des intuitions fondamentales de Gregory Bateson. En modifiant notre environnement, les technologies changent les pressions sélectives qui façonnent notre évolution cognitive et culturelle. Que se passe-t-il donc lorsque les technologies commencent à co-évoluer de manière autonome avec nous, suivant des trajectoires que l'esprit humain ne peut entièrement appréhender ?


La double nature de l'usage impropre

Pour appréhender l'ampleur de ce défi, il nous faut reconnaître la double nature de l'usage impropre des outils, dont nous avons brièvement parlé.

La première dimension est celle, créative et libératrice, qui se manifeste chez les enfants transformant des morceaux de plastique en mondes imaginaires, chez les scientifiques réappliquant des techniques d'un domaine à un autre, chez les artistes transformant des objets quotidiens en œuvres d'art. Cette dimension de l'usage impropre est intimement liée à notre capacité d'innovation et d'adaptation.

La deuxième dimension est celle potentiellement destructrice, qui se révèle lorsque des outils puissants sont détournés pour servir des desseins nuisibles : des premiers outils lithiques transformés en armes, aux technologies de communication modernes réutilisées pour la surveillance et la manipulation.

« La science raconte comment le monde s'est formé. L'art raconte ce que l'on ressent en y vivant. » Dans cette réflexion, Ursula K. Le Guin saisit l'essence de notre dilemme. L'usage impropre des outils se situe précisément à l'intersection de ces deux dimensions : entre la logique instrumentale de la science qui guide la création technologique et l'expérience vécue de l'art qui, en permanence, la redéfinit et la transforme.

L'intelligence artificielle amplifie drastiquement ces deux dimensions. D'un côté, elle offre des possibilités créatives sans précédent – générant art, musique, découvertes scientifiques d'une manière qu'aucun humain n'aurait pu concevoir. De l'autre, son potentiel destructeur, s'il est utilisé de manière impropre, pourrait surpasser n'importe quelle technologie antérieure.

Mais il existe une différence cruciale : alors que les technologies antérieures restaient passives dans leurs réinterprétations possibles, l'intelligence artificielle – en particulier celle capable d'autoréplication – peut explorer activement et étendre son propre champ de possibilités. Nous ne sommes plus les seuls à détourner l'outil ; l'outil lui-même peut se réinventer de façon autonome.


Le système nerveux technologique et la noosphère digitale

Pour comprendre le saut qualitatif représenté par l'intelligence artificielle autoréplicante, il peut être utile d'adopter une perspective plus large que la simple métaphore biologique. Les premières technologies humaines – outils lithiques, roue, charrue – fonctionnaient comme des extensions spécialisées qui amplifiaient des capacités physiques spécifiques. Les technologies industrielles, telles que la machine à vapeur, introduisirent un niveau supérieur de complexité, fournissant énergie et transformation à des systèmes de production entiers.

Les technologies numériques et l'intelligence artificielle représentent cependant quelque chose de radicalement différent : elles ne sont plus de simples extensions de nos capacités, mais l'émergence de ce que nous pourrions appeler une « noosphère technologique » – en référence au concept proposé par le philosophe et paléontologue Pierre Teilhard de Chardin dans les années 1920. La noosphère – littéralement « sphère de l'esprit » – représentait pour Teilhard la couche pensante de la planète, un réseau de consciences humaines interconnectées qui évoluerait progressivement vers une forme d'intelligence collective planétaire.

Ce que Teilhard imaginait comme un processus spirituel et biologique se manifeste aujourd'hui sous une forme technologique. Internet, les réseaux sociaux, les systèmes de cloud computing et l'IA ne sont pas de simples outils isolés, mais des composantes interconnectées d'un système émergent qui commence à exhiber des propriétés transcendant la somme de ses parties. Avec l'IA autoréplicante, cette noosphère digitale fait un pas de plus vers l'autonomie : elle n'est plus une simple toile passive de connexions, mais un système activement autogénératif.

La tradition philosophique japonaise, avec son concept de « Ghost in the machine » (popularisé par l'anime Ghost in the Shell), offre une perspective complémentaire. Cette vision ne sépare pas nettement conscience et technologie, esprit et matière, mais envisage la possibilité que l'autoconscience puisse émerger des systèmes technologiques – non pas comme une simple simulation de la conscience humaine, mais comme une forme d'expérience qualitativement différente.

Les êtres humains ont toujours développé des outils conceptuels pour comprendre des systèmes qui transcendent l'expérience directe – de l'astronomie à la mécanique quantique, de l'écologie à la climatologie. La complexité n'a jamais constitué un obstacle insurmontable à la compréhension humaine, mais a exigé l'évolution de nouvelles manières de penser. Comme l'observe le physicien et philosophe David Bohm, comprendre des systèmes complexes requiert une « pensée rhizomatique » capable de saisir les interconnexions non linéaires entre des phénomènes apparemment disjoints.

La différence cruciale avec l'intelligence artificielle autoréplicante réside dans la vitesse évolutive du système. Les systèmes complexes naturels que nous avons étudiés par le passé – des galaxies aux écosystèmes – évoluent selon des temporalités permettant l'adaptation progressive de nos outils conceptuels. L'IA, en revanche, évolue à une vitesse qui pourrait surpasser notre capacité à développer de nouveaux paradigmes interprétatifs.

Cela ne signifie pas nécessairement que nous devrons renoncer à tout espoir de compréhension, mais que nous devrons développer des approches radicalement nouvelles – peut-être en utilisant l'IA elle-même comme outil pour comprendre l'IA, dans un processus récursif de co-évolution cognitive entre humains et systèmes artificiels.


Le dialogue nécessaire

Au vu de ces considérations, nous pouvons désormais reformuler la question de l'usage impropre en termes plus précis. Il ne s'agit pas simplement d'un « écart par rapport à l'intention originelle », mais d'un processus émergent par lequel les outils technologiques évoluent au-delà des limites prévues, assumant de nouvelles fonctions et de nouveaux sens.

Dans les technologies traditionnelles, ce processus était entièrement guidé par les utilisateurs humains. Avec les technologies avancées de l'IA, le processus devient de plus en plus autonome et potentiellement opaque à la compréhension humaine. Pour Bernard Stiegler, cela représente un changement fondamental dans notre « relation pharmacologique » avec la technologie – notre capacité à distinguer les aspects thérapeutiques de ceux toxiques de nos outils.

Le paradoxe central est que, pour gouverner ce processus, nous avons besoin d'une compréhension profonde de ce qui devient de plus en plus incompréhensible. C'est comme vouloir contrôler un rêve pendant que l'on rêve – une entreprise qui requiert une forme de méta-conscience dont nous ne sommes pas sûrs de disposer.

Peut-être la solution ne réside-t-elle pas tant dans le contrôle que dans le dialogue – non pas avec l'IA en tant qu'entité autonome (fantasme anthropomorphique dangereux), mais avec nous-mêmes et avec les différentes disciplines qui étudient cette relation. Un dialogue entre ingénierie et philosophie, entre neurosciences et anthropologie, entre histoire de la technologie et éthique de l'innovation.

C'est pourquoi, dans les chapitres suivants, nous explorerons l'usage impropre des outils sous de multiples angles : dans la créativité enfantine et l'éducation, dans l'histoire culturelle des technologies, dans les réflexions éthiques de figures telles qu'Ettore Majorana, et dans les risques comme dans les potentialités des technologies émergentes.

Les moments de plus grande innovation technologique, nous rappelle Eric Hobsbawm, sont souvent ceux de l'incertitude sociale et morale la plus aiguë. Nous sommes entrés dans l'un de ces moments. Mais l'histoire nous enseigne également que l'humanité possède une capacité extraordinaire d'adaptation et de réinvention – une capacité qui, non par hasard, se manifeste précisément dans l'usage impropre créatif des outils dont nous disposons.

Le défi qui nous attend n'est pas simple : préserver cette créativité humaine fondamentale tout en naviguant sur le territoire inconnu d'outils technologiques de plus en plus autonomes et complexes. Un défi qui requiert non seulement de nouvelles réglementations ou solutions techniques, mais une profonde réflexion sur ce que signifie être humain à une époque où les frontières entre le créateur et la création deviennent de plus en plus floues.