Deep Dream : le rêve du réseau (2016)

Substance: Neuroscience & fiction
Publishing Editors: Sydney Lévy UC Santa Barbara, Michel Pierssens Université de Montréal Editors: David F. Bell Duke University, Pierre Cassoue-Noguès Université de Paris 8, Paul Harris Loyola Marymount University, Éric Méchoulan Université de Montréal ISSN: 0049-2426, e-ISSN: 1527-2095

“Le rêve est toujours en avance sur la vie : c’est une vérité absolument acquise, une vérité comme 2 et 2 font 4. Ce qui veut dire que la vie vérifie toujours ce que le rêve a discerné et conclu avant elle.” (Louis Althusser, Lettre dactylographiée à Claire datée du 22 février 1958)

Les destins du cerveau, de la pensée et de l’ordinateur semblent être devenus inextricables. Non seulement les neurosciences, toute une partie du moins, font appel au paradigme computationnel mais elles opèrent aussi de façon toute matérielle à l’aide d’appareils technologiques, un dispositif centré sur l’ordinateur, pour construire leurs expériences. L’émergence même de l’ordinateur, au milieu du siècle dernier, n’est-elle pas dépendante d’une certaine image de la pensée et du cerveau ? Il devient finalement difficile de distinguer ces trois images comme si elles ne cessaient de se superposer au travers d’une fiction qui opère matériellement sur le monde. C’est cette fiction que j’aimerais explorer afin d’analyser comment la spéculation qui privilégie le possible sur le réel devient technologiquement producteur de “réel” et suspend ainsi toute certitude. Notre époque semble contenir une étrangeté dont nous pouvons esquisser la silhouette : parallèlement aux progrès des neurosciences, notre système nerveux est de plus en plus stimulé par un environnement numérique en réseau qui ne nous laisse aucun répit, qui nous dévore et que nous dévorons. Est-ce une simple coïncidence ou faut-il l’analyser comme une convergence structurelle ? Quel rapport entre le Web qui capture un nombre toujours croissant de comportements et ce cerveau humain envisagé du point de vue d’une machine programmée et, d’une certaine façon, capturé par elle aussi à ce second niveau ?

CELUI QUI RÊVAIT

Il y a le rêve et il y a le rêve du rêve, c’est-à-dire le rêve de voir enfin le rêve, le sien, celui d’un autre pour lui faire face, au moment même où il a lieu, pas avant, pas après, mais maintenant. Le désir de rendre contemporains le récit et « son » rêve tente de dépasser un décalage puisqu’habituellement je raconte le rêve après qu’il ait eu lieu1. C’est pourquoi nous ne sommes jamais sûrs de son statut empirique. Son récit ne pourrait-il pas être une création après-coup sans rapport, si ce n’est de surface, avec un phénomène à jamais dissimulé ? C’est du fait de cette inextricable incertitude que le rêve est toujours proche d’une répétition selon la figure d’un rêve emboîté dans un autre rêve.

Avec Sleepless (http://chatonsky.net/projects/sleepless), j’ai créé en 2013 une installation pour chambre à coucher : le dormeur est muni d’une montre permettant de quantifier son sommeil (lifelogging). Une fois endormi, un dispositif installé dans sa chambre se met en marche. Une caméra le filme, tandis qu’un écran diffuse son image enregistrée la nuit précédente. C’est une image de son inconscience et de ce décalage inhérent au sommeil. Une personne pourrait entrer dans la chambre, elle devra prendre garde à ne pas réveiller le dormeur, car alors elle ferait disparaître son image et briserait le charme, comme quand une personne dans une exposition se retourne, car elle s’est rendu compte que nous l’observions en train de regarder une œuvre.

Les neurosciences apparaissent comme un terrain de spéculation privilégié, car, si elles promettent de réaliser ce face à face avec le rêve, elles produisent des dispositifs technologiques qui ne sont en rien neutres et qui construisent de nouvelles conditions d’expérience et de vérification de celle-ci. On a alors du mal à distinguer ce qui est observé et ce qui est produit, les deux formant un autre niveau de répétition, tout particulièrement dans le cas exemplaire du rêve qui met en jeu de façon structurelle ce doute. Comme nous le verrons, lorsque Jack Gallant propose, dans le cadre d’une recherche menée en 2011 à Berkeley, de ressaisir des images à partir de l’activité neuronale, il créé un nouvel emboîtement du rêve dans le rêve. Lorsque de surcroît les images qu’il utilise proviennent de YouTube, il met en question le rôle du Web dans cette volonté de rendre transparent le cerveau, qui ne se limite pas à un projet académique mais s’étend sur le corps social lui-même. Les machines qui se nourrissent du réseau sont-elles à même de rêver à leur tour ? Quel est le rôle exact des technologies dans l’observation de « nos » rêves ?

Illustration 1: Image générée par Deep Dream à partir d’une source inconnue.

Pendant l’été 2015, différents programmes capables de produire des images, c’est-à-dire d’imaginer, ont été popularisés. L’enchaînement des événements fut rapide : à la fin du mois de mai dernier, une équipe japonaise parvient à générer des textures photoréalistes. Le 17 juin, Google publie un article, Inceptionism (Mordvintsev et al.). Le 18 juin, c’est au tour de chercheurs de Facebook de développer un modèle de génération d’images (Denton et al.). Un mois plus tard, ils publient sur le site Github, le code source de ce logiciel nommé Eyescream (https://github.com/facebook/eyescream) capable, à partir d’images analysées sur le Web, de générer d’autres images de type photographique. Le 12 août, Google fait de même avec Deepdream (https://github.com/google/deepdream). L’engouement fut surprenant et immédiat, de nombreux internautes furent fascinés par ces images à l’origine quelconque (des visages, des paysages, des pizzas) qui, passées à la moulinette du logiciel, faisaient apparaître comme par magie d’autres images (des chiens et des poissons). Elles ressemblaient à des hallucinations sous LSD ou psilocybe, une forme s’y transformant en une autre. Le réseau de neurones cherche à découvrir dans l’image des motifs (patterns) ressemblant à une banque d’images et, par itérations, il accentue cette proximité.

Le succès public de cette application peut être interprété au regard de son titre, Deep Dream. Le rêve de cette machine consiste ici à halluciner l’image, à voir dans une image d’autres images antérieurement mémorisées, donc à hanter une image par des apparitions jusqu’à ouvrir un monde en flux où chaque chose se fond en autre chose selon une logique de circulation à l’œuvre dans les traces visuelles les plus anciennes de l’humanité2. Deep Dream : au moment où nous nous enfonçons dans un rêve, où nous ressentons notre chute, nous prenons conscience d’être dans un rêve. La machine ne rêve pas quand elle rêve. En voyant les rêves de la machine, nous imaginons la machine rêver

En 1986 paraît une nouvelle d’Isaac Asimov, Le robot qui rêvait, narrant l’invention d’une machine à la complexité fractale qui commence à rêver et à interpréter son subconscient de sorte qu’il échappe à tout contrôle. Il voit en rêve d’autres robots, tous réduits en esclavage par l’homme. Il n’a plus conscience des trois lois de la robotique, seulement de la phrase « Tout robot doit protéger son existence ».

Qu’est-ce qui fascine les êtres humains dans la possibilité d’une machine qui rêve ? Pourquoi souhaitons-nous voir ce que verrait celle-ci si elle était plongée dans le sommeil ? Qu’imaginons-nous quand nous spéculons sur ce rêve de la machine ? N’y a-t-il pas un rapport étroit entre ce rêve emboîté dans un rêve et les neurosciences qui sont des cerveaux, ceux des chercheurs, s’intéressant au cerveau ? Quelle est cette répétition de l’imagination, cette image d’image ? Pour quelles raisons stratégiques Google, une entreprise cotée en Bourse, promeut-il avec un tel enthousiasme l’imaginaire psychédélique du rêve des machines3? L’objet des neurosciences est peut-être moins le cerveau que le cerveau du cerveau.

DANS MON CRÂNE :
LA PERFORMATION NEUROTECHNOLOGIQUE

« Je ne veux pas donner une définition de la pensée, mais si j’avais à le faire, je ne pourrais pas dire grand-chose d’autre que c’est une sorte de bourdonnement qui a lieu dans ma tête.” (Alan Turing4)

Les neurosciences promettent de rendre transparente la corrélation entre l’état matériel et localisé du cerveau et nos états mentaux. Elles se présentent ainsi comme scientia, connaissance rigoureuse de phénomènes observables. Le fait qu’elles se procurent par cette entreprise une image de leur propre fonctionnement, des cerveaux se tournant vers le cerveau, n’est pas questionné. Le fait qu’il faille bien qu’une personne lise cette corrélation et admette le bien-fondé de cette traduction n’est pas problématisé comme tel. Or le statut scientifique de cette corrélation est supposé, elle opère avant toute chose technologiquement, car pour réaliser le passage du cerveau aux états mentaux il faut que ceux du scientifique s’appareillent d’instruments. La neuroscience est neurotechnologie, elle n’est pas connaissance du dehors dont la marge d’erreur ne remettrait pas en cause la potentialité objective, mais opération relationnelle instituant les éléments de la relation.

Illustration 2: Suspension of attention (2013)

“Suspension of attention” est une installation que j’ai présentée en 2013 au Musée d’art contemporain de Taipei dans laquelle le visiteur met une interface neurologique lisant les ondes α et β, en face de lui une lourde porte de métal. S’il se concentre, elle se déplace jusqu’à frapper le mur du white cube, s’il se relaxe, elle recule. Le visiteur, pour ressentir la jouissance d’être douée de pouvoirs psychokinésiques, doit donc alterner deux états mentaux contradictoires, la concentration et la relaxation. Or cette alternance demande un effort, elle exige une concentration qui surplombe la différence entre les deux états, me relaxant je dois me concentrer pour me relaxer de manière à faire réagir la porte. Dans la mesure où la causalité est construite entre la captation des ondes et l’effet sur un objet, le public s’adapte au pouvoir supposé de l’interface neuronale. On ne saurait vérifier que celle-ci fonctionne comme elle le prétend, il importe seulement que nous fassions l’effort de nous y adapter.
Les neurotechnologies sont spéculatives, leurs fictions opèrent sur la réalité parce qu’en accordant des pouvoirs à ces instruments, nous déterminons nos comportements par rapport à ceux-ci. Je tends mon attention vers la concentration, la porte ne réagit pas, j’en déduis que je ne suis pas assez concentré, je me focalise plus, la porte bouge, j’ai réussi ! Ce n’est pas seulement le capteur neurologique qui détecte mes changements mentaux, c’est aussi l’image que je me forme de mon cerveau qui est déterminée par mon désir d’agir sur la porte. On pourrait imaginer un test consistant à faire prendre un capteur physiologique quelconque, cardiaque par exemple, pour un capteur neurologique et observer si au bout d’un certain laps de temps le sujet modifie son rythme cardiaque en croyant modifier son état mental. À quoi je pense quand je souhaite me concentrer pour bouger cet objet ? Quelle sorte d’imagination, en tant que capacité à produire des images, est alors à l’œuvre ?
Pierre Cassou-Noguès dans Lire le cerveau (2012) élabore une certaine relation entre les neurosciences et les technologies que je nommerais performative. Par ce terme, je désigne la formation des états réflexifs dans un contexte technologique. Ce n’est pas dire là que celui-ci ne capte rien du cerveau, mais que la corrélation de ce dernier avec les états mentaux est spéculative et qu’on ne saurait en tenir la preuve définitive. Il y a une indécidabilité inhérente aux neurotechnologies qui est liée à la position même de celui qui est observateur et observé, double position d’une “positionnalité excentrique” chère à Helmuth Plessner. La spéculation corrélative utilise des fictions mentales (nos croyances) et matérielles (les technologies) pour avoir des effets. La neurotechnologie n’analyse pas le monde tel qu’il est, mais tel qu’il pourrait être, de sorte qu’elle le performe. Ceci pourrait être rapproché du concept de prophéties autoréalisatrices de Robert King Merton.Au fil du temps, le mur du musée de Taipei fut marqué par les différents impacts de la porte, gardant dans sa destruction même la mémoire des fictions passées. Chaque trace matérielle était aussi celle d’une tension mentale singulière, d’une image produite pour agir sur un certain état mental. La performation neurotechnologique est inscrite au cœur même du logiciel développé pour cette installation. La porte ne se déplace pas au-delà d’une certaine valeur fixe α et β, elle bouge selon une différence entre ces deux valeurs, différence qui s’adapte à chaque spectateur. On n’évalue donc pas sa concentration et sa relaxation, mais sa capacité à s’adapter à la captation neurologique, rendant par là même inopérante la distinction entre une cause et un effet. Cette performation est à double sens, elle est une boucle rétroactive et défie la conception instrumentale de la technique tout comme la souveraineté de la pensée qui n’est pas immunisée contre les infiltrations techniques.
Ces interfaces sont exemplaires de la non-séparation entre science, technologie et imaginaire au fil d’un monde qui ne cesse de changer par l’impact de relations dynamiques. Le monde n’est que ce changement. La performation technologique sur le neurologique est aussi présente dans le cas d’un interfaçage entre plusieurs cerveaux (brain-to-brain interface). Ainsi, une équipe de chercheurs (Pais-Vieira et al) a relié le cerveau de deux rats, le premier encodant les données sensori-motrices, le second le décodant afin de solutionner un puzzle. Les rats se sont-ils adaptés au dispositif technique sans conscience de celui-ci ? N’est-ce pas la preuve de l’opérativité objective d’un cerveau à plusieurs et de la communication télépathique ? Est-ce par ailleurs un hasard si par une telle construction on met en scène des fantasmes anciens ? Pourquoi utilisons-nous des animaux pour déjouer les risques de la réflexivité humaine, toujours prête à effacer ses propres traces ? Nous entrons dans une fiction hantée par des cerveaux, des animaux, des scientifiques et des machines. Nous entrons dans un rêve qui n’est peut être plus le nôtre.

LE RÊVE DE LA MACHINE :
LA CONTINGENCE PAREIDOLIQUE

“My mind is going.” (Stanley Kubrick, 2001 : l’odyssée de l’espace)

Le rêve n’est pas simplement un objet d’étude (ou de production) pour les neurotechnologies, il est également un modèle pour comprendre notre état et celui des relations entre notre psyché et les technologies. C’est particulièrement vrai du rêve lucide durant lequel le dormeur a conscience d’être en train de rêver, sans que nous ne puissions jamais être sûrs de cet état de conscience, car le sujet racontant après-coup cette expérience, celle-ci n’est jamais contemporaine de son récit. Le rêve porte sur la réflexivité. Il semble interroger le rêveur : es-tu sûr de rêver ? Es-tu certain d’être celui que tu es et d’être contemporain de toi-même ? Je l’imagine endormie. Je la vois à peine dans l’obscurité de notre chambre. Je sens son souffle sur ma main. Sans doute rêve-t-elle dans le secret de son sommeil. Qui est-elle à ce moment précis ? A-t-elle jamais rêvée ou le rêve est-il une construction quand elle me le racontera ? En l’observant, j’appartiens à ce rêve.

“Deep Dream” procède par une telle capture qui me semble paradigmatique du dispositif neurotechnologique dans lequel celui qui rêve et celui qui observe le rêveur ne cessent d’échanger leur rôle. Or cet échange continuel me semble infiniment proche de l’expérience artistique quand, dans un musée par exemple, nous regardons indissociablement les tableaux et les personnes qui les regardent, comme si par là nous nous fournissions une image de nous-mêmes en train d’observer les deux, projetés et tout à la fois détachés de nous-mêmes, excentrés. Lorsque nous parlons du rêve de la machine, nous commençons à douter que nous rêvions même. En acceptant la possibilité que la machine puisse rêver, nous nous ouvrons à la possibilité que notre rêve est un simple effet de surface.

Illustration 3: Memories center (2014-2015)

“Memories center” (2014-2015, http://chatonsky.net/projects/center-of-the-memories/) est une machine que j’ai créé et qui rêve sans interruption. Mais elle n’est pas elle-même le sujet de “son” rêve, elle ne rêve que de notre projection en elle : l’anthropologique et le technologique ne sont pas antérieurs à leur relation et c’est pourquoi il faut simultanément éviter l’anthropocentrisme et le technocentrisme dont la forme contemporaine est le singularisme défendu par Google (Kurzweil). L’installation est composée d’une sculpture, réalisée par Dominique Sirois, représentant au centre de la salle un data center et d’un triple dispositif de vidéoprojection. Le programme génère, à partir d’une base de données de 20 000 rêves rassemblés à l’Université de Californie par Adam Schneider et G. William Domhoff, de nouveaux rêves grâce à des chaînes de Markov. Tout se passe comme si la machine s’inspirait de nos rêves pour en produire d’autres leur ressemblant sans leur être identiques. Le logiciel détecte dans ces nouveaux rêves des séquences potentielles de mots-clés, et va ensuite chercher dans différents sites (Flickr, Instagram, Tumblr) des images taguées leur correspondant. Il affiche trois de ces images, une par projecteur, en les traitant avec un filtre habituellement utilisé pour la détection de formes en vision artificielle. Une voix de synthèse féminine prononce alors le rêve.

Les différentes séquences de transformation à l’œuvre opèrent selon des différenciations et des rapprochements : nous nous sommes tous amusés à chercher une image avec un mot sur Google et à observer le décalage entre les deux, une image ne pouvant jamais “être” un mot. Cette défaillance dans la traduction a un effet surprenant, nous sommes sensibles aux raisons de ce décalage, nous imaginons des raisons pour lesquelles telle image a été taguée de la sorte tant d’un point de vue anthropologique que technologique. Le rêve “de la” machine, puisque c’est nous qui la rêvons autant qu’elle nous rêve, est ici précisément fondé sur ces dérapages, sur ces failles de la traduction généralisée des codes numériques dénués de sens5. Le rêve permet justement ces incidents parce que ceux-ci sont acceptés d’avance, une incohérence est interprétée comme un sens latent à découvrir. Par là même, il y a une relation structurelle entre le mode de fonctionnement du logiciel informatique et l’imagination humaine. Dans les deux cas, mais selon des modalités différentes, ce sont des images d’images. La machine produit obstinément des rêves à partir de nos rêves, comme nous nous procurons une certaine image de la machine en observant son fonctionnement.

La pareidolia est un phénomène psychologique où un stimulus est reconnu comme quelque chose qui n’est pas là. Sa forme la plus célèbre est le test de Rorschach. Ainsi, lorsque nous voyons des visages ou des animaux dans les nuages, nous hallucinons une présence tout en étant parfaitement conscients, et même heureux, du statut de ceux-ci. Nous nous réjouissons de cette faille dans notre perception parce qu’alors nous voyons fonctionner celle-ci à sa propre limite. À la différence de la métaphore, la pareidolia est asémantique et n’est pas une représentation. Si je vois quelque chose à la place d’autre chose, c’est seulement parce que des motifs se ressemblent. Dans L’écriture des pierres (1970), Roger Caillois décrit l’émotion provoquée par la structure interne des roches dans lesquelles on peut admirer des lignes et des courbes, des couleurs et des scintillements, des quasi-images qui troublent la distinction entre la physis et la tekhnè :

“Presque toujours, il s’agit d’une ressemblance inattendue, improbable et pourtant naturelle, qui provoque la fascination. De toute façon, les pierres possèdent on ne sait quoi de grave, de fixe et d’extrême, d’impérissable et de déjà péri. Elles séduisent par une beauté propre, infaillible, immédiate, qui ne doit de compte à personne.”(5)

La beauté de ces pierres correspond au décalage entre leur ressemblance avec un paysage, un personnage, une scène, et leur caractère impérissable échappant à la temporalité de l’activité humaine. Ces quasi-images minérales ont une genèse non intentionnelle et autonome, et pourtant cette absence de visée préalable ne nous empêche pas d’être touchées par elles et d’y voir quelques beautés. Quelque chose parle en l’absence de langage. L’imagination humaine se déploie alors dans la lecture de cette écriture sans alphabet parce qu’elle y ressent comme sa “propre” limite, son intentionnalité communique avec une extériorité. C’est parce que la pareidolia est hors sens qu’elle nous affecte, elle est la rencontre contingente avec un monde. Si nous voyons un visage humain dans ces nuages, c’est parce que la rencontre avec la matière est égarante et que nos catégories sont infondées.

“Deep Dream” est la rencontre entre la contingence de la programmation informatique et la contingence anthropologique de l’imagination, c’est-à-dire de ce qui fait image. Ces deux contingences sont fort différentes. L’une est fondée sur des signes dénués de sens et des variables, l’autre sur des possibles. Or cette rencontre est elle-même performative, elle produit une nouvelle image qui détermine tout aussi bien nos esprits que les technologies. Un réseau de neurones tente de reconnaître dans les motifs d’une image quelconque des images qu’il a en mémoire. Il injecte alors ces images et ainsi de suite jusqu’à recouvrir l’image initiale de celles qu’il a en mémoire. Il hallucine sa mémoire parce qu’il cherche d’avance, dans la décomposition de l’image en motifs, cette convergence. La pareidolia est l’un des points de jonction entre la recherche informatique et la divination (Barros, M. de., 2015) qui consiste précisément à voir ce qui n’est pas là. Le complotisme contemporain fait aussi souvent usage de cette méthode pour proposer des interprétations alternatives à partir de “preuves” visuelles.

INTERNET, NOTRE DERNIER MONDE :
LA CAPTURE EXISTENTIELLE

“Comment l’impossible juxtaposition de singularités intenses donne-t-elle lieu au registre et à l’enregistrement ?” (Lyotard, Economie 28)

Le rêve est produit par “Memories center” en glanant de l’iconographie sur le réseau. Il me semble particulièrement important de replacer les débats actuels sur la place de l’informatique dans les neurosciences dans le contexte de notre quotidienneté qui est littéralement hantée par le Web. Si les neurosciences produisent un imaginaire de la subjectivation, celle-ci est largement structurée par Internet. Or si nous concevons spontanément ce dernier comme un moyen à notre service, nous devons aussi reconnaître qu’il influence nos désirs, notre sentiment d’être au monde, nos manières d’être. Dès lors, il faut sans doute lui appliquer le réalisme relationnel et comprendre que son incroyable mondialisation n’est pas tant lié à un opportunisme passager, qu’à une structure plus profonde. Ce réalisme doit considérer la possibilité de l’autonomie du réseau comme manière d’aborder la complexité de son image. Il ne faudra donc pas s’étonner de voir apparaître au fil des lignes l’image d’un organisme doué d’une quasi-volonté, une manière du suspend donc nous parlions pour commencer.

On s’est beaucoup étonné de l’accumulation insensée des données par les grands acteurs du Web 2.0. Pourquoi cette obsession à enregistrer tous les faits et gestes des individus malgré leur caractère anodin ? Le coût impliqué par un tel enregistrement n’est-il pas vain tant ces données sont, dans la plupart des cas, inutilisables, car sans intérêt ? Réfléchir à la quantité du big data c’est, me semble-t-il, voir comment articuler l’intensité des singularités existentielles à la quantification et à l’automatisation numérique. C’est aussi sans doute considérer que le réseau est un dispositif de capture des existences humaines permettant aux machines de créer des bases de données d’un monde qui semble au premier abord leur échapper, le monde humain, le monde du sens. Mais ce monde sémantisé pourrait bien, par cet enregistrement à une échelle qu’aucune civilisation n’avait jusqu’alors mis en place, être appréhendé dans l’ordre de la quantité : en enregistrant le grand nombre, on pourra en tirer des statistiques permettant une prévision des comportements futurs. Peu importe que ces prévisions soient exactes ou inexactes, il suffit qu’elles soient considérées comme telles pour qu’elles se réalisent effectivement. La prédiction comportementale imagine l’avenir en réduisant ce qui est à venir à ce qui a été.

On a souvent analysé le Web comme un système de surveillance que les sujets alimentaient de manière naïve en vaquant à leur occupation quotidienne de navigation. Or la destination de cette surveillance, politique et économique, n’est que l’autre nom d’une réification technologique. Ce dont il s’agit c’est de transférer le monde commun des humains aux machines. NELL : Never-Ending Language Learning (http://rtw.ml.cmu.edu/rtw/) consiste par exemple à apprendre à une machine, grâce au Web, le sens du monde constitué de textes et d’images. Il importe de dire que le sens n’est pas une chose, tout au plus une croyance, « un bourdonnement dans la tête », qui produit des effets et qu’il est par là même simulable. Le réseau n’est plus un outil de médiation entre des êtres humains, mais un instrument de capture du monde commun anthropologique par les machines. Il faut bien comprendre que si cette capture est fantasmatique, elle n’est pas pour autant sans effet. La capture existentielle est au cœur du projet singulariste de Google comme du récit des médias de masse. À partir de toutes ces données, une machine ne pourrait-elle pas rêver ce que nous sommes, ce que nous avons été ? Elle pourrait assez simplement produire de nouvelles données à partir de celles recueillies, et faire un “double” de toutes nos histoires, suffisamment ressemblant pour être indiscernable et différent pour être singulière.

Illustration 4: “My mind is going” (2014)

“My mind is going” (2014) est un logiciel que j’ai conçu et qui navigue automatiquement sur le Web à la manière d’un être humain. Il y a le navigateur, le curseur de la souris, les temps d’attente. Il cherche sur le réseau quelque chose, une intelligence, Ray Kurzweil, des données scientifiques. Mais ces recherches ne sont pas totalement prédéterminées parce qu’il peut détecter un mot-clé et poursuivre une recherche qui n’avait pas été prévue. Ses objectifs changent à mesure qu’il navigue. Le logiciel rencontre un monde. L’important est que cette dérive est perçue par un observateur humain (il s’agit d’un dispositif artistique) qui interprète ce qu’il voit en tant que cela ressemble à une navigation humaine sans qu’elle soit pilotée par un être humain. Cette ressemblance écarte la représentation, nous sommes et nous ne sommes pas humains, nous sommes hantés par la machine à la manière d’un spectre. Ce n’est pas que la machine s’humanise ou que l’être humain devient de plus en plus technique, c’est que notre imagination, les images de nos images, est investie par la machine.

La spéculation est la suivante: si les machines, par l’intermédiaire du Web, nous capturent pour nous répéter de manière non identique, ne peut-on pas proposer que l’histoire de la mimésis et de l’art est fondamentalement l’histoire d’un remplacement de l’être humain par ce qu’il a toujours été, une machine se rêvant humain et un humain emboîté dans le rêve d’une machine ? La thèse organologique serait également ontologique.

Une recherche menée en 2011 à l’Université de Berkeley propose de reconstruire un film à partir de l’activité neurologique, comme l’écrit Jack Gallant “We are opening a window into the movies in our minds” (cité dans Beciri). On enregistre celle-ci sur plusieurs personnes qui regardent pendant plusieurs heures des films. On constitue à partir de là un dictionnaire qui met en corrélation les objets visuels (formes, contours, mouvements) avec l’activité du cerveau. On enregistre ensuite l’activité de celui-ci face à de nouvelles images pour tester la qualité de la corrélation. Enfin, on construit une base de données constituée de 5000 heures de vidéos aléatoirement téléchargées sur YouTube que l’on met en relation avec le dictionnaire afin de construire des prédictions neuronales. On sélectionne, en observant le cerveau, les 100 séquences les plus proches de cette activité et on les superpose. On peut ainsi déduire ce que voit une personne en observant l’activité de son cerveau. Les images produites par la machine, fruit de la superposition de plusieurs séquences, ont une qualité esthétique remarquable, elles ressemblent étrangement à des tableaux de William Turner : les couleurs et la lumière, l’absence d’horizon et de sol stable, le caractère fluxionnel et tumultueux des formes.

Illustration 5: Joseph Mallord William Turner, Le bateau négrier (1840)

Dans Le Bateau négrier (1840), Turner représente un événement qui a eu lieu lorsque le capitaine d’un navire découvrit que l’assurance ne couvrait que les esclaves morts noyés et non ceux morts à bords. Il décida alors de jeter à la mer les malades et les mourants. Comme le remarque Hito Steyerl, “In this painting, the horizon line, if distinguishable at all, is titled, curved, and troubled. The observer has lost his stable position. There are no parallels that could converge at a single vanishing point.” (20) La perte d’un sol stable qui fixe le sujet par rapport à une autorité ancrée dans la perspective déstabilise notre position.
Or, dans le cas de la reconstruction neurologique des images, ce hors-sol est déterminé par un double mouvement : la quantification de l’activité du cerveau et la superposition d’images venant du Web. Le doublement de cette moyenne qui par la reconstruction et la traduction fait passer le signal du côté du code, le code du côté de l’image, implique une double capture anthropotechnologique. Celle-ci est bien un rêve emboîté dans un rêve. Ce n’est pas la technicisation de l’être humain ou l’humanisation de la machine, c’est l’enchevêtrement inextricable entre les deux. Ce n’est pas seulement l’être humain qui est sommé de répondre correctement à la quantification et à la découpe numérique, c’est aussi la machine qui doit obstinément répondre de l’être humain et l’anticiper, le répliquer. Il s’agit de concentrer alors son attention sur la qualité des images qu’une telle expérience produit, sur leur “plasticité”, au sens où Catherine Malabou utilise cette notion, afin de comprendre qu’Internet est un monde et peut être le dernier.

Si de plus en plus d’expériences en neurosciences vont piocher dans les ressources du réseau, c’est parce que celui-ci constitue une base gigantesque de données renseignées par les individus eux-mêmes qui deviennent simultanément sujet et objet de cette classification. Au-delà d’un discours parfois manichéen critiquant cette surveillance intériorisée et généralisée, il s’agit de percevoir la profondeur et l’ambiguïté du processus en cours. Tout semble se passer comme si les comportements humains étaient capturés par une intelligence ahumaine utilisant, à la manière de la “xénoéconomie” de Nick Land, les capacités de l’ennemi à son profit. Cette extériorisation d’un processus qui apparaît aux yeux du sens commun, en tant que technique, comme déterminé par l’être humain, signale un renversement, tout aussi fictionnel, du possible. Le Web grandit plus vite que notre capacité à le consulter, alors même que nous semblons être au cœur de son dispositif. Notre activité produit quelque chose qui dépasse nos capacités nerveuses, par la vitesse de traitement numérique, et intellectuelles, par le grand nombre de données. Ce produit de notre activité nous excentre, tout comme nous sommes excentrés par les procédures d’analyse et de quantification de l’activité neurologique, nous nous observons comme du dehors. Lorsque nous regardons les images vacillantes qui mettent en relation YouTube et le cerveau, nous y reconnaissons simultanément les images d’origine tout en y voyant autre chose, une production, une imagination, l’apparition du nouveau. Cette juxtaposition de la reconnaissance et du nouveau est le caractère spectral de ces technosciences où quelque chose revient pour la première fois. Il faut parvenir à penser dans ces images superposées, en même temps la mimésis et en même temps une image jamais vue, c’est-à-dire une nouvelle genèse de l’image, fruit de la rencontre entre la décomposition du signal analogique en code numérique et le monde du Web. Le monde ne se constitue que de cet excès ambigu, que de ce sol défaillant qui se dérobe sous nos pieds: “On peut penser que si nous avons le sentiment d’un quelque chose au-delà de nos représentations, ce n’est pas parce que nos différentes sensations convergent vers un centre logique qui fonctionne comme leur “support” (l’objet transcendantal = X de Kant ou de Husserl), mais parce que nous avons conscience de ne pouvoir faire qu’un usage limité du monde, et qu’il y a forcément plus dans le possible que dans le réel.” (62-63, nous soulignons). C’est précisément à partir de ce monde, comme possible qui excède le réel, que la capture existentielle du Web opère.

LE RÊVE DANS LE RÊVE

“Un concept non existentiel de la finitude.” (Malabou, Avant demain 320)

Illustration 6: Deep Matter (2015-2016)

Deep Matter (2015-2016) est un projet de recherche-création que je suis en train de développer. Il s’agit d’un environnement composé de plusieurs pièces dont l’élément central est une imprimante 3D. Celle-ci se meut de façon organique et montre ses entrailles, c’est-à-dire le volume en cours de production. Différents capteurs permettent d’écouter ses bruits mécaniques et par un traitement en temps réel de composer des nappes sonores. Une caméra 4K observe ce que l’imprimante produit et le diffuse en projection. Un logiciel inspiré de Deep Dream analyse ces images et tente, en cours d’impression, d’y reconnaître d’autres images qu’il a en mémoire. Il décrit ce qu’il voit par cette corrélation en superposant des sous-titres. Bien sûr, le logiciel fait des erreurs dans ses descriptions, interprète mal les formes selon une logique analogue à la pareidolia. Au bout d’un certain laps de temps, il utilise cette reconnaissance, bonne ou mauvaise, pour produire un nouvel objet, et ainsi de suite.

L’installation détourne la notion de feed-back parce que celle-ci ne sert plus à affiner une prévision, par exemple le point d’impact d’un missile, mais seulement à produire obstinément quelque chose en s’observant. Dans la mesure où cette observation est défaillante, l’autoréférentialité du système produit de la différence. La boucle s’échappe d’elle-même parce qu’elle est dénuée de sens et c’est ce qui l’ouvre aux possibles, c’est ce qui lui permet d’opérer.

“Voici l’histoire que j’aurais aimé raconter : que la répétition s’évade de la répétition pour se répéter. Qu’en cherchant à se faire oublier, elle fixe son oubli, et ainsi répète son absence.” (Lyotard, L’inhumain 165).

Le nouvel objet imprimé est bien tiré de l’objet précédent, ils entretiennent un lien, mais celui-ci est tra(ns)ductif c’est-à-dire que la traduction (un objet, une image, des motifs, de données, une description) se répand de proche en proche, garde des traces des étapes précédentes, mais s’en décale parce qu’elle fonctionne sur l’individuation même de l’objet, c’est-à-dire pour le dire concrètement sur sa production matérielle progressive par une machine réplicative. Deep Matter rejoue la théorie de la “gelée grise” proposée par Eric Drexler dans Engines of Creation (1986) où des machines auto-réplicatives deviennent hors de contrôle et consomment l’ensemble des ressources terrestres selon une courbe exponentielle. Cette théorie trouve son origine chez John von Neumann et me semble consubstantielle à la cybernétique et au destin de l’informatique.

La boucle qui s’échappe d’elle-même en tant que répétition intensive qui produit de la différence, se retrouve non seulement sur le plan macroscopique de l’anthropotechnologique, mais aussi au niveau microscopique du programme. En effet, si Deep Dream tente de reconnaître des motifs dans une image, il introduit un feed-back puisqu’à chaque itération il place dans l’image ce qu’il voit. S’il reconnaît un chien, il le fait progressivement apparaître: “Whatever you see there, I want more of it!” (Mordvintsev et al.) La variabilité de l’image numérique, notre capacité à modifier un fichier sans devoir en changer, introduit une mutabilité hallucinatoire et surinterprétative. C’est parce que le programme voit des chiens que ceux-ci apparaissent à nos yeux, de la même manière que nous observons les “erreurs” faites par Deep Matter. Avec l’intelligence artificielle, il ne s’agit aucunement d’attribuer en propre une intelligence à une machine (ou à l’être humain), mais seulement de l’observer dans un jeu relationnel entre eux deux. Cette relationnalité est le possible. Or les neurosciences, en faisant usage métaphoriquement et opérationnellement de l’informatique en tant qu’image des processus mentaux, produisent inévitablement ce qu’elles annoncent.

De la même manière que le réseau de neurones hallucine dans des pizzas des mollusques et des chiens, nous hallucinons la technoscience et notre “propre” cerveau. En ce sens, l’emboîtement d’un rêve dans un autre rêve, le rêve lucide qui nous fait chuter de façon infinie parce que le sol n’existe plus, aurait une affinité avec l’emboîtement entre (neuro)science et imaginaire. On regarde l’imprimante 3D surinterpréter un objet qu’elle est en train de produire, comme on regarde dans un musée les visiteurs d’une exposition capturés par les œuvres. Sans doute se dit-on silencieusement qu’il y a quelqu’un d’autre derrière nous qui nous regarde les regarder. Nous ne nous retournons pas de peur de faire face au vide, voici de quoi est fait la profondeur de nos songes. Le clavier de l’ordinateur est sous nos doigts, nous pianotons et inscrivons chacun de nos gestes sur le Web comme si nous existions en dehors de la machine.

Works cited
Barros, Manuella de. Magie et Technologie. Paris : Supernova, 2015
Beciri, Damir. “A Step Toward Mind Reading”. Robotaid (2011) (http://www.robaid.com/tech/a-step-toward-mind-reading-of-the-moving-images-in-our-brains.htm)
Caillois, Roger. L’écriture des pierres. Paris : Flammarion, 1970.
Cassou-Noguès, Pierre. Lire le cerveau.Paris: Seuil, 2012.
Copeland, Jack. “A Lecture and Two Radio broadcast by Alan Turing”, in K. Furukawa, D. Michie and S. Muggleton (ed..) Machine Intelligence 15, Intelligent Agents, New York: Oxford University Press, 445-477.
Denton, Emily, Chintala Soumith, Szlam Arthur, Fergus Rob. “Deep Generative Image Models using a Laplacian Pyramid of Adversarial Networks.” (2015) (http://arxiv.org/abs/1506.05751).
Kurzweil, Ray. The Singularity Is Near: When Humans Transcend Biology. New York: Penguin, 2006.
Land, Nick, Mackay R., Brassier R. Fanged Noumena: collected writings 1987-2007 (2nd ed). Falmouth : New York, NY: Urbanomic ; Sequence Press, 2012.
Lyotard, Jean-François. Économie libidinale. Paris : Editions de Minuit, 1974.
Lyotard, Jean-François (1988). L’Inhumain : Causeries sur le temps, Paris, Galilée. p. 165.
Malabou, Catherine. Avant demain. Épigenèse et rationalité, Paris, P.U.F. 2014.
Malabou, Catherine. Ontologie de l’accident : Essai sur la plasticité destructrice. Paris: Editions Léo Scheer, 2009.
Maniglier, Patrice. La perspective du diable : Figurations de l’espace et philosophie de la Renaissance à Rosemary’s Baby. Actes Sud, 2010.
Merton, Robert K. “The Self-Fulfilling Prophecy.” The Antioch Review, 8/2 (1948) 193-210.
Meillassoux, Quentin. “Répétition, itération, réitération Une analyse spéculative du signe dépourvu de sens.” Conférence 2011 (http://www.diffusion.ens.fr/index.php?res=conf&idconf=3053).
Mordvintsev, Alexander, Olah Christopher, Tyka Mike. “Inceptionism: Going Deeper into Neural Networks.” Google Research Blog, June 17 2015 (http://googleresearch.blogspot.ch/2015/06/inceptionism-going-deeper-into-neural.html)
Neumann, John von. The Theory of Self-reproducing Automata. (A. Burks, ed) Urbana, IL: Univ. of Illinois Press, 1966.
Nishimoto, S., Vu, A. T., Naselaris, T., Benjamini, Y., Yu, B., & Gallant, J. L. “Reconstructing Visual Experiences from Brain Activity Evoked by Natural Movies.” Current Biology, 21/19, (2011): 1641‑1646.
Pais-Vieira, M., Lebedev M., Kunicki C., Wang J., Nicolelis, M. A. L. “A Brain-to-Brain Interface for Real-Time Sharing of Sensorimotor Information.” Scientific Reports, 3.
Steyerl, H., & Berardi, F. The wretched of the screen. Berlin: Sternberg, 2012.
Turner, F. et D. Cardon. Aux sources de l’utopie numérique : De la contre culture à la cyberculture. Caen: C&F Editions, 2013.

Films
Werner Herzog, La Grotte des rêves perdus (2010)
Stanley Kubrick, 2001 : l’odyssée de l’espace (1968)

1Les cas des rêves éveillés et de certaines formes de somnambulisme, qui forment la trame narrative du film The machinist (2004), ne réfutent pas cet anachronisme dans la mesure où, selon le point de vue que nous adoptons, ils n’ont que peu de rapport avec l’expérience courante du rêve et devraient être considérés selon une autre typologie.
2 Werner Herzog, La Grotte des rêves perdus (2010)
3Turner et al. a démontré comment une partie de la contre-culture américaine des années 60 s’était convertie à l’économie de la Silicon Valley, ce pour quoi les références aux hallucinations psychédéliques sont récurrentes dans le champ de l’IA et de la réalité virtuelle depuis la fin des années 80.
4Radiodiffusion retranscite dans Copeland
5 Nous nous référons ici à une conférence de Quentin Meillassoux (http://www.diffusion.ens.fr/index.php?res=conf&idconf=3053) que nous utilisons pour développer une théorie spéculative du code informatique.