How Trevor Paglen anticipates a dystopian future
Invité de Prada à Paris et à Milan, l’artiste Trevor Paglen s’est associé à la chercheuse Kate Crawford dans un projet portant sur l’intelligence artificielle. Dans ses images, il a capturé nos paysages contemporains peuplés de drones, de stations d’écoutes secrètes ou de satellites naviguant entre les étoiles, anticipant notre futur.
Par Thibaut Wychowanok.
Les photographies de Trevor Paglen paraissent souvent, à première vue, attrayantes et rassurantes. Les couleurs de ciels de sa série Untitled (Drones) évoquent les azurs peints par d’anciens maîtres classiques autant que des abstractions numériques. Une impression de virtualité et d’abstraction particulièrement à l’œuvre dans sa série The Other Night Sky. L’Américain y a photographié des satellites et des débris spatiaux dans la nuit étoilée. Bien que plus flou et éthéré, le paysage boisé de They Watch the Moon n’est pas dénué de toute qualité picturale. Ces clichés sont rassurants, dans un certain sens. Ils convoquent une imagerie connue, à la croisée des photographies scientifiques de l’espace et de l’histoire de la peinture. Leur portée est pourtant beaucoup plus conceptuelle et politique.
They Watch the Moon est en réalité la photographie d’une station d’écoute classifiée de l’armée américaine, située au cœur des forêts de la Virginie-Occidentale et du Maryland (Trevor Paglen y est né en 1974). Dans cette zone “silencieuse”, les transmissions radios sont limitées et le WiFi et la FM sont interdits afin de laisser la station capturer les informations destinées au système Echelon. L’aspect pictural de ce cliché provient de la longue exposition photographique sous la pleine lune. “Aussi abstraites qu’elles nous paraissent, les nouvelles formes de pouvoir ou d’économie, comme les algorithmes, la surveillance ou la reconnaissance faciale, sont toujours associées à des infrastructures bien réelles, souligne Trevor Paglen. Le paysage qui a toujours été au cœur de mon travail est un paysage d’infrastructures, ces composants essentiels des nouvelles formes de pouvoir.”
Untitled (Drones) n’est pas une simple réinterprétation d’un motif artistique comme le ciel. Les drones qui s’y déploient – et qui sont invisibles – sont de véritables armes de combat. “Une idée communément admise veut qu’il y ait équivalence entre l’image d’un objet et la réalité de cet objet, commente l’artiste. L’image du ciel ou de l’espace que je fabrique en 2020 est-elle si différente des images prises au XIXe siècle ou peintes dans les cavernes par les hommes préhistoriques ?” Pourtant, la réalité du ciel de 2020 n’a plus rien à voir avec un repaire de dieux païens ou un espace fantasmagorique à explorer. Cet horizon peut, en revanche, se regarder comme le lieu de la surveillance généralisée et d’enjeux stratégiques et guerriers.
Récemment, l’artiste s’est associé à la chercheuse en sciences politiques Kate Crawford pour un projet qui a été présenté à la Fondation Prada à Milan, et en marge du défilé de la maison, à Paris, en janvier. Training Humans a pour point de départ la quantité invraisemblable d’images que les scientifiques utilisent pour entraîner les intelligences artificielles. “On leur apprend comment reconnaître un nez, un sourire, une bouche, et à calculer la distance entre l’un et l’autre”, précise Kate Crawford. Les premières expérimentations de la CIA en 1963, fondées sur des photographies gouvernementales, ont laissé place aujourd’hui à l’utilisation de photographies de personnes, récoltées sur le Net sans aucune autorisation. “L’autre problème, insiste la chercheuse à la New York University, est que ces photos sont utilisées pour catégoriser les êtres humains selon leur race, leur classe sociale, leur genre ou même leur personnalité. On entraîne les intelligences artificielles à prédire vos émotions rien qu’en regardant votre visage. Cela n’a rien de scientifique et rappelle les pires heures des XIXe et XXe siècles où des théories – souvent racistes – comme la physiognomonie pensaient pouvoir établir le destin d’un individu à partir de son visage.”
L’exposition proposait une étude matérialiste de ces images dont les scientifiques usent sans même les regarder. Training Humans dévoilait aussi et surtout l’idéologie inhérente à toute technologie, jamais neutre dans la manière dont elle s’élabore. “Nous attribuons un sens aux images, à l’image d’une personne par exemple, mais ce sens est une construction qui n’a bien souvent que des bases pseudo-scientifiques. Or les images ont un impact réel sur le monde. Une phrase repérée dans un magazine m’a marqué récemment : ‘On savait que les images pouvaient tuer. Aujourd’hui, elles ont le doigt sur la détente’”, souligne Trevor Paglen. “Seule une dizaine d’entreprises ont la capacité économique et logistique de créer une intelligence artificielle, conclut Kate Crawford. Cela n’a rien d’abstrait. Ce ne sont pas que des algorithmes ou des données dans un cloud. Ce sont des infrastructures et des gens. Et des décisions politiques.”