Par Ascanio Cecco
Le 16 et 17 novembre 2017 s’est tenu à l’Université de Lausanne un colloque intitulé « Photographie et technologies de l’information / Photography and Information Technology », qui a visé à réfléchir les images photographiques sous le prisme des systèmes de support, de diffusion et de gestion de l’information. Organisé par Estelle Blaschke, Olivier Lugon et Davide Nerini, il faisait suite à un colloque organisé à Genève deux ans plus tôt (« À l’image du monde. Musées et collections de documentations visuelle et sonore autour de 1900 ») et s’inscrivait dans le cadre du projet FNS portant sur les premières décennies du microfilm, intitulé « Toute la culture du monde sur pellicule : essor et imaginaire du microfilm des années 1920 au années 1950 ».
C’est d’abord à la question des outils permettant la multiplication et la diffusion d’images et d’informations que se sont intéressés les organisateurs, en regroupant trois interventions portant chacune sur un instrument spécifique. Intitulée « Xeroxmania », la conférence de Monika Dommann (Université de Zurich) réfléchissait aux appareils photocopieurs – et en particulier aux modèles commercialisés par la firme américaine Xerox –, en montrant notamment que la machine à photocopier, d’abord célébrée pour son potentiel rationalisant, a rapidement dû faire elle-même l’objet de contrôles et d’efforts de rationalisation, tant elle permettait une multiplication et une diffusion sans limites des images et des documents. Dans « Scanning the World: Wire Photography as a Global Information Technology », ?Jonathan Dentler (University of Southern California) s’est quant à lui intéressé aux techniques de transmission d’images sans fil, et à la manière dont ce nouveau mode de diffusion de la photographie a contribué à donner lieu, entre les années 1920 et les années 1950, à une nouvelle forme de culture globalisée. Enfin, l’intervention de Peter Sachs Collopy (Caltech Archives), intitulée « Ampex, Magnetic Recording, and the Continuity of Photographic and Informatic Media », a porté sur les appareils d’enregistrement d’images sur bande magnétique. Commercialisées dès le début des années 1950 par l’entreprise américaine Ampex, ces technologies se sont développées avec une grande intensité dans les décennies suivantes, donnant naissance à des appareils extrêmement diversifiés (enregistrement audio et vidéo, mais également traitement et stockage de données), qui marqueront la deuxième partie du siècle jusqu’à l’avènement des ordinateurs.
À la question des outils supportant la rencontre de l’image et du texte, a fait suite, dans l’après-midi, la problématique des méthodes en permettant l’archivage et la collection. Dès la première moitié du XXe siècle, il s’est en effet agi d’organiser la masse de photographies affluant vers les bibliothèques, les archives ou les agences spécialisées, voire de créer des documentations à cet effet dans une logique souvent associée à des idéaux humanistes et universels. Dans « To Carry a Library : The Architectural Technique of Microfilm », Michael Faciejew (Princeton University) s’est ainsi intéressé à l’objet microfilm, et plus précisément à la manière dont son avènement dans l’entre-deux guerres a amené à repenser les formes et le fonctionnement des bibliothèques et des institutions publiques françaises. Face à un médium promettant un traitement et une conservation de contenus illimités, ce sont l’ensemble des approches liées à l’organisation et à la transmission du savoir qui se trouvent être remodelées, dans une nouvelle logique d’échanges et d’interaction réciproques entre l’information et son bénéficiaire. Guillaume Blanc (Université Paris 1, Panthéon-Sorbonne), s’est ensuite proposé de réfléchir aux diverses tentatives de création d’une documentation photographique universelle qui ont vu le jour en France dès la fin des années 1940. Intitulée « Rationaliser la documentation photographique et reconquérir la souveraineté culturelle française dans l’après-guerre », sa communication s’est concentrée autour de trois projets inaboutis, menés respectivement par Albert Plécy, Paul Sonthonnax et Roland Bourigeaud, en montrant que la photographie, perçue alors comme un langage universel sur lequel sont fondés de grands espoirs, participe tout autant d’un idéal civilisateur que d’une véritable stratégie de domination culturelle française sur le monde.
Avec « Histoire des fonds photographiques à la Bibliothèque nationale de France », Dominique Versavel (Bibliothèque nationale de France) est quant à elle revenue sur les diverses problématiques soulevées par le traitement des collections iconographiques au département des Estampes et de la photographie de la BNF. Elle a notamment expliqué que si les choix des critères de sélection, des méthodes de classification et de la préservation des originaux ont souvent répondu à des enjeux et des contraintes internes à l’institution, ils ne se sont pour autant pas faits à l’écart du monde, mais dans une écoute permanente des utilisateurs des images. C’est enfin à l’univers des agences photographiques que s’est intéressée Clara Bouveresse (Université Paris 1, Panthéon-Sorbonne), en démontrant, dans « L’agence Magnum en ligne : dématérialisation et culte du papier depuis la fin des années 1980 », à quel point la coopérative Magnum Photos a su s’adapter au tournant du numérique, tout en préservant le culte rendu au sanctuaire de la photothèque. Volontiers associée à des ambitions humanistes, l’organisation du fonds Magnum a surtout permis à l’agence de s’adapter aux enjeux posés par la numérisation des images, en transformant et en redéployant ensuite leur valeur d’objet.
La journée s’est terminée avec la performance « Ekphrastic Objets » de l’artiste Jeff Guess (Paris). Prenant la forme traditionnelle de la conférence illustrée, elle portait sur la rencontre de Louis-Jacques-Mandé Daguerre et de Samuel Morse en 1839 pour thématiser à travers elle les relations entre photographie et télégraphe, images « naturelles » et codage. Ces relations étaient mises en jeu dans la forme même de la présentation, puisque la description orale qu’elle donnait d’un célèbre cliché de Daguerre ne cessait d’y être traitée par des logiciels qui en décomposaient et recomposaient les éléments en un espace virtuel composé de mots. Elle thématisait ainsi l’une des questions centrales du colloque, celle des rapports entre photographie et langage tels que médiatisés par la technologie.
Le troisième et dernier axe dessiné par les organisateurs du colloque portait sur la question du traitement des images et des informations, à travers des exemples liés à des pratiques conservatoires, artistiques, informatiques et journalistiques. C’est Kelly Wilder (De Montfort University) qui a ouvert les débats, en présentant, dans « Ordering Algae : Photography and the Diatom Catalogue », les méthodes employées par le Musée d’histoire naturelle de Londres pour la conservation et la classification d’un important fonds de photographies représentant des diatomées – une famille d’algues microscopiques étudiée par les biologistes à partir du XIXe siècle. À la frontière entre photographie et information, ces documents fonctionnent à la fois comme des images destinées à l’observation de ces organismes vivants, que comme un système d’organisation du savoir scientifique, pensé dans la logique d’une base de données. Nathalie Dietschy (Université de Lausanne), s’est quant à elle proposée de réfléchir au livre de photographie, et plus précisément à la forme qu’il prend en contact du numérique. A travers de nombreux exemples, son intervention intitulée « Atlas, archives, inventaires : les livres post-photographiques » montrait comment différents artistes contemporains ont puisé dans les ressources offertes par internet pour construire des objets hybrides, qui interrogent la notion de savoir tout en questionnant la rencontre de l’image numérique et de la page imprimée.
Penser le traitement des images et des informations implique également de revenir sur les méthodes de gestion et de récupération de ces images lorsqu’elles existent en masse. Sabine Süsstrunk (EPFL), dans « Mining the Flux: Image Classification and Image Retrieval », a dès lors proposé un aperçu des différentes techniques d’organisation des photographies dans des bibliothèques numériques, impliquant la saisie et le traitement de métadonnées. La labélisation des images, qui a longtemps exigé une intervention humaine, est aujourd’hui rendue possible par le développement de programmes d’intelligence artificielle, lesquels répondent toutefois à des enjeux très différents en fonction des critères de classification que l’on choisit. Enfin, Nadya Bair (Yale University) est revenue avec « Managing Image Overload at Magnum Photos », sur l’agence photographique Magnum, dans cette même perspective de classement et d’organisation des images, en démontrant que toutes ces questions étaient réfléchies par l’entreprise bien avant l’arrivée du numérique, et exigeaient des éditeurs, archivistes et iconographes de la firme la recherche de solutions innovantes, « rationnalisantes » et fonctionnelles.
Pour la dernière demi-journée de colloque, la parole a été donnée à Davide Nerini (UNIL), Benoit Seguin et Leonardo Impett (EPFL), intervenant tous les trois dans le cadre du programme doctoral, pensé dans une logique d’ouverture au domaine du numérique. Intitulée « Feuilleter, extraire, juxtaposer : les dynamiques matérielles de l’information visuelle », la communication de Davide Nerini s’est proposée de mettre en relation ses propres pratiques de chercheur, d’observateur et de concepteur de bases de données, en questionnant les différentes technologies permettant l’association d’une information écrite à un contenu visuel, telles qu’elles ont été développées des premières décennies du XXe siècle jusqu’à nos jours. Benoit Seguin, dans « The Replica Project: Navigating Iconographic Collections at Scale? », a quant à lui présenté un projet de numérisation d’un important fonds photographique situé à la Fondazione Giorgio Cini, à Venise, auquel il participe dans le cadre de son doctorat. Plutôt que de se limiter aux seules informations textuelles, le projet propose de mettre en lien les images selon leurs spécificités visuelles, en « formant » un programme informatique à les associer à partir des recherches et des annotations réalisées par les utilisateurs de ces images, rendues accessibles par une interface en ligne. Enfin, Leonardo Impett a donné une conférence intitulée « Machine Learning and Digital Photography: The Double Hermeneutic? », dans laquelle il est revenu sur les implications générées par des algorithmes conçus pour évaluer la « qualité esthétique » des images présentes sur internet. Diffusées à une large échelle par toute une série de médias, en particulier digitaux, les images retenues par le programme répondent à un système de valeurs qu’elles participent dans le même temps à renforcer, puisque c’est notamment avec les images présentes en ligne que « se forment » les algorithmes chargés d’en faire la sélection.
Les discussions riches et variées qui ont émergé de ces deux journées de colloque ont montré à quel point la rencontre des photographies et des informations textuelles est difficile, bien qu’elle soit au centre des préoccupations des producteurs, collectionneurs et utilisateurs des images depuis plusieurs décennies. En définitive, deux questions semblent apparaître, qui sont en vérité liées : d’une part celle de la dimension financière et commerciale que possèdent ces outils, ces méthodes de classification et ces techniques de traitement des images, d’autre part celle du travail que de telles initiatives permettent d’épargner. Des premiers appareils de transmission sans fil aux complexes algorithmes que l’on conçoit aujourd’hui, il s’est en effet à chaque fois agi de développements extrêmement coûteux, qui n’ont pourtant pas freiné les investissements : c’est que l’enjeu principal est celui d’une automatisation des procédés, permettant une rationalisation du travail humain qui les justifie à elle seule. Toutefois, cette automatisation semble à ce jour encore elle-même impliquer l’action humaine, à la fois en ce qui concerne la labélisation, le « learning » et le traitement a posteriori des images, et continue dès lors de faire l’objet d’études et d’expérimentations. Dans une telle perspective, la collaboration de chercheurs provenant des champs des sciences de l’informatique et des sciences humaines apparaît comme particulièrement essentielle, à l’image d’un colloque qui a parfaitement su faire dialoguer ce champ multiforme et extrêmement stimulant des humanités digitales.