Prendre vie(s)

Samuel Bianchini avec la collaboration de Didier Bouchon, 2020

Photographies : © Samuel Bianchini – ADAGP

Fixe ou animée ? Si le statut de l’image qui constitue cette œuvre est incertain et, même, sous tension, elle représente toutefois un sujet explicite : il s’agit d’une vue sur un cimetière militaire multiconfessionnel, aux nombreuses sépultures ordonnées et presque toutes de formes similaires, seuls les symboles religieux différant. Sur un grand écran en très haute définition, c’est, a priori, une photo qui est présentée ; mais celle-ci est animée, de l’intérieur, dans sa “matière” même. Particulièrement bruitée, cette image est composée d’une infinité de grains mis en mouvement par des algorithmes de vie artificielle et de machine learning. Associés aux pixels qui constituent la matière même de l’image, ces grains cherchent à se mouvoir et à s’organiser pour mettre en mouvement l’image, ils sont “animés” d’une sorte de force de vie. Comment une photographie pourrait-elle apprendre à devenir un film, ou plus largement – car les statuts de ces artefacts ne sont plus clairs –, une image fixe à devenir une image en mouvement, à se trouver un “à venir” ? Pour cela les composants élémentaires de l’image disposent d’une nouvelle dimension, comportementale. Et, ici, cette dernière est en lutte avec le sujet même de la représentation. L’image fixe tente de devenir mouvante, de prendre vie, revenant au sens premier et fondamental de l’animation, car animer c’est d’abord donner âme.



Crédits :
Projet développé dans le cadre du groupe Reflective Interaction d’EnsadLab, laboratoire de l’École nationale supérieure des Arts Décoratifs (EnsAD), Université Paris Sciences et Lettres (PSL), avec le soutien de la Chaire arts et sciences de l’École polytechnique, de l’EnsAD-PSL et de la Fondation Daniel et
Nina Carasso.

Prendre vie(s), installation v.1, 2020
Samuel Bianchini avec la collaboration de Didier Bouchon
La Nuit des idées, Musée des Arts et Métiers, Paris, Janvier 2020.

Réalisation informatique (machine learning et algorithmes génétiques) : Didier Bouchon
Remerciements : Alain Declercq