Émergence Artificielle

Admettons qu’aucune divinité créatrice n’ait dessiné notre monde et les êtres qui le peuplent ex nihilo. Comment une telle richesse a-t-elle pu émerger de manière autonome ? Avant de tenter d’aborder cette question, il nous faut définir ce dont on parle. Ce qu’on appelle ici richesse correspond plutôt à la notion de complexité organisée. Ce qui nous fascine dans la nature, c’est la manière dont l’ordre émerge de ce qui semble n'être que désordre. L’émergence est un concept philosophique qui explique l'apparition de propriétés authentiquement nouvelles à partir d'un certain niveau de complexité et d'organisation des particules matérielles. Elle produit une irréductibilité, une qualité nouvelle intrinsèque qui ne vient pas des éléments antérieurs. Une note de musique, par exemple, ne dit pas grand chose seule, mais un sens harmonique émerge lorsqu'elle est jouée avec une deuxième. Ce sens ne réside pas dans les notes elles-mêmes, mais précisément dans l'intervalle, le vide, qui les sépare, dans leur organisation. De la même manière, les propriétés de l'eau, ne sont pas réductibles à celles de l'hydrogène ou de l'oxygène : pour les comprendre il faut aussi s'intéresser aux relations que ces atomes entretiennent entre eux.

L’expression même de matière vivante n’a aucun sens. Il y a des systèmes vivants, il n’y a pas de matière vivante. Aucune substance […] ne possède par soi-même les propriétés paradoxales d’émergence et de téléonomie.

Jacques Monod, Leçon inaugurale au Collège de France, Le Monde, 1967.

fig. 1

Premières photographies de flocons de neige, Wilson A. Bentley, 1885.

Le processus de formation des flocons de neige est un exemple fascinant d'émergence naturelle. Ceux-ci se forment dans l'air lorsque des particules de vapeur d'eau gèlent et se condensent sous l'effet du froid. La structure électronique des atomes d'hydrogène et d'oxygène qui composent l'eau (H2O) donne à la molécule une forme particulière et une polarité qui la force à s'orienter par rapport aux autres molécules d'eau, comme lorsque l'on approche deux aimants. Quand la température est élevée, les molécules sont trop agitées pour rester en position stable et l'eau demeure sous forme de vapeur, mais quand vient le froid, elles se figent en un réseau cristallin hexagonal anisotrope dans lequel les forces sont optimisées.

fig. 1

Agencement des molécules d'eau formant un réseau cristallin hexagonal

Progressivement les molécules d'eau s'accumulent par milliards de milliards formant d'abord un prisme hexagonal. Les coins de l'hexagone étant plus saillants et moins lisses, c'est là que les particules ont tendance à s'accrocher. Si les conditions de température et d'humidité sont les bonnes, des branches peuvent y prendre racine, continuer leur croissance excentrique et à leur extrémité de nouvelles facettes hexagonales peuvent se former ce qui démarre un processus fractal. La croissance est déterminée par les changements des conditions atmosphériques. Comme les six branches se déplacent ensemble dans l'air, elles subissent les mêmes variations et se développent donc de la même manière, ce qui conserve la symétrie du flocon tout au long de sa formation.

Faceting creates order, as embodied by the simple, perfect, hexagonal prism. Branching brings chaos, as embodied by the randomly spaced side branches […]. But with the right mix of order and chaos, nature sometimes creates beautiful snow crystals that are both complex and symmetrical.

Kenneth G. Libbrecht, physicien spécialisé dans la formation des flocons. www.snowcrystals.com.

()

La richesse et la diversité formelle des cristaux de neige est d'autant plus remarquable que leur forme n'est pas dessinée et ne découle d'aucun processus évolutif, mais provient uniquement des règles élémentaires de la matière à l'échelle atomique et subatomique. Les propriétés des flocons émergent de ces simples mécanismes structurels, pourtant leur forme ne pourrait pas être prédite en observant uniquement la structure moléculaire de l'eau.

On pourrait croire ce curieux phénomène à part dans l'univers, mais il s'inscrit en réalité dans une Nature où tout émerge. C'est ainsi que le plasma incandescent amorphe qu'était notre Univers il y a 13 milliards d'années s'est progressivement structuré ou que de primitifs micro-organismes unicellulaires ont évolué vers la diversité contemporaine du vivant.


Au cours de l'année 2016, je découvre le logiciel Processing. Il s'agit d'un environnement de développement informatique créé en 2001 par les artistes américains Benjamin Fry et Casey Reas. Ce programme permet de générer des images en codant des instructions.

fig. 1

Capture d'écran d'un sketch Processing.

Amateur de numérique et d’arts graphiques, j’y passe alors beaucoup de temps. Trois notions me fascinent dans cette façon de créer. La première est la plus évidente car c’est bien ce qui caractérise un processeur : il est possible de réaliser des opérations à une vitesse incroyable, de dessiner des milliers de points, de lignes et de formes en une fraction de secondes. La deuxième notion concerne la couche d’abstraction qu’offre le code qui permet un dessin à l’aveugle, par tâtonnements, ce qui augmente la possibilité de surprise et de sérendipité. Enfin, la machine est capable de faire des choix, pour le dire ainsi, en faisant varier certains paramètres de manière aléatoire. Pour moi, cette dernière notion ouvre la porte à une posture nouvelle du·de la créateur·ice qui ne construit plus un résultat unique mais un ensemble potentiellement infini de résultats possibles. L’idée avec le dessin génératif, c’est que l’on ne fabrique pas la forme directement, on conçoit un ensemble de règles qui permettent à un système de dessiner à sa place. Tout comme dans l'exemple du flocon, ces lois structurent le processus chaotique de formation des images.

En 2020 je commence à fabriquer un synthétiseur modulaire. Composé de modules fonctionnels indépendants qui communiquent entre eux par des câbles jack, ce dispositif me permet d’expérimenter avec des techniques de musique générative : inspiré par des artistes comme Brian Eno, je cherche à créer des mélodies, des rythmes ou des suites d’accords générés grâce à un ensemble de règles, définies par les branchements que je réalise entre les modules. Ces expérimentations intègrent souvent de l’aléatoire mais demandent un travail rigoureux lors de la conception du système pour que l’objet sonore généré puisse être contrôlé et garder une certaine organisation.

fig. 1

Moi en train de programmer mon synthétiseur modulaire dans le Jura, 2024. Photo de Félicie Chevassus.

Entre 2022 et 2023, dans le cadre d’un atelier de projet à l’ENSCI encadré par Jean-François Dingjian et François Lafortune, je m’interroge sur l’idée d’un moule souple, sujet me permettant de questionner la reproductibilité parfaite d’un objet moulé. Dans l’industrie, le moule est très utilisé comme moyen de reproduire en grande série et à l’identique une forme dessinée dans une optique de standardisation. L’idée d’un moule souple évoque tout de suite l’impossibilité de reproduction parfaite et par extension l’émergence de formes non dessinées. Quelle place peut alors prendre le désordre dans le processus de création : où placer le curseur entre le chaos et le dessin. Je propose une série de vases en plâtre moulés dans du papier fixé dans une matrice en bois. Je contrôle rigoureusement les dimensions des vases avec les matrices fixes, mais le papier se déforme de manière chaotique sous le poids et l’humidité du plâtre. Chaque tirage partage donc avec tous les autres des caractéristiques choisies (dimensions, matériau, procédé, couleur), mais, comme le flocon de neige, demeure toutefois unique.

fig. 1

Tirages de vases en plâtre moulés dans du papier, 2024. Photo de Véronique Huygues.

Ces expériences plus ou moins spontanées ont en commun une chose : ma pratique consiste à faire un pas en arrière pour déléguer la création d'une forme, qu'elle soit graphique, musicale ou sculpturale, à un système conçu pour cette tâche. Je conçois directement l'outil de création/production plutôt que le résultat final. Elles sont le point de départ d'un travail exploratoire autour des systèmes génératifs et de leur usage dans les champs de la création. Une précision du sujet se fait dans le courant de l'été 2023 où la musique minimaliste commence à prendre une place importante dans mes recherches. Les principes fondateurs de ce mouvement qui prend naissance dans les années 1960 aux États-Unis consistent à faire émerger une richesse et une complexité musicale à partir d'une matière première restreinte, comme un simple enregistrement de quelques secondes ou une série de quelques notes, en s'appuyant notamment sur la répétition (d'où le nom de musique répétitive qui lui est souvent donné en Europe). Cette musique n'est jamais nommée parmi les pratiques génératives, pourtant elle représente parfaitement ce qui me fascine dans ce travail. C'est de là que la notion d'émergence entre dans mon sujet et que la musique, art qui consiste à arranger et organiser structurellement dans le temps le son, une matière première initialement informe, fluide et chaotique, y prend une position centrale.

Depuis quelques années, le mot émergence revient avec les questionnements liés à l'intelligence artificielle et à sa démocratisation. Quelle que soit l'approche, de l'apprentissage automatique aux modèles symboliques très simples, ce sont des techniques parfaitement déterministes qui ne fonctionnent sur aucune autre réalité que les 1 et les 0 présents dans la mémoire d'un ordinateur, mais parfois leur grande quantité et surtout la quantité des intéractions entre ces éléments font émerger des résultats rivalisant avec les produits de nos cerveaux. Ce qu'on nomme intelligence dans ces technologies artificielles, c'est leur capacité à imiter un raisonnement animal, et souvent humain. Si l'intelligence n'est qu'un exemple anthropo-centré d'émergence parmi une immensité d'autres, l'intelligence artificielle n'est alors qu'un exemple anthropo-centré d'émergence artificielle.

Si les flocons étaient dessinés, aurait-on un intérêt à les admirer comme l'a fait Wilson A. Bentley au début du XXe siècle ? Ces flocons sont bien tout sauf moulés : la probabilité que deux flocons dans toute l'histoire de l'univers aient été identiques est même admise nulle. Qu'est ce que la formation des flocons, leur non-conception, peut nous apprendre sur notre pratique de création ? Et alors quel rôle pour le·la créateur·ice ?

Minimalisme

En 1970, à Cambridge, le mathématicien britannique John Horton Conway crée le Game of Life.

fig. 1

John Horton Conway en 1974, Kelvin Brodie pour The Sun.

Il s’agit d’un automate cellulaire en deux dimensions, un modèle mathématique composé d’une grille de cellules qui s’allument ou s’éteignent à chaque tour en fonction d’un ensemble de règles simples. Chaque cellule peut être dans l’un des deux états : vivante ou morte. L’état d’une cellule évolue en fonction de l’état de ses huit voisins (horizontaux, verticaux et diagonaux). Une cellule vivante survit si elle a deux ou trois voisins autour d’elle, sinon elle meurt de solitude ou de surpopulation, et une cellule peut naître si exactement trois cellules sont présentes autour d’elle. La grille entière prend donc une nouvelle forme tirée de la précédente, et le processus peut recommencer.

fig. 1

Schéma des règles du Game of Life.

Ces règles toutes simples peuvent pourtant donner lieu, après un certain nombre de tours, à des motifs complexes et parfois surprenants. La plupart des configurations sont chaotiques et finissent par s’éteindre, mais quelques-unes perdurent. Certaines atteignent des états statiques stables (fig. 8), d’autres oscillent entre différents états (fig. 9) et d’autres encore se déplacent à travers l’espace de manière continue, jusqu’à ce qu’elles rencontrent un obstacle qui vienne perturber cet ordre (fig. 10). Voici des simulations interactives de ces trois types de « formes de vie » élémentaires.

fig. 1

Un block

fig. 1

Un blinker

fig. 1

Un glider

Ces motifs simples émergent du chaos assez communément au bout de quelques itérations. Voici l’évolution d’un Game of Life de 80×48. On constate que le chaos initial finit par s’ordonner.

It. 0

fig. 1

Évolution d’un Game of Life de 80×48

fig. 1

A survey of lifeforms, John Conway, 1970, Stanford University Libraries.

Une véritable zoologie de structures et formes de vie localisées ont été découvertes par l’équipe de recherche de Conway dans les années suivantes et par des individus autour du monde grâce à l’évolution de la puissance et de la capacité de mémoire des ordinateurs personnels, puis à l’arrivée d’Internet.

fig. 1

Chantier aéronaval conçu dans Game of Life par Dave Greene en 2003 (Period-416 60P5H2V0 gun).

Le jeu a attiré un culte de Lifenthusiasts, des personnes qui passent encore aujourd’hui leur temps à dénicher de nouvelles formes de vie ou à concevoir des mécanismes articulés comme des super vaisseaux qui tirent des missiles tout en se déplaçant, mais aussi des horloges numériques (fig. 13) ou de petits calculateurs fonctionnels. Un utilisateur a même créé en 2006 un méta-pixel de 2058 cellules de côté permettant de simuler Life dans Life (fig 14).

fig. 1

Horloge numérique créée dans Life par twe4ked en 2017.

fig. 1

Un Game of Life simulé dans Game of Life à l'aide de l'OTCA metapixel développé par Brice Due en 2006.

En 1982, Conway a démontré que Life était capable de simuler un ordinateur universel, c’est à dire capable d’être programmé pour réaliser n’importe-quelle opération, comme le font les ordinateurs traditionnels. Le site conwaylife.com, créé en 2008, centralise la recherche sur Life et anime sa communauté.

Le déroulement des générations successives d’une grille de Life est parfaitement déterministe. Pour les mêmes conditions initiales, la même évolution se produit à chaque fois et un infime changement dans les conditions peut provoquer une altération drastique du résultat final (l'idée derrière le terme d'effet papillon). Aucun événement aléatoire ne peut intervenir, pourtant ces résultats sont imprévisibles, pour notre cerveau qui ne nous permet pas de prévoir un tel enchevêtrement de réactions en chaîne, mais aussi pour le calcul : pour connaître l’état de la grille 1000 itérations plus tard, il n’y a pas d’autre moyen que de passer par les 999 itérations précédentes. Comme dans le cas de la formation des flocons de neige, déterminisme et imprévisibilité cohabitent, c’est le propre des systèmes chaotiques.

We are used to the idea that anything complex must arise out of something more complex. Human brains design airplanes, not the other way around. Life shows us complex virtual “organisms” arising out of the interaction of a few simple rules – so goodbye “Intelligent Design”.

Un automate cellulaire étant un processus qui se développe dans le temps, c’est tout naturellement que des applications musicales ont été rapidement imaginées, dès la fin des années 1980. Le musicien le plus célèbre ayant utilisé les automates cellulaires est sans doute Iannis Xenakis dans sa pièce Horos composée en 1986, pour produire des progressions harmoniques et de nouvelles combinaisons de timbres. Les automates cellulaires, comme nous l'avons vu, présentent souvent des motifs récurrents identifiables. En musique, ces motifs sont des éléments importants qui permettent de justifier à l'oreille la légitimité d'une phrase musicale, d'où l'existence de refrains dans les musiques de nombreuses cultures depuis au moins l'antiquité et en général de la répétition en musique. Voici un exemple d'utilisation primaire d'automates cellulaires à une dimension pour la génération de mélodies. L'icône « dé » permet de générer un nouvel automate aléatoire.

Règle #168

Automates Cellulaires


Quelques années avant Game of Life (en 1965), de l’autre côté de l’Atlantique (à New York) et relativement loin des mathématiques fondamentales, Steve Reich compose la pièce It’s Gonna Rain. Il s’agit d’une composition sur bande magnétique dans laquelle on entend un homme, le prédicateur Brother Walter, annoncer la fin des temps en pleine rue par les mots it’s gonna rain. Ce court enregistrement est la seule matière première de la pièce. Reich utilise deux magnétophones jouant en boucle le même court échantillon. En essayant à la base de synchroniser le début de l’un avec le milieu de l’autre, il se rend compte que les deux enregistrements se désynchronisent progressivement. L’une des bandes se retarde par rapport à l’autre en raison de la technologie imprécise de l’époque et de la longueur des boucles de ruban assemblées à la main. Avec un peu de patience, les deux bandes finissent par se remettre en phase, mais avant cela, chaque instant de la première bande rencontre chaque instant de l’autre, créant des rythmes répétés en constante évolution, en désordre flou jusqu’à certains moments où un sens musical apparaît. On y entend parfois des harmonies et même des timbres qui ne sont pas présents sur l’échantillon original, des effets acoustiques et psychoacoustiques qui émergent de l’interaction de l’échantillon avec lui-même.

fig. 1

Steve Reich pendant une performance aux Bell Laboratories en 1970.

It’s Gonna Rain est la première œuvre majeure de Reich et est considérée aujourd’hui comme un fondement dans le mouvement musical minimaliste et la process music. La musique minimaliste est un courant de musique contemporaine apparu dans les années 1960 aux États-Unis en réaction à l'évolution, en Europe, du langage musical vers l'atonalité, une technique qui se caractérise par le rejet du système tonal, fondement de la grammaire musicale de la quasi-totalité des musiques occidentales. Plus qu'un retour à la tonalité, le courant minimaliste est surtout caractérisé par l'utilisation d'une pulsation régulière et la répétition de courts motifs évoluant lentement. La musique minimaliste ne consiste pas en un dépouillement formel, comme c'est le cas dans le minimalisme sculptural ou pictural, mais au contraire au développement d'une richesse et d'une complexité à partir d'une matière première, elle, minimale. L’année suivante, Reich compose la pièce Come Out, dans laquelle la phrase come out to show them est bouclée pour créer le même effet.

It's Gonna Rain (reconstitution)

It's Gonna Rain (reconstitution)

Steve Reich

En 1967 il sort de son studio plein de magnétophones pour écrire Piano Phase, où l’effet de phase shifting est transposé à des instruments acoustiques. Dans cette pièce, deux pianistes jouent de manière répétée la même séquence de 12 notes, puis l’un·e commence à prendre de l’avance sur l’autre générant des rythmes intéressants. Assez vite, iel dépasse l’autre d’un temps faisant se superposer des notes et faisant donc émerger des jeux harmoniques. Mais en plus de ces effets attendus, l’écoute de cette pièce provoque des phénomènes psychoacoustiques qui le sont moins, comme l’apparition de nouvelles mélodies entre les notes ou d’effets stéréophoniques variant selon la position de l’auditeur·ice dans la salle et le jeu des interprètes. Tout comme il est impossible de connaître l’avenir d’une grille du Game of Life sans passer par toutes les itérations qui y mènent, il est impossible pour le compositeur de connaître ces effets sans écouter la pièce.

Piano Phase (reconstitution)

Piano Phase (reconstitution)

Steve Reich

Une fois que les douze notes se sont superposées entre elles et que les deux joueurs se retrouvent à nouveau à l’unisson, le même principe s’applique avec une autre séquence de 8 notes, puis avec une dernière séquence de 4 notes. Au total, une performance de Piano Phase est prévue pour durer une vingtaine de minutes. Dans un texte intitulé Music as a Gradual Process, Reich explique que ce qui l’intéresse n’est pas simplement d’entendre le produit du procédé, qui ne serait alors qu’une technique de composition, mais d’entendre le procédé lui-même, en tant qu’effet musical. Il cherche à faire du procédé de composition et de la musique perçue une seule et même chose. Il précise que le procédé doit pour cela se produire de manière extrêmement graduelle.

The use of hidden structural devices in music never appealed to me. Even when all the cards are on the table and everyone hears what is gradually happening in a musical process, there are still enough mysteries to satisfy all.

Steve Reich, Music as a Gradual Process, 1968

()

Lors d’une conférence donnée à San Francisco en 1996, le compositeur Brian Eno compare les procédés découverts par Steve Reich à des moirés. Un motif de moiré apparaît lorsque l’on superpose deux réseaux, séries de fines lignes parallèles espacées de manière régulière. L’interaction de ces lignes en fonction du décalage et de la rotation de l’un par rapport à l’autre créent des variations de densité localisées faisant émerger des formes. Ces formes émergent, comme les sons des premiers travaux de Reich, à cause de notre perception et non d’un événement physique, elles présentent une imprévisibilité malgré l’inexistence de quelconque procédé aléatoire.

Brian Eno est un musicien, compositeur, producteur et artiste visuel britannique surtout connu pour son travail pionnier dans le domaine de la musique électronique et ambiante. Sa carrière de compositeur démarre dans les années 1960, au moment où naît le mouvement musical minimaliste. Les idées que je viens d’aborder ont été déterminantes dans la construction de ses travaux, et le fait de concevoir une pièce comme un système ou un ensemble de règles qui puissent créer de la musique à sa place a marqué sa pratique. Pas comme une économie de travail, mais comme un moyen de passer du statut d’architecte à celui de jardinier.

À travers cette métaphore énoncée lors d'une conférence à la Serpentine Gallery en 2011, Eno propose de sortir de l’idée du·de la compositeur·ice de génie, qui dans un éclair de sagesse porte une image complète de l’œuvre avant qu’elle ne soit réalisée, et de passer à l’idée de l’artiste jardinier·ère, qui après la simple action de planter une graine, observe la plante pousser, dans toute sa complexité organique. Mais iel n’est pas qu’observateur·ice pour autant : il va ajuster la croissance de la plante à son goût, en adaptant la quantité d’eau, l’exposition au soleil, en taillant certaines parties ou en orientant la poussée à l’aide d’un tuteur. Dans son travail, Eno poussera radicalement cette idée pour créer des systèmes musicaux génératifs basés sur une part d’aléa. Au lieu d’écrire une partition, il écoute le système évoluer et il ajuste des variables en direct pour orienter la composition.

La structure des titres de Music for Airports (1978), l’un de ses premiers albums, est très simple. Inspiré par les techniques de phase shifting de Steve Reich, Eno met au point un système de boucles de bandes magnétiques similaire mais sur des échelles temporelles plus longues. Dans le titre 2/1, sept échantillons contenant chacun une note chantée tournent en boucle. La durée de chaque boucle variant entre 16 et 25 secondes, les échantillons se déplacent petit à petit, mais de manière beaucoup plus subtile que dans Piano Phase, par exemple, dont l’ostinato1 de 12 notes de la première partie dure moins de 3 secondes, ce qui permet d’identifier la boucle en tant que telle, et dont la même mélodie est jouée sur deux bandes seulement. Eno ne cherche pas comme Reich à rendre audible le procédé, ce qu’il nomme musique ambiante, c’est une musique capable d’accommoder tous les niveaux d’intérêt sans forcer l’auditeur·ice à écouter, une musique qui soit, à l'instar de la musique d'ameublement d'Erik Satie, aussi intéressante que facile à ignorer. Ce qui l’intéresse est ce que permet l’aspect génératif de ces techniques. Le temps de travail pour un·e compositeur·ice est habituellement proportionnel, voire exponentiel par rapport à la durée de la pièce, c'est la limite physique la plus robuste de ce métier. Dans Music for Airports, les longueurs des bandes choisies et leur nombre font que la mélodie générée peut théoriquement tourner pendant des centaines de millénaires sans se répéter une seule fois, et cela sans intervention humaine. S’ouvre alors la possibilité d’une musique sans début ni fin, qui se joue nuit et jour sans interruption, toujours présente et toujours différente. Cette technique a également été utilisée dans d'autres pièces du compositeur comme Discreet Music (1975), On Land (1982), Thursday Afternoon (1985) ou Neroli (1993).

2/1

0:00

2/1 (reconstitution)

2/1 (reconstitution)

Brian Eno

L'idée d'une musique pratiquement infinie en constante évolution a donné à l'album son nom, imaginé comme un fond sonore originalement destiné à être diffusé dans les terminaux aéroportuaires pour apaiser le stress des longues attentes. Si le système a bien été installé quelque temps à l'aéroport LaGuardia de New York dans les années 1980, la plupart des auditeur·ice·s n'entendront jamais que les 8 minutes 54 secondes du titre sorti format vinyle LP en 1978. Brian Eno a réalisé plusieurs installations où plusieurs lecteurs cassette étaient distribués dans l'espace et lisaient chacun une boucle de longueur différente sur leurs propres haut-parleurs simultanément. Ainsi, il était possible de retranscrire le caractère changeant et infini de sa musique, une musique alors différente à chaque point dans le temps et dans l'espace. Mais encore une fois, lorsqu'il s'agit de diffuser cette musique, il se retrouvait bridé par les supports classiques d'enregistrement. « What I always wanted to do was to sell the system itself, so that a listener would know that the music was always unique » écrit-il en 1996 dans A Year with Swollen Appendices.

Nous avons vu à travers les précédents exemples que des principes simples mais déterministes, dépendant uniquement des conditions initiales, peuvent générer de la complexité imprévisible. On peut changer le résultat en faisant simplement varier ces conditions initiales, par exemple en ajoutant quelques pixels sur une grille de Game of Life, en changeant la vitesse d’un magnétophone ou en remplaçant les échantillons dans un dispositif de phase shifting. Mais une fois le système mis en place, son avenir est écrit, gravé dans le marbre. En réalité, ce n’est pas tout à fait le cas dans Piano Phase. Les directions de performance indiquent que chaque décalage de note doit se faire en un nombre de répétitions variable, dont le minimum et le maximum sont indiqués au-dessus de chaque mesure. On peut par exemple lire dans les instructions « Le premier interprète commence à la mesure 1 et, après environ 4 à 8 répétitions, le second entre progressivement, à l’unisson ». Sur la partition, on peut lire la mention assez peu précise « accel. very slightly » qui indique à l’un·e des interprètes d’accélérer très doucement. Les pianistes réalisant cette performance n’étant pas des machines, la durée peut varier légèrement d’une représentation à l’autre.

Interaction humain·e-système

Quelques années avant Piano Phase, en 1964, le compositeur américain Terry Riley compose In C, considérée comme étant la première œuvre du courant musical minimaliste. Il donne ici beaucoup plus de liberté aux interprètes, et c’est tout l’enjeu de cette pièce. À l'instar des Musikalisches Würfelspiel du XVIIIe siècle, un système, souvent attribué à Mozart, permettant de générer des compositions uniques en quelques lancers de dés à partir d'une table de 272 mesures musicales composées en avance, la partition de Riley est composée de 53 phrases musicales de longueur différentes, qu’un nombre variable de musicien·ne·s doivent jouer et répéter autant qu’iels le souhaitent avant de passer à la suivante. Ainsi, la partition de In C tient sur seulement une page, et les représentations de cette pièce musicale oscillent entre 45 minutes et 1h30, proposant une nouvelle version et de nouvelles combinaisons de motifs à chaque fois. Si on considère que les interprètes sont doué·es de libre arbitre, alors on considère cette fois que ce système social génératif n’est pas déterministe.

fig. 1

Partition de la pièce In C de Terry Riley.

After working with tape loops and repetition a lot, I had this idea of a musical universe emerging that I hadn’t heard before coming together. Since then, I’ve always liked to include something in the mix that has some chance operational quality about it. I like to continue surprising myself

On peut faire un parallèle entre In C et certains travaux du designer italien Gaetano Pesce où il propose de rendre un pouvoir d'intervention à l'ouvrier·ère sur la matière au sein du processus de fabrication industriel, qui s'y trouvait aliéné·e par la mécanisation et la standardisation des gestes pour le travail à la chaîne. Il en résulte une production issue de l’industrie, mais qui laisse voir le faire, qui assume le défaut, ce que Gaetano Pesce nomme délibérément le mal fait, en tant que qualité et spécificité du produit. C'est un moyen de valoriser à la fois la main d’œuvre et les caractéristiques propres au procédés industriels. En rendant les ouvriers actifs, entretenant un rapport personnel à la production, le designer émet la possibilité d’une industrie où la machine redevient outil, c’est-à-dire subordonnée à la main de l’homme au lieu d’imposer à l’ouvrier une cadence de production. En 1972, il crée la bibliothèque Carenza. Il trouve le moyen de faire couler du polyuréthane en expansion dans un moule qui se trouve couché, dos sur le dessus, de sorte que l’écoulement de la mousse se fasse de manière organique. Le moule est conçu sans évent pour l’évacuation de l’air ce qui emprisonne des bulles et arrête la coulée aléatoirement. L'espace d'expérimentation que Pesce dégageait reposait sur les deux principes suivants : produire en série, produire des objets singuliers. L'aléatoire, qu'il résulte d'une manipulation mécanique ou d'une intervention manuelle de l'ouvrier, est le moyen trouvé par Pesce pour conjuguer ces deux principes.

[…] la série diversifiée a également pour fonction de transmettre des valeurs politiques. Elle représente, dans le domaine des objets, la réalité nouvelle d'un marché qui, depuis un certain temps, réclame des produits à la fois uniques et cependant industriels ou non artisanaux et susceptibles de nous procurer le plaisir d'établir un rapport d'authenticité avec nous-mêmes.

Gaetano Pesce, Le temps des questions, Centre Pompidou, 1996.

fig. 1

Bibliothèque Carenza de Gaetano Pesce, Vitra Design Museum.

It’s Gonna Rain et Music for Airports sont produits à l’aide de méthodes génératives, mais les résultats ne gardent pas en eux cette nature générative, ils sont générés par le compositeur en amont de la diffusion ou de l’interprétation, puis on entend plus ou moins la même musique à chaque fois. À l’inverse, In C et Carenza sont des produits génératifs, il ne sont pas générés une fois par le·la créateur·ice mais à chaque fois qu’il est joué par les musicien·ne·s ou qu'un tirage est réalisé par les ouvrier·ère·s. Chez Riley c’est le système lui-même qui est partagé, pas seulement ce qu’il produit. N’importe qui peut jouer la partition et générer une nouvelle version, avec le choix sur les instruments présents et leur nombre. Ce n’est pas de la process music au sens strict et mécanique des premiers travaux de Steve Reich, mais un exercice complexe de jeu, d’écoute et de dynamiques de groupe.

Riley a travaillé jeune en tant que pianiste jazz et ragtime, des genres où l’improvisation est très importante. Dans l’ensemble de son œuvre de compositeur, on observe que l’improvisation a également une place, peut être encore plus grande que celle de la musique écrite. Dans In C, les musicien·ne·s improvisent à l’intérieur d’un système cadré. Iels ne touchent pas aux notes, mais peuvent se concentrer sur les interactions entre leur jeu et celui des autres. Dans les instructions de performance, il est d’ailleurs inscrit « It is very important that performers listen very carefully to one another and this means occasionally to drop out and listen ». La matière première, constituée des 53 phrases, est définie en amont, fixée dans le système, mais les instrumentistes choisissent l’organisation temporelle des parties entre elles, organisation qui permet de faire émerger des mélodies qui ne se trouvaient pas à l’origine dans la partition.

On pourrait se dire que mélanger des phrases musicales de longueurs différentes de manière incontrôlée mène forcément à un chaos harmonique et rythmique, pourtant ce n’est pas ce que l’on entend dans In C. Le système est conçu de manière à éviter celà : le nom de la pièce correspond à la gamme de do majeur. En musique, une gamme est un ensemble de notes qui permettent de composer une pièce, comme une gamme colorée en arts visuels, c’est une limite que l’on se donne qui permet une certaine cohérence globale. La pièce démarre donc sur une gamme de do majeur, comportant les huit touches blanches d’une octave de piano et excluant les touches noires. Au bout de quelque temps, la gamme passe à mi mineur quelques mesures avant de revenir à do majeur puis se termine en sol mineur. Ces changements de tonalité se font sans problème car ils ne modifient que très peu la gamme : une seule note passe un demi-ton au dessus pour passer en mi mineur et deux notes passent un demi-ton au dessous pour passer en sol mineur. La dissonance générée par ces changements de tonalité est donc minime. Pour ce qui est du rythme, le principe de répétition des phrases musicales permet de donner une structure rythmique familière à l’oreille de l’auditeur·ice. En plus de cela, un piano joue un do en boucle tous les demi-temps pour donner le tempo aux autres musicien·ne·s.

Ce système s’inscrit donc lui-même dans un système plus large, le système tonal de la musique occidentale. Mais il n’est évidemment pas le seul, et les minimalistes américains des années 1960 se sont beaucoup intéressés à la manière dont les cultures non-occidentales concevaient la musique. Si Steve Reich a beaucoup été influencé par les musiques rythmiques africaines et balinaises, c’est probablement la musique indienne et ses codes qui a le plus marqué le mouvement minimaliste. Les musiciens indiens Pandit Pran Nath et Ravi Shankar ont notamment eu une grande influence sur la musique de compositeurs comme Riley et ses contemporains La Monte Young et Philip Glass, qui témoignent tous les trois de l’impact qu’à eu la musique indienne, et notamment les rāgas, sur leur travail et leur conception même de la musique. Concept musical propre à la musique classique de l’Inde, un rāga est essentiellement un ensemble de règles d’improvisation musicale qui agit en tant que modèle sur la manière de construire une mélodie. Il spécifie la gamme, les notes à utiliser librement et celles à utiliser avec parcimonie, les notes utilisées lors de mouvements ascendants ou descendants, les notes qui doivent être chantées, les phrasés préconisés ou à éviter, certaines lignes mélodiques distinctes et même le moment de la journée propice à son interprétation. Il est à la fois une matrice d’improvisation génératrice d’énoncés musicaux et une référence par rapport à laquelle ces énoncés peuvent être validés. En ce sens, le rāga comporte deux dimensions : une dimension normative et une dimension créative. La dimension normative détermine l’identité d’un rāga et permet de la préserver dans le temps au travers des interprétations créatives et singulières de chaque musicien·ne. La dimension créative, elle, fait appel à l’individualité du·de la musicien·ne·s, à l’héritage musical et au potentiel créateur propre à chaque artiste. Tout ceci donne un cadre utilisable pour composer ou improviser des mélodies, autorisant un nombre infini de variations basées sur un ensemble de notes prédéfini.

I know that a lot of the ways that music is integrated into our lives is changing. One of the big changes is that music is becoming a process that people can participate in - rather than a bunch of fixed, finite entities called pieces that you can listen to that are the same every time.

En réalité, une grande partie de ce que l’on considère comme de la musique se produit au sein d’un système rythmique, tonal ou harmonique très codifié : modes, gammes, répétitions, etc. et l’écriture musicale qui va avec. Ces codes sont inscrits dans la culture de chacun, et s’ils sont souvent appliqués sans même y réfléchir, concevoir un système génératif cadré appelle à s’y intéresser et à les quantifier. Le système conçu par Riley pour In C utilise ces codes pour assurer que les choix laissés aux musicien·ne·s ne provoquent pas des situations que le compositeur voudrait éviter, comme par exemple de trop fortes dissonances. L’agencement des notes d’un piano remplit une fonction similaire : les touches blanches forment la gamme diatonique utilisée dans les chants grégoriens dès le VIIIe siècle, et en y ajoutant les touches noires on obtient la gamme chromatique, ou chaque note est séparée d’un demi-ton, le plus petit intervalle utilisé en musique occidentale. Plus restrictif encore, un harmonica diatonique contient encore moins de notes ce qui permet de contraindre les possibilités de jeu à des accords harmoniques fixés. Un instrument, tout comme un orchestre ou un système musical génératif, n’est pas simplement un moyen de produire un son : il détermine aussi la façon de jouer et un spectre de possibilités de création auquel le ou les interprètes ont accès via un agencement défini, à l’interface entre le·la créateur·ice et la création.

Des espaces. J'y entre, cherche, découvre. J'en sors et je présente. Il ne s'agit pas ici de répertorier ou de documenter, mais de donner accès à un musicien à mon expérience, expérience qui pourra ensuite se faire outil. De la façon la plus brutale et naïve, on pourrait extraire la plante rare découverte et un petit cube d'univers qui l'entoure, et s'en tenir à ça. Y donner accès, sans aucune carte, chaque coordonnée de son espace-temps tout aussi valable qu'une autre. Cela flatte l'instinct explorateur de qui s'y trouvera, mais je préfère les jardins botaniques aux réserves, car on peut y tracer des chemins.

Des chemins qui vont de plante en plante, parmi toutes celles que j'ai trouvées. Des chemins qui retracent (ou réinventent) la chronologie des découvertes. Des chemins qui permettent d'apprécier ce qui m'a paru beau. Des chemins chromatiques, dialectiques, didactiques. Des chemins qui ralentissent le temps et élargissent l'espace là où il y a beaucoup à voir, et qui coupent à travers l'herbe aride. Plus épais ici et plus fins là. Des chemins vers d'autres chemins. Des chemins que l'on pourra suivre une fois, deux fois, desquels on remarquera les espèces les plus marquantes, puis dont on pourra progressivement s'écarter, jusqu'à remarquer, peut-être, une nouvelle fleur qui se sera sentie bien, dans ce jardin. Pour qu'on y flâne ou qu'on y apprenne – car ce qui se trouve aussi s'enseigne.

Émilie Gillet sur son approche de la conception de synthétiseurs, Dans les jardins des chemins, Spectres nº3 : Fantômes dans la machine, 2021.

fig. 1

Laurie Spiegel dans le studio des Bell Laboratories.

En 1985, la compositrice américaine Laurie Spiegel crée Music Mouse - An Intelligent Instrument, un logiciel de composition musicale pour Macintosh. Deux claviers se croisent formant une matrice sur laquelle le curseur de la souris peut se déplacer en deux dimensions. La position du curseur sur cette surface va déterminer la hauteur de quatre notes. Ces quatre notes vont être jouées en arpèges selon les paramètres de la fenêtre de gauche. On peut choisir une gamme harmonique, le motif rythmique, l’ordre des notes ou encore la répartition des notes sur les axes x ou y.

Click
Click

La génération des mélodies qui sortent de Music Mouse se fait en trois moments : d’abord dans l’algorithme que Spiegel a développé, ensemble de règles immuables basées sur la théorie musicale occidentale, puis dans les paramètre fixés par l’utilisateur·ice, et enfin dans les mouvements libres de l’utilisateur·ice. Les mélodies n'ont ni été prévues par Spiegel, ni par la personne devant son écran, ni par le système, mais émergent de l'interaction entre ces différentes parties.

I automate whatever can be automated to be free to focus on those aspects of music that can't be automated. The challenge is to figure out which is which.

Laurie Spiegel citée par Elizabeth Hinkle-Turner dans Women Composers and Music Technology in the United States, 2006.

()

La nécessité de spécifier à l'ordinateur des règles de composition demande immédiatement d'expliciter ces règles et force le·la compositeur·ice à s'interroger sur les processus qu'il met en œuvre consciemment ou non, dans une démarche relevant de la méta-composition.

Algorithmes et calcul

Nous avons vu dans les précédents exemples qu’un système peut aussi bien être complètement autonome et déterministe qu’offrir un certain niveau de liberté à une ou plusieurs personnes. Dans tous les cas, des paramètres définis de façon déterminée ou arbitraire affectent le comportement du système : les règles du Game of Life de John Conway, les vitesses de lecture des bandes magnétiques chez Steve Reich ou Brian Eno, et les différentes lignes mélodiques en do de Terry Riley sont choisis et ajustés par les concepteurs, alors que les différents paramètres du logiciel de Laurie Spiegel sont définis par les utilisateur·rice·s, même si la conceptrice a choisi lesquels sont affichés, leur plage et leur portée sur les mélodies générées.

En 2004, le chercheur en géométrie algorithmique canadien Godfried Toussaint, découvre que l'algorithme d'Euclide, utilisé pour trouver le plus grand diviseur commun entre deux nombres, permet de générer des rythmes que l'on retrouve dans de nombreuses musiques traditionnelles autour du monde à partir de trois nombres entiers seulement. Le principe est de répartir k battements à l'intérieur d'une mesure comportant n temps de la façon la plus équirépartie possible. Par exemple, les rythmes indiqués ci-dessous sont des rythmes euclidiens où respectivement 3, 5 et 7 battements sont répartis sur 8, 12 et 16 temps générant les rythmes du tango cubain basé sur le tresillo, du venda sud-africain et de la bossa nova brésilienne.

Tresillo
E(3, 8)
Venda
E(5, 12)
Bossa Nova
E(7, 16)

Représenter ces rythmes sur des cercles permet de visualiser leur nature cyclique et amène un troisième paramètre de génération : la rotation, ou le décalage du point de départ, le temps fort du rythme. Ce paramètre permet de créer encore plus de variations, elles aussi présentes dans la plupart des musiques du monde.

E(4, 9, 3)
4
Battements
9
Longueur
3
Rotation

Mais si ces rythmes existent déjà, quel est l'intérêt pour un·e musicien·ne d'utiliser un algorithme vieux de plus de deux siècles pour les générer ? On peut présenter la méthode autrement : l'algorithme d'Euclide sert d'interface de création et de contrôle entre un·e compositeur·rice et une ligne de rythmique complexe à partir de seulement trois chiffres, et peu importe la valeur de ces paramètres, le rythme restera cohérent, connu et assimilable comme tel par l'oreille humaine car les battements sont équirépartis sur la mesure, comme on peut l'observer dans beaucoup de rythmes traditionnels.

On dit que ces trois paramètres représentent le rythme. Pour mieux comprendre l'idée de représentation paramétrique, il faut revenir aux fondements de l'outil informatique. Un ordinateur n'est fondamentalement rien d'autre qu'une machine effectuant des opérations dans un grand casier de 1 et de 0, la mémoire. Certaines des zones de cette mémoire sont allouées à certaines tâches précises, comme l'affichage de pixels sur un écran. Si un bit de cette zone est un 1, le pixel correspondant sera allumé, si c'est un 0 il restera noir (je prends l'exemple d'un écran sans couleur et sans nuances de gris afin de simplifier, mais le principe est le exactement le même sur un écran couleur classique, avec plus de bits pour chaque pixel). Pour afficher une image, on copie la valeur de chaque pixel la composant, stockés quelque part dans la mémoire, dans la zone dédiée à l'écran. Mais pour certains usages, comme le tracé de formes géométriques, on peut ne stocker que les paramètres qui représentent l'image et l'afficher à l'aide d'un algorithme, une série d'instructions qui déterminera les pixels à allumer en manipulant les nombres correspondants. Par exemple, pour afficher un cercle, il suffit de stocker la position de son centre et son rayon. En plus d'un gain d'espace, cela permet de modifier les formes de manière beaucoup plus simple et interactive et d'envisager des systèmes plus complexes ou les formes peuvent être mises en relation les unes avec les autres. En 1963, Ivan Sutherland crée le programme Sketchpad, permettant pour la première fois de dessiner interactivement des segments de droites et des arcs de cercle à l'écran via un stylet.

fig. 1

Interface du programme Sketchpad.

Le programme permet de contraindre la géométrie des formes en stockant en mémoire des relations entre les différents paramètres : même position de deux points, égalités de longueur entre deux segments, conservation des angles, alignement, etc. La nature paramétrique des dessins réalisés ainsi permet de changer la forme dans son ensemble en en manipulant seulement un élément.

Au sein de la mémoire de l'ordinateur, la forme n'existe pas comme un assemblage fixe, elle est décrite par les relations entre les composants élémentaires. La forme affichée sur l'écran n'est qu'une instance parmi une infinité potentielle de variantes. Plus le dessin est contraint, moins l'ordinateur fait de choix, moins la variance est élevée. On peut alors demander à la machine de générer une grande variété de formes répondant toutes aux contraintes formulées et de sélectionner ensuite les meilleures propositions selon des critères de performance. On appelle cela l'optimisation topologique. C'est de ce principe que l'architecte italien Luigi Moretti introduit le terme d'architecture paramétrique et il utilise ces techniques pour concevoir avec le mathématicien Bruno de Finetti une proposition de stade de football présentée à la Triennale de Milan de 1960. En produisant une grande quantité de morphologies respectant les contraintes techniques grâce au dessin paramétrique, il les note selon de nombreux critères tels que l'orientation des sièges, la visibilité ou encore la faisabilité économique. Puis il s'inspire des processus de sélection naturelle en supprimant les moins bons modèles, et en déclinant plus subtilement les quelques meilleurs en grande quantité. À force de répéter ce procédé, il arrive à des résultats tous plus optimaux que les autres, qui sont ensuite sélectionnés selon des critères plus subjectifs et retouchés à la main.

fig. 1

Maquette du stade N de Luigi Moretti et Bruno de Finetti.

Data

Ce principe de conception est au centre des logiciels de la société américaine Autodesk, éditrice des célèbres AutoCAD et Fusion 360, descendants de Sketchpad. Pour prouver l'efficacité de ces procédés, l'entreprise a conçu ses locaux à Toronto avec des techniques d'optimisation générative basée sur une collecte massive de données auprès de ses employés concernant leurs habitudes et préférences de travail. Ces données ont ensuite été agrégées dans un programme permettant de visualiser une infinité de configurations et d'écarter celles qui ne présentaient pas de bons scores dans les différents critères : préférences de travail, proximité entre les employés, distraction, connectivité entre les services, lumière naturelle, vue sur l'extérieur etc.

fig. 1

Propositions génératives d'aménagements de l'espace des locaux d'Autodesk à Toronto.

Ce projet mené par une société à la pointe des technologies numériques peut paraître à l'opposé du terme de minimalisme dont nous parlions plus haut, tant la quantité de données récoltée, traitée et analysée est importante. Pourtant le système est essentiellement très simple, il ne fait que manipuler et organiser toutes ces données, elles complexes. De la même manière, le système de déphasage utilisé par Steve Reich pour It's Gonna Rain est simple, mais le sample en lui-même contient une certaine complexité puisqu'il est une captation de la réalité complexe. On y entend bien plus que la voix de Brother Walter, comme par le vent, le bruit de la ville, ou même le battement d'ailes de l'oiseau que Reich appelle le pigeon drummer en raison de la pulsation rythmique claire qu'il provoque lorsque l'échantillon est bouclé. Mais cette complexité est désorganisée, entropique. En revanche, l'idée d'utiliser des données indiquant au système ce vers quoi on souhaite tendre permet une approche complètement nouvelle pour générer des objets culturels. Revenons aux rythmes euclidiens dont nous parlions plus haut : le modèle qui permet de les générer est dit « symbolique », c'est à dire qu'il simule un raisonnement humain provenant d'un fait établi et connu, qu'il lie des observations à des faits, en l'occurrence que la plupart des rythmes considérés comme agréables à l'oreille répartissent des battements sur la mesure de manière homogène. Ce modèle n'est pas parfait, puisqu'il n'est pas exhaustif (les rythmiques classiques indiennes, par exemple, ne peuvent pas être obtenues de cette manière), mais c'est aussi ce qui lui donne son intérêt car de nouveaux rythmes, que l'on ne retrouve dans aucune culture de manière notable, peuvent être générés.

Au lieu d'imaginer un modèle permettant de générer des rythmes typiques en faisant de la « rétro-ingénierie culturelle », on peut apprendre aux machines à accomplir cette tâche. Plutôt que de mettre au point un algorithme mathématique, on peut demander à un ordinateur d’en concevoir un en lui montrant des exemples du type de musique que l'on souhaite qu’il génère. C’est ce que l’on appelle l'apprentissage automatique ou machine learning.

Les chaînes de Markov sont l'un des premiers exemples d'approche par apprentissage automatique. Il s'agit d'un modèle statistique très simple qui détermine la manière dont des événements se succèdent à partir d'une base de données à imiter. Un exemple d'application de chaîne de Markov en action est la manière dont les moteurs de recherche prédisent les prochains mots que vous voulez entrer dans la barre de recherche : lorsque l'on commencez à taper, l'algorithme regarde dans un set de données des recherches des précédents utilisateur.ice.s pour proposer les suites qui ont statistiquement plus de chances de tomber. Mais il est également possible de déterminer quelle note musicale en suivra une autre avec la même méthode. Il faut d'abord entraîner le modèle en lui fournissant une séquence de notes ; un graphique statistique est construit à partir de ces données musicales. Il est ensuite possible de générer de nouvelles mélodies en suivant les liens de ce graphique aléatoirement, en respectant les probabilités. Avec cette méthode, on interprète des statistiques comme des probabilités.

C5D#5F5A#4G5G#5C6G4
Trained on Axel F

Trained on Axel F

Chaînes de Markov

Cette méthode très simple est assez limitée car elle ne capture qu'une part infime de l'information qui compose la musique. Ici elle n'apprend que les relations d'une note à une autre et leur durée. Cependant, c'est une approche complètement différente qui a ouvert la voie aux modèles d'apprentissage automatique contemporains comme les réseaux de neurones.

La designer de synthétiseurs française Émilie Gillet, derrière la marque Mutable Instruments, en a fait l'usage pour la conception du module eurorack2 Grids. Elle a entraîné un modèle de machine learning à reproduire les rythmes de batterie utilisés dans une vaste collection de morceaux de musique électronique qui a ensuite permis de fabriquer une grille de 5×5 motifs rythmiques entre lesquels il est possible de naviguer de manière continue en deux dimensions, chaque motif généré étant une interpolation des 4 qui l'entourent.

Click

Le modèle de machine learning ne génère pas les patterns ici, il a simplement servi, en amont, à classifier les rythmes fournis dans la base de donnée, objets culturels subjectifs et complexes, selon deux paramètres pour pouvoir les représenter sur deux axes. Il a ordonné cette collection organique sans faire appel aux critères culturels dont nous, humain·e·s, ne pouvons nous passer.

C'est l'ordinateur qui permet d'explorer les conséquences d'un problème trop complexe pour que celui qui l'a imaginé puisse le mettre en œuvre jusqu'au bout.

Jean Claude Risset, Ordinateur et création musicale, Spectres nº3 : Fantômes dans la machine, 2021.

Contrairement aux techniques d'optimisation topographiques que nous avons vu précédemment, qui s'efforcent à produire un seul objet optimal, les techniques d'apprentissage automatique cherchent à garantir qu'un résultat reste apte à remplir la fonction qui lui est destinée au travers de toutes ses possibilités de variation qu'il nous reste plus qu'à explorer.

I hope to show that an experimental composition aims to set in motion a system or organism that will generate unique (that is, not necessarily repeatable) outputs, but that, at the same, seeks to limit the range of these outputs. This is a tendency toward a « class of goals » rather than a particular goal, and it is distinct from the « goalless behaviour » (indeterminacy) idea that gained currency in the 1960s.

Brian Eno, A Year with Swollen Appendices, 1996.

()

Conclusion : Intelligence et émergence

Ce qui est fascinant dans la forme d’un flocon de neige, ce n’est pas sa morphologie, mais le fait que cette dernière est le résultat d’un processus naturel. Le fait que des formes d’une telle richesse, toutes uniques, puissent exister sans intervention humaine nourrit depuis toujours les plus grands fantasmes de forces naturelles sensibles et créatrices. Des forces forcément plus complexes et intelligentes que l'ensemble de ce qu'elles produisent, ensemble dont fait partie l'humanité. Si les thèmes évoqués dans cet essai ne cherchent pas à prouver l'inexistance d'une telle entité, ils montrent en revanche que l'organisation de la complexité peut également provenir de systèmes élémentaires, et que si l'entropie de l'univers augmente sans cesse, elle peut, localement et temporairement, diminuer.

Ces principes appliqués à la création permettent un nouveau statut du·de la créateur·ice. Iel peut désormais déléguer ses pouvoirs à un algorithme, à une machine, mais aussi à des phénomènes physiques ou à des personnes. En sortant de sa tête une partie de la création, iel doit la penser autrement pour être capable d'expliciter les règles de création qui composent le système pour en prévoir, dans la mesure du possible, les possibilités. Ces principes interrogent aussi sur le statut du·de la créateur·ice. Sans doute le résultat existe-t-il à l'état latent dans la conception du système, cependant ce résultat peut être tout à fait imprévisible, comme la forme que le sculpteur dégage du bloc de pierre qui, pourtant, la contenait déjà. Pour le compositeur américain John Cage, qui a beaucoup travaillé sur la place de l'aléa dans la création, si vous aviez prévu le résultat, vous êtes le·la créateur·ice, sinon le système a bien droit aussi à ce titre.

Cette pratique est parfois appelée création cybernétique. La cybernétique est définie par Norbert Wiener en 1948 comme « le champ entier de la théorie de la commande et de la communication, tant dans la machine que dans l'animal ». À noter que le mot commande traduit insuffisamment le mot control figurant dans le texte original. C'est d'ailleurs autour de ce mot que gravitent les doutes et les controverses provoquées par les idées de Wiener, plus actuelles que jamais, notamment autour de la machine à gouverner. Le mot cybernétique vient du grec kubernêtikê, qui signifie l'action de gouverner un navire. La personne chargée de cette tâche observe un objectif à l'horizon et dispose d'un moyen d'action sur la direction de l'embarcation. Plutôt que de faire un calcul complexe pour déterminer l'angle à donner au gouvernail en prenant en compte toutes les micro-perturbations des vagues et du vent qui ont également une action sur la direction, il vire un peu à babord ou un peu à tribord pour garder l'objectif dans le cap. Ce système navigateur·ice - gouvernail - embarcation - objectif forme une boucle de rétroaction : quand la position de l'objectif par rapport au cap change, le·la navigateur·ice actionne le gouvernail, qui fait évoluer la position de l'objectif par rapport au cap et ainsi de suite. Les boucles de rétroaction, processus dans lequel un effet intervient aussi comme agent causal sur sa propre origine, sont une notion centrale en cybernétique pour expliquer des réactions en chaîne où ce processus a pour effet d’accentuer les perturbations en s'auto-alimentant (rétroaction positive : explosion, dérèglement climatique…) ou des phénomènes de régulation où il a pour effet d'atténuer les perturbations (rétroaction négative : sélection naturelle, homéostasie…). Dans tous les systèmes complexes, ces deux types de rétroaction entrent en jeu à de nombreuses reprises, jouant avec l'ordre et le désordre. La création cybernétique reprend cette idée de rétroaction selon le schéma suivant :

fig. 1

Le processus itératif de création par design génératif, Julia Laub, Hartmut Bohnacker, Benedikt Groß, Claudius Lazzeroni, Design Génératif: Concevoir, Programmer, Visualiser, 2010.

Cette pratique fait la part belle à la contemplation (à travers l'observation des systèmes mis en place) et à la curiosité : une fois le système construit et observé, quelle sera la nouvelle surprise sonore, inouïe, qui adviendra quand je change la valeur de tel paramètre dans les instructions ?

Sébastien Roux, Écouter et entendre l'algorithme, Spectres nº3 : Fantômes dans la machine, 2021.

Les notions de boucle et d'itération sont centrales dans les phénomènes d'émergence comme dans les pratiques créatives et en informatique. Un ordinateur sans boucles est une calculatrice. Une idée fondatrice de la programmation, c’est de pouvoir coder « répète 123 fois ceci », et que la machine ait un moyen de compter jusqu’à 123, ce qui implique l’existence d’une mémoire dont le contenu est modifié par les instructions du programme. Mais avant d'apparaître dans les algorithmes de Al-Khwârizmî au IXe siècle et dans les programmes d'Ada Lovelace, sur la machine analytique de Charles Babbage en 1834, la boucle existe dans la musique et on en retrouve la notation dès les chants grégoriens au VIIe siècle.

fig. 1

Les notations ij et iij signifient que les mesures doivent être répétées réspectivement deux ou trois fois.

fig. 1

Barres de reprise

La musique est l'organisation du son. De la parole au chant, des instruments à percussion rudimentaires aux synthétiseurs, l'humanité à toujours cherché à organiser la structure du son. Entre le son et la musique, il y a une intention. Cette intention peut se traduire par le contrôle rigoureux de la matière sonore, parfois aussi par le choix de garder le son brut, comme John Cage dans sa pièce 4'33", mais aussi, et c'est là que se trouve le monde fascinant que le mathématicien et auteur de science-fiction américain Rudy Rucker appelle Gnarl, entre l'ordre parfait et le chaos.

Ce niveau de complexité situé dans la zone entre la prévisibilité et l'aléatoire offre un nouvel espace de création et d'expression où les formes ne sont plus inventées mais découvertes. C'est le sentiment que l'on peut ressentir en utilisant les outils d'IA génératifs tels que ChatGPT ou Midjourney. En revanche, ces outils clé-en-main n'ont généralement pour interface qu'un simple champ de texte, ne permettant pas un grand contrôle simple. De la même manière, les outils de generative design d'Autodesk sont des boîtes noires qui empêchent un vrai contrôle de la manière dont le système génère les formes. D'autres outils, souvent open-source, comme Stable Diffusion, permettent de personnaliser sans limite le système de génération, à condition de savoir coder en Python et d'avoir une bonne compréhension technique de ces algorithmes complexes.

Nanti de cet acolyte puissant mais neutre, le compositeur aura beau faire participer profondément l'ordinateur à la genèse de sa musique, lui déléguer ses pouvoirs de créateur : il lui restera, plus entière, la responsabilité.

Jean Claude Risset, Ordinateur et création musicale, Spectres nº3 : Fantômes dans la machine, 2021.

Cette barrière technique ou propriétaire pose problème dans ma pratique. En tant que créateur, j'ai besoin d'avoir la main sur toutes les étapes de la création. Si ces outils peuvent servir dans bien des cas, ils ne peuvent à mon sens pas faire partie d'un processus de design génératif. En plus des questionnements soulevés par la provenance des bases de données sur lesquelles sont entraînées ces systèmes, ils contribuent à une aliénation du·de la créateur·ice. Les travaux et projets séléctionnés dans Émergence Artificielle l'ont été pour montrer qu'une riche complexité générative peut émerger de systèmes économes, voire low-tech, accessibles à tous·tes. Le terme d'intelligence est souvent utilisé de mainière biaisée pour décrire la ressemblance d'un processus avec le comportement animal, humain, voire exclusivement occidental. Pour s'organiser, la complexité n'a pas à être intelligente, elle peut tout simplement émerger.


Bibliographie

La formalisation de ce mémoire, ce site web, est la partie émergée de l'iceberg de mes recherches. Longtemps mon sujet est resté trop vaste et ouvert pour pouvoir démarrer l'écriture, mais pendant ce temps, j'ai navigué à vue sur Internet à la recherche de tout ce qui m'évoquait un sujet que je n'avais alors pas encore proprement identifié. En remplissant des carnets, des notes sur mon téléphone, en ajoutant par dizaines des marque-pages à mon navigateur et des vidéos à ma playlist YouTube « à regarder plus tard » et en me rendant à des conférences, j'ai accumulé des tonnes de références allant de la vidéo fun de quelques secondes à l'ouvrage académique.

Voici une bibliographie/webographie/filmographie thématique, puis triée par date de parution, comprenant une sélection de toutes ces références. Cette sélection comporte les ouvrages et documents qui ont été structurants dans ma recherche, mais aussi des ouvertures qui ne se retrouvent pas directement dans mon mémoire mais qui ont indubitablement teinté et orienté mes réflexions.

Musique

Cybernétique, systèmes et informatique

Design et architecture et arts graphiques

  • Armin Hofmann (1965). Graphic Design Manual: Principles and Practice.
  • Roman Verostko (1994). Algorithmic Art: Composing the Score for Visual Art.
  • Gaetano Pesce (1996). Le temps des questions.
  • Julia Laub, Hartmut Bohnacker, Benedikt Groß, Claudius Lazzeroni (2010). Design Génératif: Concevoir, Programmer, Visualiser.
  • Arturo Tedeschi (2014). AAD_Algorithms-Aided Design.
  • David-Olivier Lartigaud (2017). Objectiver.
  • Tomaso Silluzio (2023). Computational Design in Industrial Design: An Initial Investigation.

Autres


Remerciements

Cette année de mémoire à l'ENSCI–Les Ateliers n'aurait pas été la même sans eux. Merci à Noë Brand et à Edith Hallauer pour leur suivi. Merci à Roland Cahen, à Emmanuel Oriol et aux intervenants des journées Open Open de l'ESAC–Cambrai pour les longs et passionnants échanges. Merci à pichenettes (Émilie Gillet) pour l'ouverture du code source de ses modules. Merci à tous les membres du Turbocal pour leur présence, leur soutien, leur temps, leur écoute.

Pendant l'écriture de ce mémoire, Vera Molnár et Gaetano Pesce ont quitté ce monde. Mes hommages à ces deux icônes, dont la vie et l'œuvre demeureront pour moi une source intarissable de stimulation et d'inspiration.

Footnotes

  1. En musique, suite de note répétée en boucle.
  2. Standard de synthétiseurs modulaires, spécifiant les dimensions des modules et les manières de communiquer entre eux.