Quel(s) numérique(s) pour demain dans un monde contraint en matière et en énergie ?

Alors que le numérique s’impose dans tous les aspects de notre quotidien, ses impacts environnementaux interrogent.
Martin Deron, responsable du Défi numérique de Chemins de transition (Université de Montréal) et doctorant à l’université Concordia, et Benjamin Ninassi, adjoint au responsable du programme Numérique et Environnement d’Inria, nous partagent ici des réflexions émergentes sur comment repenser le numérique pour le rendre compatible avec les contraintes environnementales et énergétiques, tout en lui permettant de contribuer à la construction de sociétés plus résilientes et soutenables ?
Antoine Rousseau et Thierry Viéville .

Cheminement du numérique dans un monde en transition
Chemins de transition, 2022


Les discussions sur les impacts environnementaux du numérique gagnent en importance, s’inscrivent dans les pratiques professionnelles et commencent même à s’institutionnaliser, notamment en France mais aussi dans d’autres pays, comme la Suisse, la Belgique et le Québec [1].

Ces initiatives convergent vers une conclusion commune : la nécessité de maîtriser les impacts environnementaux du développement numérique pour ne pas compromettre les efforts de transition socio-écologique. 

Dans ce contexte, la notion de “sobriété numérique” émerge comme une réponse : elle se concrétise par diverses stratégies visant à prolonger la durée de vie des équipements, alléger les services numériques et réduire leur consommation énergétique. Bien que ces initiatives soient encourageantes et méritent d’être soutenues, elles restent toutefois insuffisantes face aux trajectoires insoutenables de la numérisation. 

En réalité, l’enjeu dépasse la simple optimisation technologique. Le numérique s’intègre dans toutes les sphères de la société, y compris celles qui portent directement atteinte à l’intégrité de la planète[2]. Des optimisations appliquées sans discernement risquent ainsi d’amplifier des activités insoutenables, comme le minage de cryptomonnaies  ou l’exploration pétrolière automatisée. Par ailleurs, le développement numérique repose largement sur des modèles d’affaires axés sur l’accumulation perpétuelle, qu’il s’agisse d’appareils connectés ou de données collectées, qui doivent également être remis en question pour réorienter les trajectoires actuelles.

La course effrénée à l’intelligence artificielle (IA) générative, la multiplication d’objets connectés et de centres de données illustrent des dynamiques incompatibles avec un cadre de soutenabilité à long terme, même avec les meilleures stratégies d’optimisation. À cela s’ajoute la menace grandissante de l’épuisement progressif de ressources essentielles aux technologies numériques, notamment certains métaux critiques.

Rendre le développement numérique compatible avec la transition socio-écologique exige une remise en question profonde des dynamiques dont il dépend et de sa compatibilité avec les contraintes énergétiques, climatiques et matérielles à venir. Il s’agit alors de le prioriser collectivement, d’en définir les paramètres de déploiement, et d’inventer de nouveaux rapports aux technologies qui sont à la fois véritablement utiles et durables. L’optimisation, prise isolément, n’est pas suffisante pour atteindre la sobriété : elle n’a de sens que lorsqu’elle s’inscrit dans un système qui intègre et respecte les contraintes socio-écologiques, et nécessite des efforts de formation adaptés

Une priorisation dans d’autres secteurs

La réflexion entre optimisation et sobriété dépasse le numérique et s’inscrit plus généralement dans le cadre de la transition socio-écologique. Ainsi, les optimisations techniques, telles que celles observées dans les véhicules électriques ou les systèmes de chauffage bas carbone ne sont véritablement efficaces que lorsqu’elles s’intègrent dans des systèmes repensés : une mobilité axée sur le collectif, des habitats mieux isolés, le tout soutenu par des énergies renouvelables. 

Cette problématique se pose également dans d’autres secteurs, où les impacts environnementaux et la disponibilité des ressources rendent la question plus pressante. En France, par exemple, le Secrétariat général à la planification écologique (SGPE) propose une hiérarchisation des usages de la biomasse locale (page 15), privilégiant la souveraineté alimentaire à la production de biocarburants pour l’aviation civile, le chauffage ou la production énergétique.

De même, l’hydroélectricité québécoise fait face à une multiplication de projets industriels sollicitant son accès. Depuis 2023, tout projet de plus de 5 mégawatts doit obtenir l’approbation du ministère de l’Énergie, suite à une demande d’Hydro-Québec.  Ce changement législatif, initié par la société d’État responsable de la production électrique, répond à son incapacité à satisfaire toutes les demandes de raccordement. La priorisation s’opère selon des critères définis : les capacités techniques de raccordement et les incidences sur le réseau électrique du Québec, les retombées sur l’économie et le développement régional, l’impact environnemental et social, ainsi que la cohérence avec les orientations gouvernementales.

Prioriser les projets numériques utiles ?

Les réflexions autour de la priorisation commencent à émerger également dans les travaux récents consacrés au numérique et à l’IA responsable, notamment à travers le prisme de l’utilité. Le Référentiel général d’écoconception de services numériques, porté par l’ARCEP, invite ainsi à mettre en dialogue l’utilisation d’un service avec ses impacts environnementaux. De même, le  Référentiel général pour l’IA frugale de l’Afnor souligne que toute analyse technique doit être précédée d’une réflexion sur les besoins et usages, en s’assurant qu’ils “visent à rester dans les limites planétaires et ont été préalablement questionnés”. Par ailleurs, la Net Zero Initiative for IT va encore plus loin en établissant des critères d’éligibilité pour qu’un service numérique puisse prétendre éviter des émissions de gaz à effet de serre. Ces critères incluent le secteur d’activité de l’entreprise, excluant explicitement les industries considérées comme structurellement contraires aux objectifs de développement durable de l’ONU, comme l’extraction ou l’exploration d’énergies fossiles, l’industrie du tabac ou encore la pornographie (cette dernière considérée comme contraire aux objectifs 3 et 5, voir page 21 de la méthodologie).

L’émergence de ces cadres méthodologiques amène dans le débat une question fondamentale commune à ces différentes initiatives : qu’est-ce qu’un numérique utile ?

La question n’est pourtant pas si nouvelle, puisque depuis l’essor du numérique au 20ᵉ siècle, deux visions antagonistes se dessinent quant à sa finalité. La première, largement dominante, aborde le numérique comme un outil de substitution, destiné à exécuter des tâches à la place des humains. Cette approche, qui est omniprésente dans l’industrie et le quotidien (des caisses automatiques aux applications de guidage GPS), vise avant tout la maximisation des profits et le gain de temps. Pourtant, ce “gain de temps” s’accompagne paradoxalement d’un sentiment d’accélération : le temps libéré est immédiatement réinvesti dans des activités productives, comme l’illustrent les enchaînements de réunions en visioconférence, sans pauses permises par les déplacements physiques. Cette approche crée également une dépendance, en dépossédant les utilisateurs de compétences auparavant essentielles. Par exemple, l’usage systématique des applications de guidage via GPS pour générer et suivre un itinéraire élimine la nécessité de maîtriser la géographie ou les repères topologiques.

À l’inverse, une seconde vision promeut un numérique au service de la complémentarité. Ici, l’objectif principal est d’aider les individus à apprendre et à agir. Le projet “Back to the Trees”, par exemple, propose un outil éducatif minimaliste qui accompagne les utilisateurs dans l’identification des plantes à travers un questionnaire reprenant les caractéristiques d’identification des livres de botaniste. Ce numérique “low-tech” favorise l’acquisition de savoir de façon ludique tout en consommant peu de ressources. 

Au-delà des projets futurs, on peut légitimement se demander si ce questionnement de l’utilité, largement invisibilisé dans le débat public jusqu’à présent, ne devrait pas également concerner l’existant.

Que faire des usages existants, incompatibles avec une transition à long terme ?

L’univers numérique est en constante évolution et il est certainement plus facile de planifier ou de réorienter des projets qui n’existent pas encore plutôt que de le faire une fois déployés. Se pose cependant la question de la possibilité de faire atterrir l’univers numérique actuel dans le cadre des limites planétaires. Avec le déclin des ressources naturelles (métaux, minéraux, eau, énergie, etc.) et l’aggravation des aléas climatiques, il devient impératif d’évaluer la compatibilité de nos infrastructures numériques, dont nos modes de vie dépendent de plus en plus, avec un avenir marqué par ces contraintes. 

Au-delà de la raréfaction des ressources nécessaires à leur fonctionnement, ces infrastructures devront également affronter des conditions climatiques de plus en plus difficiles. Sécheresses, montées des eaux, inondations et stress hydrique sont autant de phénomènes dont la fréquence et l’intensité continueront à croître. Or, les infrastructures numériques sont particulièrement vulnérables à ces risques. 

Par exemple, selon l’intensité des aléas climatiques, les réseaux numériques, notamment essentiels pour l’électricité, les communications, et le transport, pourraient subir des déformations structurelles, voire des ruptures, à cause des vagues de chaleur, des vents violents ou des inondations extrêmes. Cette fragilité est exacerbée par la complexité et l’interdépendance de ces infrastructures : une simple défaillance dans un élément critique, même situé à l’extérieur d’un territoire donné, peut entraîner sa déconnexion totale. Bien que renforcer leur résilience soit possible, cela nécessiterait une redondance accrue des infrastructures, impliquant à son tour une consommation accrue de ressources.

Imaginer un numérique compatible avec un futur contraint

Dans ce contexte, une réflexion s’impose : à quoi ressembleraient des infrastructures, appareils, modèles d’affaires et usages numériques compatibles avec des sociétés limitées en ressource tout en étant résilients face à l’augmentation des risques climatiques? Cette question, cruciale, nous invite à nous projeter dans l’avenir pour mieux éclairer les choix collectifs à faire aujourd’hui. 

– Quelles branches existantes de l’univers numérique actuel pourraient rester pertinentes, voire devenir essentielles, pour soutenir des sociétés plus soutenables et résilientes ?
– Quelles branches pourraient être repensées pour répondre aux nouvelles contraintes ?
– Quelles branches sont fondamentalement incompatibles avec ces perspectives et nécessitent une redirection, un renoncement ou un abandon ?

Ces questions peuvent être traduites en implications opérationnelles. Par exemple, les systèmes d’IA particulièrement énergivores, comme ceux basés sur des modèles de langage massifs (LLM), sont-ils compatibles avec un monde aux ressources limitées ? Est-il raisonnable de rendre nos sociétés toujours plus dépendantes de ces technologies ?

Planification et priorisation : un impératif pour le numérique

Pour devenir compatible avec le cadre des limites planétaires, en réduisant ses impacts directs et en renforçant sa résilience, le numérique devra s’éloigner de ses paradigmes expansifs actuels. Il devra s’inscrire dans une logique de planification et de priorisation. Allant dans ce sens, la Commission de l’Éthique en Science et Technologie (CEST) du Québec a récemment rédigé un avis complet de 112 pages sur l’impératif de la sobriété numérique, appelant explicitement dans ses recommandations à enclencher rapidement une démarche de réflexion sur la priorisation des usages du numérique.

Quelques questions majeures subsistent pour accompagner ces transformations, notamment :
– Comment opérationnaliser ces arbitrages ? 
– À quelle échelle agir, et qui doit être impliqué dans ces décisions ?
– Sur quels critères éthiques, sociaux, environnementaux, économiques, voire opérationnels, peut-on fonder ces choix ?

Plusieurs individus et collectifs explorent ces questions essentielles, offrant des pistes de réflexion qui méritent que l’on s’y attarde. Bien sûr, aucun ne propose de solution prête à l’emploi, et c’est compréhensible : prioriser le numérique implique de le recontextualiser, de le repolitiser, et donc de nourrir des discussions et des choix collectifs. Parmi les initiatives notables, certains tentent de définir les contours d’un numérique alternatif, que ce soit à travers l’Alternumérisme radical ou le concept de Numérique d’Intérêt Général. Pour envisager une réelle redirection des systèmes techniques vers un cadre de soutenabilité non basé sur des formes de “technologies zombies”, Alexandre Monnin et ses collègues rappellent l’importance de cartographier nos attachements, qu’ils soient positifs ou contraignants. Mobilisant des approches prospectives et participatives, Chemins de transition explore les implications sociétales d’une convergence entre transition numérique et transition socio-écologique. Le groupement de recherche CNRS “Centre internet et société” propose des pistes de réflexion à travers son groupe de travail “Politiques environnementales du numérique”. Enfin, la conférence annuelle LIMITS rassemble des recherches qui esquissent un système d’information en phase avec un monde limité, qu’il s’agisse de réinterroger l’internet des objets avec le cadre des limites planétaires ou d’imaginer des approches de désescalade numérique.

Vers le fini, et pas au-delà

Adapter le numérique aux défis de demain exige de dépasser les défis technologiques et nous invite à nous engager dans une réflexion collective sur les modalités de son déploiement dans nos sociétés. Utiliser des critères éthiques, démocratiques, environnementaux et sociaux devient alors incontournable pour guider une redirection du numérique afin de le rendre compatible avec la transition vers des modes de vie plus soutenables. Il s’agit de décider collectivement de quel numérique nous voulons, de se donner les moyens de le faire advenir et de renoncer aux formes insoutenables.

Martin Deron, responsable du Défi numérique de Chemins de transition (Université de Montréal) et doctorant à l’université Concordia,
Benjamin Ninassi, adjoint au responsable du programme Numérique et Environnement d’Inria

[1] Quelques exemples d’initiatives en dehors de France :
https://isit-ch.org
https://isit-be.org
https://w3c.github.io/sustyweb
https://agitquebec.org
https://cheminsdetransition.org/les-ressources/defi-numerique
https://www.obvia.ca/recherche/axes/sobriete-numerique-et-transition-socio-ecologique
https://www.linkedin.com/company/collectif-numerique-responsable-soutenable/posts
https://ethique.gouv.qc.ca/media/wayd3cqj/cest_avis-sur-la-sobri%C3%A9t%C3%A9-num%C3%A9rique.pdf

[2] Martin, J. et Durand Folco, J. (2023) Le capital algorithmique. Accumulation, pouvoir et résistance à l’ère de l’intelligence artificielle. Écosociété.

De l’impact de l’IA sur les industries culturelles et créatives.

La Société Informatique de France (SIF) partage sur binaire un cycle d’interviews sur l’impact de l’Intelligence Artificielle (IA) sur les métiers, en commençant ici par l’impact de l’IA sur les industries culturelles et créatives, grâce à une interview de Quentin Auger, Directeur de l’Innovation chez Dada ! Animation, Erwan Le Merrer, Président du Conseil Scientifique de la SIF, Marie-Paule Cani, Serge Abiteboul et Thierry Viéville.

Bonjour Quentin, pouvez-vous nous dire rapidement qui vous êtes, et quel est votre métier ? 

Je suis co-fondateur et directeur de l’innovation de  Dada ! Animation, un studio d’animation 2D et 3D orienté « nouvelles technologies » (entendre moteurs de jeux / temps réel, Réalité Virtuelle et Augmentée / XR, ou IA) appliquée à l’animation pour la TV, le cinéma, le web et les nouveaux médias immersifs et de réseaux. 

De formation ingénieur en Design Industriel de l’Université de Technologie de Compiègne (1994), j’ai basculé vers le monde de l’animation 3D et des effets spéciaux en 1999, en retournant un temps à l’École des Gobelins. J’ai travaillé dans ces domaines en France dans de nombreux studios de différentes tailles, en Allemagne et aux USA (chez ILM, par exemple) et j’ai fondé en 2019 ce nouveau studio suite à des expérimentations réussies avec mes collègues cofondateurs dans une autre structure, où nous basculions les process classiques de la 3D dite « précalculée » vers le « temps réel » (via l’utilisation de moteurs de jeux vidéo comme Unity ou Unreal Engine) et vers la Réalité Virtuelle comme aide à la réalisation. Ces expérimentations nous ont d’ailleurs apporté à l’époque un prix Autodesk Shotgun à la conférence  SIGGRAPH 2019 à Los Angeles. 

Capitaine Tonus : série d’animation ludo-éducative produite par Dada ! Animation pour Disney Channel, Lumni, TV5 Monde, RTBF, ERR, beIN.© 2024 Dada ! Animation – All rights reserved


Nous avons passé le pas et focalisé Dada ! Animation sur ces approches nouvelles, auxquelles s’ajoutent maintenant les IA Génératives (IAG) que nous scrutons de près. Nous travaillons par ailleurs aussi sur des thèmes éditoriaux spécifiques et éthiques : le ludo-éducatif, le documentaire, la science, l’écologie, l’inclusivité, etc. 

Mon travail consiste en énormément de veille technique et de détection de talents nouveaux adaptés à ces approches, en l’organisation de tests, et de préconisations en interne. Je dialogue ainsi beaucoup avec les écoles, les institutions du métier ( Centre National du Cinéma,  Commission Supérieure Technique,  CPNEF de l’Audio-Visuel…) et des laboratoires avec lesquels nous travaillons par ailleurs, pour leur faire des films (CNRS, CNSMDP, INRIA, …), pour tester des solutions techniques (IRISA, Interdigital, …) ou pour de la recherche. 

Je coordonne d’ailleurs en ce moment un projet ANR, intitulé «  Animation Conductor »,  en collaboration avec l’IRISA, Université de Rennes 1 et LIX, Ecole Polytechnique, sur de l’édition d’animation 3D par la voix et les gestes. 

L’Archéoconcert : Past Has Ears at Notre-Dame (PHEND). Film réalisé par Dada ! Animation pour le CNRS-Sorbonne Université et le Conservatoire National Supérieur de Musique et de Danse de Paris. © 2024 CNRS – Sorbonne Université – CNSMDP


Enfin, je suis un membre actif du groupe de travail interstructurel 
Collectif Creative Machines, regroupant des labos, des studios, des écoles et tout professionnel francophone intéressé par la réflexion sur les impacts des IAG dans nos métiers. 

En quoi pensez-vous que l’IA a déjà transformé votre métier ? 

Elle l’occupe déjà beaucoup rien qu’en veille et en colloques, en termes d’inquiétude et de discussions sans fin ! Je passe personnellement au moins 20% de mon temps à en évaluer et en parler… L’IA n’est bien-sûr pas nouvelle dans nos métiers de l’image de synthèse, bourrés d’algorithmes de toutes sortes, renouvelés régulièrement. On utilise même des algorithmes de modification d’images proches de modèles de diffusion (la même famille que Midjourney) depuis 10 ans (par exemple les « denoisers » de NVIDIA, qui accélèrent le rendu final d’images de synthèse), mais bien-sûr, j’imagine que « l’IA » dont on parle ici est celle, de nouvelle génération, souvent générative, propulsée par les récentes avancées des Transformers ou CLIP et par des succès techniques comme ceux d’OpenAI, Runway, Stability, Midjourney, etc. 

Pour le monde de l’animation, tout ce qui touche le texte (les scénarios, mais aussi le code, très présent) est bien-sûr impacté par les grands modèles de langage (LLMs), mais, j’ai l’impression que c’est principalement en termes d’aide à l’idéation ou pour accélérer certains écrits, jamais au cœur ou en produit final (des problèmes de droits d’auteurs se poseraient alors aussi !), du moins pour du média classique. Pour ce qui est de l’image, idem : pour la partie du métier qui ne la rejette pas complétement (c’est un sujet radioactif du fait des méthodes d’entraînement disons « agressives » vis-à-vis des droits d’auteurs et du copyright), au mieux les IAG sont utilisées en idéation, pour de la texture, quelques fois des décors (ce qui pose déjà beaucoup de problèmes éthiques, voire juridiques). Il n’y a pas encore de modèles intéressants pour générer des architectures 3D propres, de la bonne animation, etc. Et pour cause, les données d’entraînement pertinentes pour ce faire n’ont jamais été facilement accessibles à la différence des images finales ! On n’a pas accès aux modèles 3D d’Ubisoft ou de Pixar… 

Making-of des séquences animées réalisées par Dada ! Animation pour le pilote du documentaire « Ils étaient des millions ». © Seppia – Indi Film – Arte


En revanche, les mondes des effets spéciaux visuels (VFX) et du son, en particulier de la voix, ont accès déjà à des modèles puissants de traitement d’images et de sons réels, et de nombreux studios commencent à les intégrer, surtout pour des tâches lourdes et ingrates : détourage, rotoscopie, relighting, de aging/deepfake, doublage, etc. 

Des défis juridiques et éthiques demeurent tout de même pour certaines de ces tâches. Les comédiens par exemple, luttent pour garder bien naturellement le contrôle professionnel de leur voix (une donnée personnelle et biométrique qui plus est). De nombreux procès sont encore en cours contre les fabricants des modèles et quelques fois contre des studios ou des diffuseurs. Mais il est difficile de ne pas remarquer un lent pivot de l’industrie Hollywoodienne vers leur utilisation (par exemple par l’accord Lionsgate x Runway, James Cameron au board de Stability, des nominations chez Disney, etc.) et ce, alors que ces sujets furent pourtant au coeur des grèves historiques des réalisateurs, acteurs et auteurs de l’année dernière ! 

On peut parler d’une ambiance de far west dans ces domaines, tant il y a d’incertitudes, qui se rajoutent en ce moment au fait que la conjoncture dans l’audiovisuel et le jeu video est catastrophique et ne promet pas de s’arranger en 2025 (cf. les chiffres du secteur par le CNC au RADI-RAF 2024

A quels changements peut-on s’attendre dans le futur ? Par exemple, quelles tâches pourraient être amenées à s’automatiser? A quel horizon ? 

Pour les effets spéciaux, il devient absurde d’imaginer faire du détourage, du tracking et de la rotoscopie encore à la main dans les mois qui viennent (et c’était le travail d’entreprises entières, en Asie entre autres…) De même, les tâches de compositing, relighting, etc. vont être rapidement augmentées par des modèles génératifs, mais, je l’espère, toujours avec des humains aux commandes. On risque d’ailleurs de voir diverses tâches « coaguler » autour d’une même personne qui pourra techniquement les mener toutes à bien seule, mais pour laquelle la charge mentale sera d’autant plus forte et les responsabilités plus grandes ! On a déjà vécu cela lors de l’avènement des outils de storyboard numérique qui permettaient d’animer, de faire du montage, d’intégrer du son, etc. Moins d’artistes ont alors pu, et dû, faire plus, dans le même laps de temps, et sans être payés plus chers puisque tout le monde fut traité à la même enseigne et que la compétition fait rage…

Les Designers aussi commencent à voir de leur travail s’évaporer, surtout dans les conditions actuelles où la pression est forte « d’économiser » des postes, sur des productions qui pensent pouvoir se passer d’un regard humain professionnel remplacé par quelques prompts. Cela peut en effet suffire à certaines productions, pour d’autres, c’est plus compliqué. 

Sinon, dans les process d’animation 3D, ce ne sont pas des métiers, mais des tâches précises qui pourraient être augmentées, accélérées (texture, dépliage UV, modélisation, rig, certains effets). Mais honnêtement, vu la conjoncture, l’avènement des IA de génération vidéo qui court-circuitent potentiellement tout le processus classique, de l’idée de base à l’image finale, vu l’apparition des IA dites « agentiques » qui permettent à des non-codeurs de construire temporairement des pipelines entiers dédiés à un effet, et vu l’inventivité habituelle des techniciens et artistes, il est en fait très dur d’imaginer à quoi ressembleront les pipelines des films et des expériences interactives dans 5 ans, peut-être même dès l’année prochaine ! Et c’est bien un problème quand on monte des projets, des budgets, et encore pire, quand on monte des cycles de formations sur plusieurs années… (la plupart des très nombreuses et excellentes écoles d’animation, VFX et Jeu Vidéo françaises ont des cursus sur 3 à 5 ans). Certains prédisent l’arrivée avant l’été 2025 des premiers studios « full AI ». Cela ne se fera en tous cas pas sans douleur, surtout dans le climat actuel. 

Développement Dada ! en collaboration avec l’IRISA pour une description « universelle » de contrôleurs d’animation 3D entre logiciels. © 2024 Dada ! Animation – All rights reserved


Si vous devez embaucher de nouveaux employés, quelles connaissances en informatique, en IA, attendez-vous d’eux suivant leurs postes ? Pouvez-vous préciser quelles formations, à quel niveau ? / Ciblez-vous plutôt des informaticiens à qui vous faites apprendre votre métier, ou des spécialistes de votre métier aussi compétents en informatique. 

De plus grosses entreprises, selon leurs projets, peuvent embaucher des data scientists et ingénieurs en apprentissage machine, mais la réalité pour la majorité des petits studios est qu’on travaille avec les outils disponibles sur le marché. Au pire, une petite équipe de développeurs et « TD » (Technical Directors, postes paradoxalement entre la R&D et les graphistes) vont faire de la veille des modèles (si possibles disponibles en open-source) à implémenter rapidement (en quelques heures ou jours) dans des solutions de type ComfyUI, Nuke, Blender où ils ont de toute façon la charge de coder des outils. On ne change donc pas vraiment de profils recherchés car ceux-ci étaient déjà nécessaires pour maintenir les productions. En revanche, il est important de trouver des profils qui ont une appétence pour ces nouvelles approches non déterministes et qui aiment « bricoler » des dispositifs qui pourront changer d’une semaine à l’autre au fil des publications scientifiques… C’est tout de même assez typique de profils VFX je pense, même si les rythmes d’adaptation sont plus soutenus qu’avant.

Pour ce qui est de la formation, il est indispensable pour ces postes qu’ils connaissent ces métiers. Ils doivent donc être issus de nos écoles d’animation / VFX, mais elles ne peuvent former qu’en surface à ces outils car ils changent trop souvent, ils remettent en cause pour l’instant trop de pipelines, et ne permettent pas de créer de cursus stables ! 

Pour quelles personnes déjà en poste pensez-vous que des connaissances d’informatique et d’IA sont indispensables? 

Tous ceux dont je viens de parler : les techniciens des pipelines, les ITs et a minima les managers pour qu’ils en comprennent au moins les enjeux. 

Les artistes sont habitués à apprendre de nouveaux algorithmes, qui viennent chacun avec leur particularités. Mais si les nouvelles méthodes impactent trop la distribution des métiers, ce sont les équipes entières qui devront les reconstruire. 

Pour les personnes déjà en poste, quelles formations continues vous paraissent indispensables?

Cela dépend de leur métier, mais je pense qu’on arrive vers un nouveau paradigme de l’informatique, avec de nouveaux enjeux, de nouvelles limites et possibilités. Tout le monde devrait a minima être au courant de ce que sont ces IAG, et pas que pour leur métier, mais aussi pour leur vie personnelle, pour les risques de deepfake temps réel et autres dangers ! Ca donnera d’ailleurs vite la mesure de ce qu’on peut en faire en terme d’audio-visuel.

Animation Keyframe en VR chez Dada ! Animation. © 2024 Dada ! Animation – All rights reserved


Un message à passer, ou une requête particulière aux concepteurs de modèles d’IA? 

Quand des technologies des médias évoluent autant, on s’attend à un enrichissement des œuvres (elles pourraient devenir toutes immersives, 8k, 120 images/secondes, avec de nouvelles écritures, plus riches, etc.) et/ou à leur multiplication et potentiellement à un boom de l’emploi. C’est arrivé avec le numérique, la 3D, l’interactif, les plateformes… D’ailleurs avec un impact environnemental conséquent. Cependant, on arrive dans un moment économique compliqué et le « marché de l’attention » semble saturé : l’américain moyen consomme déjà 13h de media par jour, à plus de 99% produits pour les nouveaux réseaux (tiktok, instagram, etc.) et le reste classiquement (cinéma, TV, jeux). 

Ces médias classiques restent tout de même encore majoritairement consommés, mais nous souffrons déjà de ce que j’appellerais une « malbouffe numérique », addictive, trop présente, trop synthétique, et pas que côté média, en journalisme aussi, pour la science en ligne, etc. 

On imagine alors mal ce que la baisse de la barrière à l’accès de la création d’effets numériques, que propose l’IAG, va apporter de positif. Sans doute pas moins de « contenus », mais aussi, et même s’ils étaient de qualité, sans doute pas non plus pour un meilleur soin de notre attention, ni de notre environnement vu l’impact du numérique – et encore plus s’il est lesté d’IAG – sur l’énergie et l’eau. 

C’est aussi ce mélange de crises existentielles, sanitaires et environnementales que traverse le monde des médias en ce moment. 

Nous n’avons pas encore géré la toxicité des réseaux sociaux qu’une vague générative artificielle arrive pour a priori l’accentuer à tous égards. 

Il serait bon, peut-être vital même, que les chercheurs et entrepreneurs du domaine s’emparent de ces questions, avec les créateurs. Une des voies assez naturelle pour cela est de rencontrer ces derniers sur leur terrain : plutôt que d’apporter des solutions hyper-technologiques qui cherchent des problèmes à résoudre, qu’ils entendent ce que les créateurs professionnels demandent (pas le consommateur lambda subjugué par des générateurs probabilistes de simulacres d’œuvres, même s’il doit être tentant, j’entends bien, de créer la prochaine killer app en B2C), qu’ils comprennent comment ils travaillent, avec quelle sémantique, quelles données, quels critères, et quels besoins (vitaux, pour « travailler » leur art) de contrôle. 

J’en croise de plus en plus, de ces chercheurs et entrepreneurs interrogatifs sur les métiers qu’ils bousculent, qu’ils « disruptent », et qui sont avides de discussions, mais les occasions officielles sont rares, et la pression et les habitudes des milieux de la recherche, de l’entreprenariat et de la création sont quelques fois divergents. On devrait travailler d’avantage à les croiser, dans le respect de ce qui reste naturellement créatif de part et d’autre. 

Quentin Auger, Directeur de l’Innovation chez Dada ! Animation, interviewé, par Erwan Le Merrer, avec le concours de la SIF.

 

Cartographie des formations incluant la thématique de la sobriété numérique dans l’Enseignement Supérieur en France

Pour comprendre comment améliorer notre sobriété numérique face au défi de préservation de la planète nous avons besoin de faits et d’information. Chiara Giraudo, Ingénieure Pédagogique au CNRS et Jean-Marc Pierson, Professeur en informatique et Directeur de l’IRIT, dans le cadre du programme Alt Impact, partagent ici, dans le cadre du programme Alt Impact [0] partage ici un état des lieux des diplômes et des formations délivrés dans l’ESR sur la sobriété numérique, afin de formaliser une cartographie mettant en lumière les éventuelles pénuries de diplômes selon les territoires, disciplines, et années d’étude. L’analyse de cette cartographie permet de définir une stratégie d’action de formation sur la thématique de la sobriété numérique dans l’ESR. 
Bienvenue aux futurs étudiant·e·s, et aux futurs employeur·e·s. Et c’est aussi un bel exemple d’étude scientifique partagée de manière citoyenne avec le large public.  Benjamin Ninassi et Thierry Viéville.

État des lieux et perspectives – mai 2024 

Face aux enjeux environnementaux et sociaux, l’impact du numérique suscite une préoccupation croissante. Annuellement, l’impact environnemental du numérique est estimé à 2,5% de l’empreinte carbone de la France et correspond à près de 10% de sa consommation électrique[1]. Cet article vise à fournir des éléments de réflexion et des données concrètes pour mieux appréhender l’enjeu de la sobriété numérique dans l’enseignement supérieur et la recherche (ESR), un secteur clé dans la transition écologique. Ainsi, pour l’année universitaire 2023-2024, 2,92 millions d’étudiant.e.s se sont inscrit.e.s à un cursus de l’enseignement supérieur, soit près de 10% de la population active en France.

Méthode

Nous avons recensé les diplômes de l’enseignement supérieur via la base de données de France Compétences. Dans cette base de données, les diplômes et certifications sont classés en deux catégories : les fiches RNCP (Répertoire National des Certifications Professionnelles), qui valident la maîtrise de compétences spécifiques à un emploi-type, et les fiches RS (Répertoire Spécifique), qui concernent les habilitations et certifications attestant de compétences transversales. Nous avons focalisé notre recherche sur les fiches RNCP, afin de repérer la présence d’enseignements sur la sobriété numérique dans les certifications menant à un métier.

Il est important de préciser que les fiches RNCP sont associées à des diplômes et certifications. Autrement dit, ce sont des documents répertoriant les compétences et activités acquises par les titulaires de cette certification. Les formations, quant à elles, sont des programmes organisés dans le temps et pour un certain nombre d’étudiant.es.  Les fiches RNCP sont composées d’un résumé de la certification, dans lequel les activités visées ainsi que les compétences attestées et compétences transversales sont explicitement citées. C’est spécifiquement dans ce résumé que nous avons recherché la présence de mots-clés en rapport avec la sobriété numérique. Pour concevoir cette liste de mots-clés, nous nous sommes appuyés sur le Formacode[2], ainsi que sur les sites de l’Onisep, de France Compétences, de France Travail, et sur la page Wikipédia dédiée à l’informatique durable.

Résultats

La base de données de l’ensemble des résultats est en consultation et téléchargement libre. Au 25 mai 2024, 108 fiches RNCP actives contiennent un mot-clé lié à la sobriété numérique. En recherchant chaque fiche sur le site de l’ONISEP, nous avons identifié un total de 531 formations associées, réparties en France Métropolitaine et dans les Départements et Régions d’Outre-Mer. 

Répartition des diplômes et formations sur la sobriété numérique dans l’ESR par
 spécialité de formation
 (basé sur la NSF de l’INSEE)

Nombre de diplômes Nombre de formations

Nous observons que les disciplines offrant le plus grand nombre de diplômes et de formations en sobriété numérique sont l’informatique et l’industrie. En revanche, les cursus en droit, formation, et sciences humaines sont peu nombreux à intégrer des compétences liées à la sobriété numérique. Par exemple, le Master « Droit de l’Environnement » de l’Université de Montpellier mentionne dans sa fiche RNCP la compétence « Respecter les principes d’éthique, de déontologie et de responsabilité environnementale ». Cependant, la notion de sobriété numérique n’est pas explicitement mentionnée.

Titre du diplôme

Niveau de diplôme

Nombre de diplômes

Nombre de formations

Baccalauréat, Titre professionnel

4

1

20

DEUG, BTS, DUT, DEUST

5

9

44

Licence, licence professionnelle, BUT

6

24

181

Master, diplôme d’ingénieur

7

74

286

 

 Total

108

531

Nombre de diplômes et de formations sur la sobriété numérique, par niveau et titre du diplôme

Il apparaît ici que les enseignements sur la sobriété numérique se concentrent principalement sur les niveaux de diplôme 6 (Licences et BUT) et 7 (Masters et diplômes d’Ingénieurs). Sur un total de 108 diplômes liés à la sobriété numérique et délivrés en France, plus de 68% correspondent au niveau Master

 

Répartition des effectifs étudiant.e.s et nombre de formations en sobriété numérique par Région, (2022-2023) (Carte interactive)

Départements et Régions d’outre-mer

Département

Nombre de formations

Guadeloupe

1

La Réunion

5

Mayotte

1

Nouvelle-Calédonie

3

Indication de lecture : La Région Île-de-France accueille 27% de l’effectif total de la population étudiante. On y recense 105 formations sur la sobriété numérique.

Les Régions recensant le plus de formations en lien avec la sobriété numérique sont l’Île de France (105), l’Auvergne-Rhône-Alpes (84), suivis par l’Occitanie (53) et les Hauts-de-France (51). En comparant la répartition des étudiant.e.s et la répartition des formations par Région, il semble que la distribution des formations sur le territoire soit plutôt équilibrée.

Nombre de formations sur la sobriété numérique dans l’ESR, par ville (Carte interactive)

 Départements et Régions d’outre-mer

Nom de Département et n°

Ville

Nb. de formations

Guadeloupe

971

Pointe-à-Pître

1

La Réunion

974

Le Port

1

974

Le Tampon

1

974

Saint-Joseph

1

974

Saint-Pierre

2

Mayotte

976

Mamoudzou

1

Nouvelle-Calédonie

988

Nouméa

3

 

Les villes avec le plus grand nombre de formations sur la sobriété numérique sont Paris (35), Lyon (27 formations), Bordeaux (17), Lille (17), et Montpellier (15).

Nuage de mots : Nombre de diplômes par mots-clés

Le mot-clé dont l’occurrence est la plus élevée est « Ecoconception » (41 occurrences). Ensuite, l’expression « Responsabilité Sociétale des Entreprises » est apparue 23 fois, suivie de « Numérique Responsable » (18 occurrences) et de « Sobriété Numérique » (15 occurrences).

DiscussionMéthode de recensement

La méthode de recensement utilisée présente plusieurs limites. Tout d’abord, la liste des diplômes et formations n’est pas exhaustive : plusieurs mots-clés sont utilisés de façon disparate pour parler de sujets similaires. D’autre part, de nombreuses données sont manquantes : la date de création du diplôme et des formations, les volumes horaires rattachés aux enseignements, les intitulés d’Unité d’Enseignement et thématiques précises enseignées, le coût et accès à la formation, la qualité du contenu de formation et les méthodes pédagogiques mobilisées, le nom et statut des intervenant.es, les effectifs étudiant.e.s, le taux de réussite au diplôme, le taux d’insertion professionnelle des diplômé.es, ainsi que la satisfaction des étudiant.es. Malheureusement, il n’existe pas, à notre connaissance, de base de données libre d’accès qui rassemble toutes ces informations.

Dans le cadre du Programme Alt-Impact, nous collaborons avec la Grande École du Numérique. Cet organisme a développé un outil de référencement automatique des formations, GEN_SCAN, qui opère en croisant différentes bases de données ; certaines en libre accès, et d’autres payantes. En configurant cet outil selon nos besoins, nous pourrions éclaircir de nombreux aspects de notre recherche.

Discussion : Proposition d’une stratégie de déploiement de la formation

Sensibiliser et former les enseignant.es-chercheurs

Afin d’atteindre un large éventail de disciplines universitaires à tous les niveaux de diplômes, nous proposons de sensibiliser et former les enseignant·e·s-chercheur·e·s de toutes les disciplines à la sobriété numérique. L’objectif est qu’ils puissent promouvoir de manière pérenne cette approche au sein de leurs établissements. Nous recommandons d’identifier et de former, parmi le corps enseignant, un.e référent.e en Sobriété Numérique au sein chaque université française. Cette personne référente aura pour mission de diffuser cette démarche auprès de ses collègues. Enfin, pour équiper un maximum d’enseignant·e·s-chercheur·e·s, nous suggérons de créer et mettre à disposition des outils pédagogiques, tels que des capsules vidéo. Ces outils se concentreront sur deux aspects : les connaissances en sobriété numérique et les méthodes d’enseignement et d’accompagnement au changement appliquées à cette thématique.

Diplôme et référentiel

Nous avons concentré notre recherche sur les certifications inscrites au RNCP. Explorer la possibilité créer un titre RS sur la sobriété numérique permettrait de définir et d’instaurer un socle commun de compétences à maîtriser, pour chaque étudiant.e de l’Enseignement Supérieur. Dans le cadre du programme Alt-Impact, nous élaborons avec notre partenaire Pix un référentiel d’évaluation en sobriété numérique. Ce livrable servira de base afin de construire un référentiel complet d’activité, de compétences et d’évaluation, avec pour objectif final de déposer un futur titre au Répertoire Spécifique de France Compétences relatif à la sobriété numérique. De plus, ce dispositif certifiant nous permettra d’obtenir des statistiques pertinentes quant à la notation, au suivi et à la validation de ce référentiel.

Offre de formation uniformisée pour les étudiant.es

L’élaboration d’une offre de formation basée sur le référentiel évoqué précédemment permettrait de remédier à l’absence d’uniformité de diplômes et formation sur la Sobriété Numérique au sein l’enseignement supérieur, en termes d’utilisation de mots-clés, ainsi que de répartition dans les disciplines, territoires, et niveau de diplôme, comme nous l’avons constaté lors de notre étude. Ainsi, en termes de stratégie de déploiement de formation, nous préconisons que la validation du futur référentiel d’évaluation conçu par Pix soit largement intégrée aux cursus des Sciences Humaines et Sociales, du Droit, de l’Économie et de la Santé. En effet, l’effectif dans ces cursus représente près de 56% de l’ensemble des disciplines Universitaires, et elles disposent de peu d’offres de formations en sobriété numérique (12% des formations)

Communication et valorisation

En parallèle, afin de favoriser la visibilité de l’offre de formation et les opportunités professionnelles en lien avec la sobriété numérique, nous proposons de créer un podcast. Ce podcast mettra en lumière les diverses formations en donnant la parole aux étudiant.es, pour qu’ils puissent partager leur expérience d’apprenant.e. Les diplômé.e.s pourront également évoquer leur retour d’expérience et la façon dont ils appliquent la sobriété numérique en milieu professionnel. Enfin, les enseignant.es-chercheur.es et les membres des SUIO (Services Universitaires d’Information et d’Orientation) auront l’occasion de présenter brièvement les formations et expliquer leurs liens et objectifs.

Conclusion

Le présent état des lieux de l’offre de formations et de diplômes en sobriété numérique dans l’enseignement supérieur retranscrit une répartition inégale des formations à travers les disciplines et cursus, ainsi qu’une visibilité limitée des dispositifs de formation, de leur contenu et du volume horaire dédié à cette thématique. En ce qui concerne la méthode de recensement des formations, les perspectives mentionnées précédemment, telle que l’utilisation de l’outil GEN_SCAN, permettraient de clarifier, préciser et affiner l’offre de formation.

Concernant la stratégie identifiée de déploiement de la Sobriété Numérique, le déploiement de la formation de « référent.es sobriété numérique » dans chaque établissement, accompagnée de la mise à disposition d’outils pédagogiques pour les enseignant.es-chercheur.es, permettraient de renforcer la portée de cette thématique au sein de l’Enseignement Supérieur. De plus, la conception d’un référentiel d’évaluation en partenariat avec Pix, suivie de l’élaboration d’une formation et d’une certification inscrite au Répertoire Spécifique permettrait d’atteindre un large nombre d’étudiant.es.

Ces initiatives sont à mettre en perspective avec une offre de formation accessible et en libre accès pour tous les étudiant.es et futur.e.s professionnel.les. Enfin, il est essentiel d’intégrer la sobriété numérique dans les débats citoyens, afin d’ouvrir un espace de réflexion collective sur les enjeux environnementaux, sociaux, et sanitaires du numérique, et de favoriser une prise de conscience à l’échelle sociétale.

 Chiara Giraudo, Ingénieure Pédagogique au CNRS, dans le cadre du programme Alt Impact

[0] Cet article a été rédigé dans le cadre du Programme Alt Impact, co-porté par l’ADEME, le CNRS et l’INRIA. Ce programme national a pour objectif de sensibiliser et former à la sobriété numérique, de déployer une base de données publique, et de développer la sobriété numérique dans les territoires.

[1] NB : sont exclus de ce calcul la part de fabrication, de transport, d’usage et de traitement de fin de vie des réseaux et serveurs utilisés par les comme outil et domaine de recherche, contributions à la sobriété numériqueFrançais mais situés géographiquement en dehors du pays

[2] Outil d’indexation de l’offre de formation et de certification 

Un érudit pèse-t-il plus lourd qu’un ignare ?

Combien pèse un gigaoctet, un tera, un exa ? La question ne vous parait pas avoir de sens. Pourtant elle passionne plus d’un et en particulier l’ami Max Dauchet qui nous initie au sujet. Max Dauchet est un brillant informaticien de l’Université de Lille, spécialiste d’algorithmique et de méthodes formelles pour la programmation.. Serge Abiteboul et Thierry Viéville.

De Boltzmann à Landauer

Gauche : Ludwig Boltzmann, (1844 – 1906), © Gerhard Fasol Droite : Rolf Landauer, (1927 – 1999), © IBM Archive

 

 On trouvera à l’adresse  http://maxdauchet.fr/ une version plus détaillée de cet article

Si la question du poids de la connaissance dans un cerveau fait sourire et n’a guère de sens, celle du poids de l’information chargée dans une clé USB est bien réelle et inspire les Youtubers.

On parle d’information dématérialisée quand elle est accessible sous forme numérique plutôt que stockée dans des bibliothèques soumises à des contraintes architecturales draconiennes tant le papier est lourd. Jusqu’où peut-on aller dans l’allégement du support ? Rien ou Presque rien ? « Rien » signifierait que l’information est immatérielle. « Presque rien » signifierait qu’elle a un lien irréductible avec la matière. Idéalisme d’un côté, matérialisme de l’autre ? éclairer le distinguo vaut le détour. Le chemin nous fait passer par la thermodynamique et l’entropie, celle-là même qui nous fascine quand il s’agit du cosmos, dont la formule S = k logW orne la sépulture de Boltzmann à Vienne. Il  aboutit à un « Presque rien » que quantifie le principe de Landauer.

Ce qu’en disent les Youtubers

Le Youtuber scientifique Théo Drieu a mis en ligne ce printemps la vidéo Combien pèse la totalité d’internet sur sa chaîne Balade Mentale (un million d’abonnés). Il ne s’agit bien entendu pas de la masse des infrastructures du net – des millions de tonnes – ni de l’équivalent en masse de l’énergie consommée – dans les 10 à 15 % de l’électricité de la planète. Il s’agit d’une estimation de la masse des électrons nécessairement mis en jeu pour faire circuler l’information sur le net. Dans la vidéo, l’animateur sacrifie à la loi du genre en tripotant une orange afin de marquer les esprits : la masse des informations sur le net serait celle d’une orange. Drieu ne fait là, comme il l’annonce, qu’actualiser les chiffres avancés par son collègue d’Outre-Atlantique Michael Stevens qui dans une vidéo de 2012 intitulée How Much Does The Internet Weigh? croquait modestement une fraise, les millions de térabits sur le net étant alors moins nombreux que maintenant. Dans cette même vidéo sur sa chaîne Vauce (vingt-deux millions d’abonnés) Stevens évoquait deux aspects : le nombre d’électrons nécessairement mobilisés selon les technologies du moment pour faire circuler l’information, et le nombre nécessaire pour la stocker. Dans ce cas, il estimait la masse inférieure à celle non plus d’une fraise mais d’une graine de fraise[i].

 Ce qu’en disent les chercheurs

Ce qu’en dit précisément la science est plus saisissant encore, car la limite théorique est des milliards de fois moindre que la masse d’une graine de fraise évoquée par Stevens. Pour le raconter mieux vaut le faire en énergie plutôt qu’en matière, puisque matière et énergie se valent selon la célébrissime formule d’Einstein E = m c².  Cela évite le biais lié à l’usage de la matière pour coder, que l’on peut ajouter, comme la plume encre le papier,  ou retrancher comme le burin incise la pierre.  D’autre part nous nous limitons ici au stockage, sans considérer la circulation de l’information.

La clé de voûte du raisonnement est le principe formulé en 1961 par Rolf Landauer, physicien américain chez IBM[ii] : l’effacement d’un bit dissipe au moins une énergie de k T log2 Joule, où k est la constante de Boltzmann, T la température absolue (en Kelvin) et log 2 ≈ 0,693. L’irruption de Boltzmann au milieu de l’informatique théorique peut surprendre, c’est pourtant lui qui fait le lien entre la physique-chimie – donc les sciences de la matière – et l’informatique – donc les sciences de l’information.

Landauer est pour sa part le premier à avoir tiré clairement toutes les conséquences de la théorie de Boltzmann. Les systèmes que considère Boltzmann sont des gaz, avec des milliards de milliards de milliards d’états possibles au niveau de l’ensemble des particules. Landauer applique l’idée de Bolzmann sur un système à … deux états, le 0 et le 1, juste de quoi stocker un bit. Pour étudier les propriétés d’un bit d’information, il applique ainsi un concept – l’entropie – basé sur quatre siècles d’intenses recherches en physique-chimie.  On comprend que les laboratoires de physique demeurent mobilisés pour monter des expériences de confirmation ou d’invalidation de la proposition de Landauer, car de leurs résultats dépend notre conception des rapports entre matière, énergie et information.  Ces expériences se situent au niveau quantique et font face à des phénomènes complexes comme les fluctuations statistiques d’énergie qui sont ici passés sous silence. Le présent regard est celui d’un informaticien, illustré par un petit démon imaginé par Maxwell, démon qui lui aussi a suscité de nombreuses vidéos.

L’entropie, une histoire de gaz et de piston

 Wikipédia définit l’entropie comme une grandeur physique qui caractérise le degré de désorganisation d’un système. Cette notion  naît de l’étude du rendement de la machine à vapeur et des travaux de Carnot sur les échanges de chaleur, autrement dit de la thermodynamique au sens littéral du terme. Le principe de Carnot dit que sans apport extérieur d’énergie, une source chaude et une source froide s’équilibrent irréversiblement en un système de température homogène. Ce principe a été généralisé en ce qui est maintenant le deuxième principe de thermodynamique, en introduisant la notion d’entropie pour quantifier « le désordre » vers lequel tout système sans apport extérieur d’énergie évolue inexorablement selon ce principe.

Clausius relie en 1865 la baisse d’entropie d’un gaz parfait à la la chaleur que dégage le travail d’un piston qui comprime le gaz à température constante[iii].

 Quelques années plus tard, Bolzmann propose une définition radicalement différente de l’entropie S. Cette définition s’appuie sur la description statistique de l’état du gaz et aboutit à la formule  S = k log W déjà évoquée (la version étendue de cet article montre l’équivalence des deux approches).

W est la clé du lien avec le numérique, ce symbole  désigne le nombre de configurations possibles du gaz en considérant la position et de la vitesse de chaque particule. Quand le piston divise par deux le volume du gaz, le nombre possible de positions d’une particule est également divisé par deux :  Pour chaque particule, il n’y a plus à préciser si elle est à gauche ou à droite dans la boite. Landauer en déduira plus tard que c’est l’effacement de cette information pour chaque particule qui produit la chaleur.

Cette présentation de l’entropie de Boltzmann et de son interprétation par Landauer enjambe l’histoire. Entre temps, les réflexions des physiciens ont évolué pas à pas, et elles ne sont pas closes. Le démon de Maxwell illustre ces réflexions.

Le démon de Maxwell : quand le calcul et la mémoire s’en mêlent

Se plaçant comme Boltzmann au niveau des particules, Maxwell proposa une expérience de pensée comme les physiciens aiment à les imaginer.

Maxwell considéra une boîte partagée en deux par une cloison munie d’une trappe qu’un démon actionne sans frottement de façon à faire passer une à une des particules[iv]. En les faisant passer de gauche à droite, le démon « range les particules », il diminue l’entropie du gaz sans fournir de travail, contrairement au piston : le deuxième principe de thermodynamique est contredit !

Pour lever la contradiction, les physiciens cherchèrent du côté des calculs effectués par le démon de Maxwell, considérant que si celui-ci n’exerce pas sur le gaz un travail mécanique, il exerce en quelque sorte un travail intellectuel, il observe, il acquière de l’information et il calcule. Tel fut le point de vue de Szilárd, un des principaux scientifiques du projet Manhattan connu pour son opposition farouche à l’usage de la bombe atomique[v]. Puis Brillouin[vi] ébaucha l’idée ensuite érigée en principe par Landauer que c’est l’effacement d’information qui augmente l’entropie, comme nous allons le préciser.

Le principe de Landauer : du gaz à l’ordinateur

Le principe de Landauer est une extrapolation de la formule de Boltzmann aux systèmes informatiques. La relation entre énergie et nombre de micro-états est étendue par analogie.

Landauer pose directement la formule de Boltzmann  en considérant un seul bit de mémoire comme un système à deux états possibles, 0 et 1 [vii]. Si le bit est effacé, il n’y a plus qu’un seul état, l’entropie a donc diminué et ce travail d’effacement s’est dissipé en chaleur. 

Retour sur le démon de Maxwell 

Pour la simplicité de l’interprétation numérique, nous avons seulement considéré plus haut le cas où le volume du gaz est réduit de moitié. Mais le parallèle entre le piston et le démon doit tenir pour tous les taux de compression. Pour pouvoir revenir aux conditions initiales, le démon doit compter les particules de gauche à droite, afin d’en renvoyer autant si l’on poursuit le parallèle avec le piston. D’après Landauer, pour ne pas chauffer, le démon ne doit effacer aucun bit intermédiaire, ce qui n’est pas le cas avec l’addition habituelle mais est réalisé par exemple en « comptant des bâtons ». Or le démon fait partie du système physique considéré dans l’expérience de pensée, il doit donc être remis dans son état d’origine si l’on veut faire un bilan énergétique à l’issue de la compression comme c’est le cas ici. Autrement dit, il doit alors effacer sa mémoire, ce qui dégage la chaleur prévue par la physique. 

Réversibilité et entropie

Pour imaginer un système informatique ne consommant aucune énergie, ce système ne doit donc effacer aucune information durant ses calculs, ce qui revient à considérer des machines logiquement réversibles, où l’on peut remonter pas-à-pas les calculs comme si on remontait le temps . C’est ainsi que nous avons réinterprété le démon. Les opérateurs logiques et arithmétiques usuels ne sont évidemment pas réversibles (l’addition et le ET perdent les valeurs de leurs données) . Cependant Bennett[viii], [ix], [x] a montré que l’on peut rendre tout calcul logiquement réversible en donnant un modèle de machine de Turing conservant l’historique de tous ses calculs. Ces considérations sont particulièrement prometteuses pour les ordinateurs quantiques, où la superposition d’états dans les q-bits conduit (sous les nombreuses contraintes liées à ce type de machine) à considérer directement des opérateurs réversibles.

Les physiciens continuent de se passionner pour le principe de Landauer[xi], imaginant des nano machines parfois extravagantes, à cliquets, escaliers, poulies ou trappes et construisant des expériences de plus en plus fines[xii] pour mesurer l’énergie dégagée par l’effacement d’un bit[xiii]. Jusqu’à présent, le principe est confirmé, dans le cadre de la physique classique comme de la physique quantique. Il n’est cependant pas exclu que sa limite soit un jour abaissée, notamment en exploitant des propriétés de la physique quantique encore mal connues. Cela remettrait en cause les interprétations qui viennent d’être décrites, et ce serait alors une nouvelle source de progrès dans les modèles scientifiques de l’organisation de la matière et de l’information.

En guise de conclusion

La limite de Landauer commence à influencer l’architecture des systèmes et plaide pour l’informatique quantique. Elle fournit un horizon qui nous incite à méditer sur ce qu’est le traitement de l’information, que ce soit par le vivant ou la machine.

La théorie associe à l’information une masse minimale de matière  bien moindre encore que celle mise en scène par les Youtubers, déjà spectaculaire par sa modicité.  De même il faut peu de matière pour libérer beaucoup d’énergie (bombe, centrale nucléaire) et beaucoup d’énergie pour générer quelques particules (au LHC du CERN). Le second principe de thermodynamique et l’entropie nous font penser qu’il est plus facile de désordonner que de structurer. Pourtant l’univers fabrique sans cesse de nouveaux objets cosmiques et la vie s’est développée sur terre[xiv]. Nous devons nous méfier de nos appréciations sur le petit ou le grand, le beaucoup ou le peu, qui sont des jugements attachés à notre échelle et à notre condition.

Max Dauchet, Professeur Émérite de l’Université de Lille.

[i] Estimation tirée d’articles universitaires. Cinquante ans avant, Richard Feynman, prix Nobel de physique , dans sa célèbre conférence de 1959 intitulée There’s Plenty of Room at the Bottom, annonciatrice de l’essor des nanotechnologies, estimait que l’on pourrait coder avec les technologies de l’époque toutes les connaissances du monde dans un grain de poussière, et indiquait les pistes pour le faire.

[ii] Rolf Landauer, Irreversibility and Heat Generation in the Computing Process, IBM Journal of Research and Development, 5(3), 183–191 (1961).

[iii] Die mechanische Wärmetheorie, Friedrich Vieweg und Sohn ed (1865 -1867).

[iv] Historiquement, le démon trie les particules les plus rapides et les plus lentes, distribuées statistiquement autour de la valeur moyenne, pour créer une source chaude et une source froide  à partir d’un milieu en équilibre thermique.

[v] La première planche de La bombe, BD consacrée au projet Manhattan, illustre un cours de Szilárd sur le sujet en 1933. Alcante, Bollée, Rodier, Ed. Glénat, 2020.

[vi] Brillouin est sans doute un des noms les moins connus de ceux cités ici. Alfred Kastler, prix Nobel de physique, lui rendait hommage dans les colonnes du Monde lors de sa disparition 1969 : Léon Brillouin : un des plus brillants physiciens français.

[vii] En réalité un réseau de bits statistiquement liés, pour des raisons de phénomènes physiques.

[viii] C. H. Bennett, Logical reversibility of computation, IBM journal of Research and Development, 1973.

[ix] J.-P. Delahaye, Vers du calcul sans coût énergétique, Pour la science, pp 78-83, janvier 2017

[x] C. H. Bennett, Notes on Landauer’s Principle, Reversible Computation, and Maxwell’s Demon, 2002       https://arxiv.org/abs/physics/0210005

[xi] La plupart des références données ici sont les références historiques – il est souvent instructif de découvrir les idées « dans leur jus ». Cependant il suffit de parcourir le net pour en trouver des récentes en pagaille.

[xii] Les fluctuations statistiques ici négligées y jouent un rôle important.

[xiii] Séminaire information en physique quantique  de l’Institut Henri Poincaré, 17/11/2018 . vidéos sur carmin.tv, les mathématiques vivantes. Landauer et le démon de Maxwell, Sergio Ciliberto. Thermodynamique et information, Kirone Mallik.

[xiv] Dans son article déjà cité, Bennett évoque l’économie de moyens de la duplication des gènes, déjà remarquée  par Landauer en 1961.