Rapport I&S GVidal 2022
Rapport I&S GVidal 2022
Geneviève Vidal
Partie 1
introduction p. 11
1.1 fichiers, données, serveurs
1.2 algorithmes et réseaux p.14
plateformatisation
systèmes d’intelligence artificielle
conclusion : Réglementation et régulations p. 25
Partie 2
la technique comme idéologie, la technique comme système p. 30
2-1 surveillance et contrôle p. 36
dispositif
consentement
banalisation de la surveillance numérique
prescriptions
l’Etat a toujours surveillé
gouvernementalité algorithmique
2-2 injonctions et renoncement p. 48
vie quotidienne
surveillance au travail
négociations
compromis
prescriptions
disposition d’acceptabilité
renoncement négocié
conclusion : Alternatives et recherche engagée p. 56
Conclusion p. 66
deux axes, 40 ans de recherche
expression contemporaine du champ Informatique et Société
approche critique et interdisciplinarité
enseignement Informatique et Société
Résumé p. 114
1
INTRODUCTION
L’informatisation de la société est un processus qui s’étend depuis plusieurs décennies,
étudié par des chercheurs en Informatique et Sciences Humaines et Sociales et d’autres
acteurs de la société civile, et qui présente une ambivalence entre atouts et risques. En ce
début de 21ème siècle il semble que le terme et qualificatif « numérique » domine celui
d’informatique, alors qu’il est essentiel de mener l’analyse au delà de la surface des
technologies d’information et de communication, à l’heure des discours sur la transparence,
l’intuitif et l’accès. Il s’agit de cerner le déploiement généralisé de l’informatique (des bases
de données aux systèmes d’intelligence artificielle, en passant par les algorithmes…).
Nombreuses sont les analyses de l’informatisation de la société, mais peu de chercheurs et
autres investigateurs revendiquent l’inscription de leurs travaux dans le champ de recherche
Informatique et Société 1, dont les fondations et développements remontent à la seconde
moitié des années 1970, avec en premier lieu des enseignants-chercheurs en Informatique
rejoints par certains en sciences humaines et sociales (SHS). Ce champ 2 de recherche s’inscrit
me semble-t-il dans une sociologie de « moyenne portée » 3 (Merton, 1983). C’est à ce
carrefour ou cette frontière que j’estime la proposition aujourd’hui d’un état de l’art
(littérature scientifique et littérature grise)4 de ce champ de recherche qui croise tant
d’analyses provenant du monde académique, d’institutions (autorités administratives comme
la CNIL, de l’Union Européenne, de l’Etat) et de la société civile avec des associations, en
France, telles que le Centre de coordination pour la Recherche et l’Enseignement en
Informatique et Société (CREIS) 5, dans une dynamique critique, autrement dit ici visant à
questionner, mettre en débat, voire contester le processus d’informatisation de la société, en
l’analysant et en agissant. Les enseignants-chercheurs en informatique impliqués dès 1979
s’interrogeaient sur « l’essor de l’informatique » (Paoletti, 1993), rejoints 6 rapidement par des
sociologues, juristes et politologues, puis des chercheurs en sciences de l’information et de la
communication, mais aussi la Ligue des Droits de l’Homme (LDH), plus récemment La
Quadrature du Net, association créée en 2013 par des informaticiens, ingénieurs,
indépendants.
1
Champ Informatique et Société rejoint récemment par un champ contemporain (2020-21) intitulé Internet et Société https://
cis.cnrs.fr/presentation-gdr/, alors que les Internet Studies existent depuis la fin des années 1990 ; voir par exemple
l’association américaine de chercheurs Internet AOIR : https://aoir.org/about/ et le rôle de Manuel Castells (1998) à cette
époque. Si je peux me permettre de mentionner ma contribution lors de la 2 ème conférence internationale IR 2.0 en 2001 à
Minneapolis-Etats-Unis : https://web.archive.org/web/20011121220816/http://aoir.org/2001/sunday.htm#435
2
Le concept de « champ » peut renvoyer, selon la sociologie de Pierre Bourdieu (1980b), à un domaine d’activités (à relier
avec le concept de capital afin de maintenir des positions et celui d’habitus, autrement dit des principes sur lesquels reposent
les pratiques distinctes ou différenciées).
3
Autrement dit un champ de recherche qui conjugue approches empirique et théorique pour analyser, ici la société comme
un système d'institutions visant un développement économique avec l’informatique.
4
Dès les années 1980 des chercheurs ont ressenti le besoin de faire un état des travaux sur l’informatique naissante : en1982,
il était question d’un « phénomène informatique » selon Bergeron (1982) dans une volonté d’établir une « synthèse
bibliographique » (en ligne, p.14). A l’international aussi les questions, qui se sont posées en France avec l’informatique, se
retrouvent : Flaherty D.H., 1989, « Protecting Privacy in Surveillance Societies », Chapel Hill and London, The University of
North Carolina Press.
5
L’association CREIS est devenue Creis-Terminal ; le CREIS a toujours été proche du Centre d’information et d’initiative
sur l’informatisation (CIII) qui éditait le magazine Terminal, devenu la revue Terminal. Voir : https://www.lecreis.org/?
page_id=994 et https://journals.openedition.org/terminal/1846 ; Terminal, technologie de l’information, culture & société
(ISSN 2429-4578) : http://cpdirsic.fr/wp-content/uploads/2019/06/Revues-reconnues-SIC-28-11-18.pdf
6
CREIS, devenue Creis-Terminal, a eu et a des correspondants Informatique et Société dans le monde francophone en :
Belgique, Suisse, Québec, Italie, Pays-Bas, Grande-Bretagne, Sénégal, Cameroun.
2
Plus de quarante ans après la loi Informatique et Libertés (loi n° 78-17 du 6 janvier 1978
relative à l'informatique, aux fichiers et aux libertés), et la création de la Commission
nationale Informatique et Libertés, pour cerner ce champ de recherche riche et foisonnant, je
propose deux grands axes: objets d’étude et problématiques, permettant de traverser son
histoire et des acteurs (chercheurs, enseignants et institutions). Neuf témoignages de
chercheurs, enseignants-chercheurs, acteurs associatifs rejoignent ce texte en deux parties, et
bien entendu une rubrique références rassemblant bibliographie et ressources, dont celles
transmises par les témoins qui partagent leur expérience en informatique, sciences juridiques,
histoire, science politique, sciences de l’information et de la communication, socio-économie
de l’innovation 7.
L’objectif de cet état de l’art vise également à montrer la nécessaire approche
interdisciplinaire pour la recherche avec les travaux en informatique, sciences juridiques,
science politique, sociologie, sciences de l’information et de la communication, philosophie…
En affirmant l’approche interdisciplinaire, et non pas pluridisciplinaire, s’engagent des enjeux
épistémologiques, puisqu’il s’agit de dépasser l’approche par complémentarité pour faire
émerger des analyses qui n’existeraient pas si les regards n’étaient pas croisés. Il n’est donc
pas aisé de reconnaître institutionnellement un champ de recherche, nourri de travaux en
Informatique et SHS.
Pour l’enseignement, l’approche transdisciplinaire 8 est requise puisque toutes les formations
en sciences (y compris sciences médicales), sciences de l’ingénieur, lettres, arts & sciences
humaines, et sciences sociales 9 sont amenées à considérer la numérisation généralisée et
l’informatisation intensive de tous types d’activités dans la société. Et c’est de mon point de
vue d’enseignante-chercheure en sciences de l’information et de la communication travaillant
sur les usages numériques depuis les années 1990, me permettant une approche longitudinale,
que je peux produire cette proposition à dimension socio-politique.
7
Cet intitulé provient de la présentation d’une témoin « docteure en socio-économie de l’innovation de Mines ParisTech » ;
spécialité doctorale dans le domaine « Economie, management et société » :
https://www.minesparis.psl.eu/Recherche/Domaines-de-recherche/Economie-management-et-societe/
8
Ici pour envisager le travail sur ce que produit l’approche interdisciplinaire (en recherche) pour étudier des systèmes
complexes ou qui engendrent de la complexité. Autrement dit apprendre à articuler, non pas cumuler les connaissances de
toutes les disciplines (Morin, 1982/1990, p.126, p. 128, p. 175, p. 178), voir
https://archive.mcxapc.org/docs/conseilscient/morin1.htm.
9
Le domaine de recherche dit multi ou interdisciplinaire (sociologie, économie, psychologie, sciences politiques, histoire,
entre autres) portant sur les relations entre les sciences et les technologies et la société STS (pour Sciences, Technologies et
Société ou Sciences and Technology Studies), développé dans les années 1960-70, constitue un champ de recherche qui,
selon certains témoins, serait le champ d’études mettant à jour le champ Informatique et Société, dont l’appellation serait,
toujours pour certains, devenue obsolète, ce que je ne crois pas ; au contraire une appellation précise, qui qualifie
explicitement la matrice que la société a créée et dans laquelle elle se trouve aujourd’hui.
3
Un autre thème important de la dialectique informatique et société concerne les libertés au
cœur des traitements informatiques des données à caractère personnel dès la fin des années
1970 (Mattelart, Vitalis, 2014 ; Vitalis, 2016) (écouter audio), renvoyant à la création en
France de la CNIL 10, plus récemment à l’échelle européenne la directive 1995 puis le
règlement européen relatif à la protection des données personnelles (RGPD) 2016. Des
alternatives et la créativité informatique et d’usages permettent parallèlement l’évolution de
l’informatisation de la société en termes d’autodétermination informationnelle, notion
valorisée dans un rapport du Conseil d’État de 2014 sur « Le numérique et les droits
fondamentaux » 11 et définie comme la capacité de l’individu à pouvoir décider de l’utilisation
de ses données personnelles, à partir de droits d’information, d’accès, de rectification et
d’opposition. L’autodétermination informationnelle, selon un modèle relatif à
l’autonomisation sociale qui s’inscrit dans le très long terme, renouvelle la protection des
données personnelles, non pas stockées dans des fichiers que l’on peut contrôler, mais tracées
sur des réseaux numériques. Pour ce faire, les individus peuvent s’emparer des moyens pour
participer à la mise en débat éclairé des technologies de captation de données, souvent avec
difficulté tant les dispositifs disposent à donner son consentement. A ce titre, nous pouvons
pointer les algorithmes qui servent les stratégies socio-économiques, soutenues par des
politiques d’encouragement à l’économie numérique.
Une acceptabilité sociale des technologies algorithmiques et de surveillance est ainsi
observable par le biais des études d’usages numériques, sans empêcher dans le même temps
une posture critique de la part des usagers. Dès lors, la recherche sur les usages numériques
rejoint le champ de recherche Informatique et Société et permet d’identifier une ambivalence
dans une dynamique socio-politique pour des analyses critiques des technologies
informatiques, de l’information et de la communication et de la socio-économie des réseaux,
10
Auparavant, Rapport « relatif à l’informatique et aux libertés », Sénat, 1977-1978 : https://www.senat.fr/rap/l77-072/l77-
0721.pdf
11
Conseil d’Etat, 2014 : https://www.conseil-etat.fr/actualites/discours-et-interventions/le-numerique-et-les-droits-
fondamentaux ; voir aussi la CNIL, 2016 : https://www.cnil.fr/fr/ce-que-change-la-loi-pour-une-republique-numerique-pour-
la-protection-des-donnees-personnelles ; voir également le « Rapport sur l’application des principes de protection des
données aux réseaux mondiaux de télécommunications », « l’autodétermination informationnelle à l’ère de l’Internet » du 18
novembre 2004 : https://rm.coe.int/16806ae51f
4
des contenus et des données. Ceci démontre de nouveau le besoin d’une approche
interdisciplinaire pour analyser l’informatisation de la société. Cet état de l’art constitue une
contribution pour saisir ce champ de recherche mosaïque sur les rapports technique et société.
En outre, cet état de l’art vise à offrir aux enseignants et étudiants un support pour les
formations de différentes disciplines SHS et Sciences et Techniques, ainsi que les diverses
orientations professionnelles, toutes concernées par ce processus. Pour une articulation
recherche et enseignement, l’enseignement informatique et société 12 permet de mettre en
perspective les rapports technique et société et les enjeux techniques, règlementaires,
économiques, organisationnels et sociaux. Il stimule la capacité d’analyse des innovations
numériques permanentes, y compris les réseaux pervasifs (avec les objets connectés et
l’internet des objets) et l’actuel développement de l’intelligence artificielle, à l’heure des
transformations numériques et de la mise en relation de ressources de toutes natures, en
traçant les données, nécessitant l’interopérabilité des systèmes d’information. Aussi, faut il
adopter des standards et des normes comme pour le web sémantique ou la conception centrée
utilisateur. C’est le cas pour envisager une politique d’inclusion dans une dite « société
numérique » considérant l’accessibilité, ou encore une politique de responsabilité d’entreprise
en faveur de l’environnement. Or, paradoxalement les politiques d’inclusion dans la « société
numérique » peuvent entraîner l’exclusion, puisque le temps de la normalisation pour inclure
se heurte au modèle de l’innovation permanente 13. L’enseignement Informatique et Société
est un moyen pour aborder avec les étudiants la complexité des environnements informatisés,
et pour développer une posture réflexive avec une mise en examen de leurs postulats. Cette
dernière offre la possibilité de penser le consentement éclairé, ainsi que le concept de
renoncement négocié, qui consiste à envisager des usagers qui renoncent à certaines de leurs
libertés (consentir au quotidien à laisser tracer leurs usages numériques) pour s’emparer des
technologies d’information et de communication, des applications et services. Certes ils
négocient, mais avec les mêmes technologies pour résister ou plus couramment contourner les
prescriptions et adopter des tactiques, reproduisant les rapports de pouvoir en apparence
modifiables grâce aux usages numériques, dans un contexte d’injonction à la créativité, au
collaboratif dans les organisations et la société. Mais avant d’aborder la richesse de la
recherche et enseignement en Informatique et Société 14, revenons à la genèse du champ.
Même si l’histoire marque les années 1940 15 (sans passer par l’histoire des mathématiques, de
la mécanisation et l’industrialisation du 19ème siècle) comme le passage des calculateurs à
l’ordinateur 16, les années 1970 vont retenir notre attention pour présenter un double tournant,
12
Deux réflexions sur l’état de l’enseignement Informatique et Société, en 2013 : Emmanuelle Barbot, « Un bilan de
l’enseignement Informatique et Société en IUT », Terminal, 113-114 | 2013, http://journals.openedition.org/terminal/280 et
en 2019 : https://www.lecreis.org/?cat=14
13
Vidal Geneviève (coord.), 2021, « Partie 3 – dispositifs numériques de communication et médiation. La tension inclusion
et instabilité », in Fractures corporelles, fractures numériques. De l’accessibilité aux usages, Véronique Lespinet-Najib et
Nathalie Pinède (dir.), Pessac, MSHA, pp. 143-195
14
Education et informatisation de la société, dès 1980 : https://www.epi.asso.fr/revue/histo/h80simon2.htm ; voir également
« l’option informatique » : https://edutice.archives-ouvertes.fr/edutice-00560705/file/h10oi_jb1.htm
15
Décret n° 46-2 du 3 janvier 1946 portant création à la présidence du Gouvernement d'un conseil du plan de modernisation
et d’équipement et fixant les attributions du commissaire général du plan. Déclaration universelle des droits de l’Homme du
10 décembre 1948 et Convention de sauvegarde des droits de l’Homme et des libertés fondamentales du 4 novembre 1950
(Convention EDH), Convention pour la protection des personnes à l'égard du traitement automatisé des données à caractère
personnel du 28 janvier 1981 (Convention 108 du Conseil de l’Europe), Convention modernisée pour la protection des
personnes à l’égard du traitement automatisé des données à caractère personnel du 18 mai 2018 (Convention 108+ du Conseil
de l’Europe).
16
Voir François Jarrige historien des techniques et de l’industrialisation, en considérant les enjeux sociaux et écologiques.
Selon Jarrige (2016), les techniques définissent la condition humaine d’aujourd’hui, aussi interroge-t-il les technocritiques,
notamment l’industrialisation des sociétés, de la part des individus et groupes qui ont dénoncé les techniques de leur temps,
censées alléger le travail, émanciper des contraintes, apporter confort et bien-être et qui ont mené des actions nourrissant des
5
essentiel pour le champ Informatique et Société : l’informatique et sa réglementation. En
effet, au moment où l’informatique commence à s’implanter dans la société, puis largement
avec la micro-informatique (sphères professionnelle et domestique), la réflexion sur ses
implications et conséquences s’engage, donnant lieu à un cadre règlementaire, notamment en
France avec la Loi Informatique et Libertés de 1978 et la création de la CNIL (décret n°
74.938 du 8 novembre 1974).
https://www.cnil.fr/fr/la-protection-des-donnees-dans-le-monde
Une décennie après le Plan Calcul 17 du gouvernement français (1966) qui valorisait le
développement « en France (d’)une industrie des calculateurs électroniques », en 1975, le
Rapport Tricot 18 visait à « proposer au Gouvernement ….des mesures tendant à garantir que
le développement de l’informatique dans les secteurs public, semi-public et privé se réalisera
dans le respect de la vie privée, des libertés individuelles et des libertés publiques » (p.7). Les
réflexions sur ce développement avait commencé dès 1971 par le Conseil d’Etat et en 1974
avec le fameux projet SAFARI 19, pour « développer l’emploi administratif de l’informatique
dans des conditions qui pouvaient paraître dangereuses pour les libertés (et qui) provoquèrent
de vives réactions dans la presse et l’opinion publique » (Rapport Tricot, 1975, p.7). Le
registre mobilisé relève de l’inquiétude face aux technologies informatiques : « un identifiant
unique pour l’ensemble des répertoires et fichiers publics », et « la constitution de vastes
"banques de données" et de réseaux d’ordinateurs susceptibles d’enregistrer, traiter et diffuser
les informations les plus variées concernant les personnes, les entreprises et les groupements »
(p.7). Le verbe « interdire » employé (chapitre VI, p.45, puis pages suivantes, et chapitre VII
pratiques alternatives aux objets et machines qui saturent les existences. Voir également la leçon inaugurale « Pourquoi et
comment le monde devient numérique - (Chaire d'Innovation technologique Liliane Bettencourt) » de Gérard Berry, 17
janvier 2008, au Collège de France :
https://www.college-de-france.fr/media/gerard-berry/UPL13472_Le_on_inaugurale_G_rard_Berry.pdf, diapositives 4, 37 ; et
vidéo (57mn) : https://www.college-de-france.fr/site/gerard-berry/inaugural-lecture-2008-01-17-18h00.htm
17
https://www.gouvernement.fr/partage/8705-juillet-1966-lancement-du-plan-calcul-informatique-par-le-general-de-gaulle-
et-le-gouvernement, https://fr.wikipedia.org/wiki/Plan_Calcul (article wikipedia cité par hyperlien depuis
https://www.inria.fr/fr/notre-histoire) ; mentionnons à cette occasion un début de reconnaissance de l’Informatique comme
discipline dans les instances de l’Enseignement supérieur, entre 1956 et 1973 (Mounier-Kuhn, 2010). Egalement la création
de l’INRIA passant de Institut national de recherche en informatique et automatique à aujourd’hui Institut national de
recherche en sciences et technologies du numérique : https://www.inria.fr/fr/notre-histoire
18
https://www.cnil.fr/sites/default/files/atoms/files/rapport_tricot_1975_vd.pdf ; Tricot Bernard, 1975.
19
La CNIL met en ligne l’article du journal Le Monde du 21 mars 1974 :
https://www.cnil.fr/sites/default/files/atoms/files/le_monde_0.pdf
6
« problèmes posés par certains développements de l’informatique ») pour « régler la
circulation informatisée des données » (suivi par « discipliner la collecte de données »)
démontre la situation de l’époque, qui en fait n’a cessé depuis de se développer en termes de
plateformes et traitements massifs de données, d’entrecroisement d’algorithmes, sans
nécessairement faire appel au terme fichiers, qui est (à ce moment-là) au cœur du nom de la
loi de 1978 « informatique, fichiers et libertés ». Cette même année, un autre rapport sur
« l’informatisation de la société » française, dit le « Rapport Nora-Minc », fait émerger le
terme « télématique » 20, suivi du « premier rapport au Président la République et au
Parlement 1978-1980 » de la CNIL 21, qui poursuit ses rapports 22. De là l’informatisation de
la société est en marche ; annoncée, elle existe (Austin, 1970).
Par ailleurs, a été instituée une « semaine Informatique et Société » en 1979 :
suivie d’un Colloque international « Informatique et société » en 1980 23, pour soutenir l’
« informatisation de la société française et changement économique » en France, sous l’égide
du Ministère de l’Industrie, Mission à l'informatique.
7
d’émancipation (liberté d’expression sur Internet par exemple) et de surveillance et
traitement-exploitation des données relatives aux libertés individuelles, avec l’opacité des
algorithmes, non démocratiques (autrement dit ne faisant l’objet ni de connaissances ni de
choix de leur conception et mise en oeuvre) 25, rejoignant la dialectique
domination/émancipation. Ainsi, les technologies qui envahissent toutes activités des
sociétés humaines présentent à la fois des atouts, dans un monde qui se dit performant et
innovant, et des risques majeurs pour les libertés, la protection de la vie privée et des
données personnelles des individus 26 qui s’en emparent. En somme, ces technologies
informatiques sont remède et poison. Ainsi va le flot d’applications et contenus
numériques sur les réseaux informatiques et de télécommunications avec consentement,
voire soumission au système de contraintes, faisant cependant l’objet d’une reconnaissance de
légitimité (le fournisseur d’accès, de services et contenus numériques). De l’engagement des
pratiques réticulaires au renoncement à ses droits à la protection de ses données personnelles
et sa vie privée, tout en négociant l’accès et le service visé, naît la figure du Leviathan
(Hobbes, 1651/2000), l’acteur dominant des territoires de l’hyperconnectivité dont la
représentation provoque à la fois puissance et craintes. Les plateformes en sont une des
émanations, servant des intérêts centripètes, contrairement aux forums et autres sites web
personnels d’il y a à peine deux décennies. Notre rapport aux réseaux nous fait nous
représenter les algorithmes comme capables de faciliter ou traduire rapprochements et
partage. De fait, les réseaux configurent nos relations sociales et aux non humains. Mais
comme le Leviathan de Hobbes, les territoires réticulaires sont puissants et dans le même
temps un socle de l’expression individuelle et d’une émancipation. Les expressions circulent
en effet, et en démocratie, qui se fonde sur la volonté de vivre ensemble si l’on se réfère à
Paul Ricoeur (1991), cela nécessite consensus, qui génèrera des compromis mais aussi des
inégalités. Les capacités à critiquer, jusqu’à critiquer la démocratie elle-même (Gauchet,
2002) engagent le potentiel autodestructeur d’autant plus présent que le vivre-ensemble
également sur les réseaux numériques est percuté par un individualisme écartelé par la
personnalisation et l’immédiateté des réseaux, servant les intérêts du Leviathan informatique.
Ainsi les réseaux et applications informatiques, créés par et pour nos libertés (les) aliènent
partiellement dans le même temps.
La situation est d’autant plus ambivalente que c’est au cœur de la même configuration de
domination que sont mis en place les cadres règlementaires et de régulation, qui visent à
contenir les potentiels débordements du paradigme technologique, qui rythme la vie
quotidienne, jusqu’à ne plus voir clairement la situation.
*****
Ma proposition de double entrée par les objets et les problématiques, tout en assurant
croisements et articulation entre les deux pour cerner le champ Informatique et Société,
tente d’aborder cette complexité, avec la double approche empirique et théorique
considérant les actes et acteurs du développement de l’informatique depuis les années
1970 et l’idée, ancrée dans l’idéologie de la technique et la science (Habermas,
25
Sur l'ouverture du code des algorithmes publics, voir Bourcier, de Filippi, 2018 : https://hal.archives-ouvertes.fr/hal-
01850928/document.
26
BVA, 2018, « Les Français et les données personnelles . Observatoire de la vie quotidienne des Français ». 24 mai 2018,
en ligne : https://www.bva-group.com/sondages/francais-donnees-personnelles/ ; en 2021 des français enclins à partager leurs
données selon Médiametrie : https://www.mediametrie.fr/fr/plus-de-8-internautes-sur-10-acceptent-de-partager-leurs-
donnees-personnelles ; En 2021, des sanctions de la CNIL relatives à la protection des données : https://www.vie-publique.fr/
en-bref/283569-cnil-une-annee-record-de-sanctions-en-2021
8
1968/1973 ), que s’en font les politiques, à savoir un enjeu économique, inscrivant les
technologies informatiques et d’information et de communication dans un système
technicien (Elull, 1977/2004).
Pour l’entrée problématiques, si l’on repart des années 1970 avec l’informatique moderne
dont on aperçoit alors les enjeux 27, il est intéressant de constater que les libertés sont les
premières préoccupations. Au fil des développements technologiques notamment avec
l’Internet et autres applications mobiles qui donnent le sentiment d’être libres d’accéder à un
nombre considérable de contenus et services, la problématique des libertés est traitée avec les
études des technologies liberticides, d’ores et déjà menées en Informatique et Société avec la
prolifération des fichiers. La problématique de la protection de la vie privée et des données
personnelles reste d’actualité en parallèle de celle de la surveillance (avec la vidéo et cyber-
surveillance, la traçabilité et l’exploitation des données) et du contrôle social par les
technologies informatiques. La problématique du consentement, face aux injonctions
technologiques, est autant importante, puisque cette instance -en lien avec les libertés du sujet
social et le droit- évolue via la loi informatique et libertés dès 1978, de l’opt-out (decocher
l’option a priori) à l’opt-in (cocher pour accepter l’option) 28, de Informatique et Libertés au
RGPD 29. Cependant les relations de plus en plus fréquentes avec les objets informatiques,
visibles et invisibles (objets connectés et réseaux pervasifs/Internet des objets), conduisent à
un renoncement aux injonctions permanentes et à l’acceptabilité de l’obsolescence
programmée au nom de l’innovation, qui ne laisse pas le choix, sauf si on s’y oppose
(innovations techniques et sociales, lanceurs d’alerte, recherche critique, alternatives et
engagements). Le contexte est à l’acceptabilité sociale des injonctions numériques prises dans
une ambivalence d’usages en terme de renoncement négocié (Vidal, 2010 et 2017).
L’entrée objets, par laquelle nous allons commencer le rapport, est une contribution pour
cerner le champ de recherche Informatique et Société. Ainsi, pouvons nous aborder sa
préoccupation première : les fichiers, le fichage (en lien avec la première informatique
moderne 30, renvoyant aux données et bases de données, serveurs, et autres plateformes
contemporaines. Le traitement des données avec les algorithmes 31 et les récents systèmes
d’intelligence artificielle 32, dans le cadre d’un data mining (pour déduction et identification
27
Colette Hoffsaes, membre fondatrice du CREIS, le disait en 2004 en introduction du 13 ème colloque du CREIS à Jussieu-
Paris « Société de l’information, Société du contrôle ? Evolutions de la critique de l’informatisation », à propos du
développement informatique : « Je me dis parfois : "L'évolution actuelle montre que nous avions encore plus raison que nous
ne le croyions alors. Que n'avons-nous crié plus fort et plus médiatiquement !" »
https://www.lecreis.org/colloques%20creis/2004/colette%20Hoffsaes.htm
28
L’évolution de l’opt-out vers l’opt-in est une avancée, jusqu’à un très récent retournement presque inaperçu vers l’opt-out
instauré par l’Etat, avec l’espace de santé (le DMP n’ayant pas fait l’objet d’une appropriation sociale). Si les citoyens ne le
souhaitent pas ils doivent le déclarer (opt-out). Voir : https://www.inc-conso.fr/content/lespace-numerique-de-sante-est-mis-
en-oeuvre : « A compter du 1er janvier 2022, l'ouverture d'un espace numérique de santé est automatique. C'est-à-dire que
votre consentement n'est pas demandé avant l'ouverture de votre espace numérique de santé. ».
29
Le RGPD a été vécu, aux débuts, comme une contrainte par les entreprises se sentant sous injonction règlementaire, mais
les discours du MEDEF mettent en avant la mise en conformité : https://www.medef.com/fr/content/guide-pratique-sur-la-
protection-des-donnees-personnelles
30
Nom complet de la loi 1978 : « informatique, fichiers et libertés » loi no 78-17 du 6 janvier 1978 relative à l'informatique,
aux fichiers et aux libertés, plus connue sous le nom de loi « informatique et libertés »,
https://www.legifrance.gouv.fr/loda/id/JORFTEXT000000886460/
31
Voir la synthèse du débat public de la CNIL sur les enjeux éthiques des algorithmes et de l’intelligence artificielle,
15/12/2017 : https://www.cnil.fr/fr/comment-permettre-lhomme-de-garder-la-main-rapport-sur-les-enjeux-ethiques-des-
algorithmes-et-de
32
Actuellement dépourvue de personnalité juridique, l’IA ne peut être tenue pour responsable des actes commis par ces
systèmes. Cependant, des débats ont lieu sur la potentielle personnalité juridique de l’IA puisque « l’intelligence artificielle
peut désormais se penser comme une science de l’esprit dans la machine » (Cardon, Cointet, Mazières, 2018) ; voir
également : « L’intelligence artificielle justifie-t-elle l’octroi d’une personnalité juridique au robot autonome qui possède
pourtant tous les traits juridiques d’un bien ? Si le Parlement européen répond positivement en adoptant, le 16 février dernier,
9
de tendances et profilage), et du machine learning (apprentissage machine supervisé ou
automatisé), rejoignent les objets d’étude Informatique et Société, champ qui s’est très tôt
intéressé aux traitement des données au travail (Paoletti , 2003, chapitre III ; CREIS, 1984,
première partie « l’ordinateur au travail »), mais aussi dans le secteur de la santé 33 et la justice
34
. A partir des années 2000 surtout, Internet devient un objet d’étude important, ainsi que les
réseaux de communication de et entre tous types d’objets (incluant les objets connectés)
faisant circuler un nombre considérable de données, issues des relations entre humains ou
avec des non humains, des activités sociales voire même de la vie privée et intime, formant un
marché des données.
Il est dès lors question d’éthique, d’informations et de connaissances, ainsi que
d’enseignement Informatique et Société, que nous aborderons en conclusion de ce rapport,
qui, après son instauration en IUT (dans certaines UFR de l’enseignement supérieur selon les
enseignants), est devenu enseignement optionnel. Au lycée, des tentatives ont été menées, en
2009 par l’association de chercheurs en Informatique et Société CREIS qui avait soumis au
Ministère de l’Education nationale un « Module « Informatique et Société numérique »
au lycée 35, qui n’a pas été retenu, au profit d’un enseignement opérationnel. Des
balbutiements avec le brevet informatique et internet B2I, remplacé par la certification PIX ;
le programme est centré sur le code « numérique et sciences informatique », spécialité visant
à « comprendre les bases de la programmation, pour élaborer des logiciels par exemple, des
sites internet, des applications pour smartphones » 36. Ainsi, l’enseignement Informatique et
Société, programmé dans le Supérieur, s’est, après vingt années de cours dans les formations
en Informatique, dilué dans des cours, tout à fait pertinents, sur l’éthique et le droit de
l’informatique.
Le plan de cet état de l’art non exhaustif, traversé par une approche historique et par les
acteurs du champ de recherche Informatique et Société, s’en revendiquant ou non, se compose
de deux grandes parties pour une présentation des objets d’étude, puis celle des
problématiques. Ce choix vise un texte mesuré, malgré l’abondance des travaux, afin de le
cerner aisément et d’inviter à s’emparer des pistes tracées pour avancer recherche et
enseignement. Ce choix vise aussi à éclairer une nécessaire posture critique à l’égard des
risques et atouts d’un tel processus. Au cœur de ce travail, le thème de l’ambivalence est
transversal pour étudier et enseigner les relations technique et société. Et pourquoi pas pour
stimuler de nouvelles collaborations interdisciplinaires en enseignement et recherche.
Cet état de l’art est complété par des témoignages vidéos courts de neuf chercheurs impliqués
dans, ou concernés par le champ Informatique et Société.
le rapport de la députée Mady Delvaux, affirmer la nature juridique de bien du robot constitue un enjeu de civilisation, à
défendre », publié le 11/05/2017 : https://www.actu-juridique.fr/divers/le-robot-bien-ou-personne-un-enjeu-de-civilisation/
33
https://www.lecreis.org/?p=2670
34
https://www.lecreis.org/?p=2765
35
Module Informatique et Société numérique au Lycée, proposition du CREIS : https://edutice.archives-ouvertes.fr/edutice-
00558936/file/creis_prog_lycee_0906.htm
36
https://www.education.gouv.fr/reussir-au-lycee/la-specialite-numerique-et-sciences-informatiques-au-bac-325448 ; voir
aussi : « Discours de Gérard Berry, Médaille d’or du CNRS » 17 décembre 2014 : « le Brevet Informatique et Internet. Bien
sûr, savoir bien utiliser les instruments et réseaux informatiques est indispensable. Mais utiliser, comprendre et construire
sont des activités bien différentes. Non, il ne suffit pas d’apprendre les bonnes commandes sur son ordinateur ou sa tablette
sans chercher à comprendre pourquoi et comment ça marche (ou pas, d’ailleurs). Se contenter de cette attitude revient à se
poser en stricts consommateurs de technologies développées ailleurs », https://www.college-de-france.fr/media/gerard-berry/
UPL339488240625394041_DiscoursBerry_M__dailleOrCNRS_12_2014.pdf
10
PARTIE 1
OBJETS
Dès les années 1980, après la loi Informatique et Libertés de 1978 et la création de la CNIL 37,
le champ de recherche Informatique et Société se met en place en parallèle d’une volonté de
l’inscrire dans un engagement (Becker, 1960/ 2006) 38, avec l’enseignement, l’analyse et la
diffusion d’informations et de connaissances 39 pour dessiner une ligne d’actions et une
participation relevant d’un système de valeurs. Ce dernier prend appui sur l’article 1 er de la
Loi « Informatique, Fichiers, Libertés » du 6 janvier 1978 (loi « en vigueur dans une nouvelle
rédaction » 40), encore aujourd’hui sur le « fronton » de la page d’accueil du site web
(lecreis.org) de l’association de chercheurs Creis-Terminal, initialement nommée CREIS pour
Centre de Coordination pour la Recherche et l’Enseignement en Informatique et Société,
immédiatement proche de l’association CIII, dont le magazine Terminal est devenu depuis
revue scientifique 41. Depuis 1979 la « constitution du groupe 42 » formé ensuite en
association, le CREIS a toujours mené ses actions sur trois plans : enseignement, recherche et
engagement dans l’espace public. Il est possible d’avancer que l’enseignement et la recherche
sont le fondement de l’approche de l’engagement éclairé pour une expression critique dans la
société à l’égard de son informatisation.
« L'informatique doit être au service de chaque citoyen. (…) Elle ne doit porter atteinte ni à l'identité
humaine, ni aux droits de l'homme, ni à la vie privée, ni aux libertés individuelles ou publiques » 43.
Les valeurs concernent la protection des données personnelles et de la vie privée (notions 44
liées à l’autonomie et au consentement des individus), ici en prise avec des objets
informatiques ; de fait des notions plus politiques que techniques dans la mesure où les vies
en société sont prises dans un système technicien, un milieu technologique. Les implications
et conséquences du développement de l’informatique, en premier lieu les fichiers (en lien
avec la problématique de la surveillance et du contrôle abordée en partie 2 de ce rapport)
37
Décret n°74-938 du 8/11/1974 portant création de la commission informatique et libertés. Aux USA : Privacy Act, 1974
38
Becker H. S., « Notes on the Concept of Commitment », The American Journal of Sociology, vol. 66, n° 1, 1960, p. 32-40.
La version en Français : « pour bien comprendre le concept d'engagement dans sa totalité, nous devons découvrir les
systèmes de valeur à l'intérieur desquels les mécanismes et les processus (…) fonctionnent…. des termes tels que
« participation », « attachement », « vocation », « obligation », etc. en référence à des phénomènes apparentés mais
différenciables », (Becker, 2006, § 39, §42).
39
Enseignement et Informations prenant appui sur des compétences en sciences informatiques et en sciences sociales
s’intéressant aux technologies, puisque les premiers enseignants-chercheurs fondateurs du CREIS et engagés au sein du
CREIS sont des informaticiens et des sociologues travaillant sur l’informatique, comme Daniel Naulleau, Félix Paoletti ,
André Vitalis, Colette Hoffsaes, en sociologie et science politique/sciences de l’information et de la communication, rejoints
par d’autres comme Maurice Liscouët, Chantal Richard, enseignants-chercheurs en informatique.
40
https://www.cnil.fr/fr/la-loi-informatique-et-libertes
41
https://www.lecreis.org/?page_id=994
42
Voir : « Réflexions pédagogiques, constitution du groupe, Paris, 1979 », https://www.lecreis.org/?page_id=930
43
Le premier paragraphe de cet article 1 er de la loi Informatique et Libertés est « L'informatique doit être au service de
chaque citoyen. Son développement doit s'opérer dans le cadre de la coopération internationale. Elle ne doit porter atteinte ni
à l'identité humaine, ni aux droits de l'homme, ni à la vie privée, ni aux libertés individuelles ou publiques »,
https://www.cnil.fr/fr/la-loi-informatique-et-libertes#article1
44
La protection de la vie privée et des données personnelles rejoint la « privacy protection », entendue comme un droit :
« privacy codes as social, political and legal phenomena » ; l’ouvrage Global privacy protection : the first generation, edited
by James .B. Rule and Graham Greenleaf. Cheltenham, UK ; Northampton, MA : Edward Elgar, 2008, 7 national case studies
present and analyze the widest variety of 'privacy stories' in an equally varied array of countries, voir Stanford Libraries :
https://searchworks.stanford.edu/view/7885194 ; accès limité : https://books.google.fr/books?
id=L2I2Lrf1BeYC&printsec=frontcover&hl=fr&source=gbs_ViewAPI&redir_esc=y#v=onepage&q&f=false
11
débordant de données stockées sur des serveurs et captées sur des plateformes abondantes
désormais, ont fait l’objet de nombreux travaux 45 par les chercheurs en Informatique et
Société.
12
accrue grâce aux technologies informatiques, contrairement au modèle de la surveillance
directe, permet de laisser plus de liberté tout en surveillant, voire même en conduisant à
intégrer le mode de surveillance par la liberté d’utiliser les technologies, qui facilitent
statistiques et mesures. En effet, le fichage de données avec l’anthropométrie, du 19ème siècle,
et ses dérives 53, permettait d’identifier un individu à partir d'une caractéristique physique,
dans un contexte idéologique de la reconnaissance et surveillance des déplacements. Le
« panopticon » de Jeremy Bentham en 1787, relevant de la surveillance disciplinaire et de
l’organisation de la surveillance 54, visait à élaborer un pouvoir sur l’esprit, entre
consentement et contrainte.
Dans les sociétés modernes, le fichage se poursuit et nécessite des serveurs devant héberger
de volumineux fichiers tout en respectant la réglementation relative à la protection des
données personnelles et sensibles (données de santé 55 notamment). Ces serveurs se trouvent
souvent sur le dit « cloud » (Mosco, 2016, en ligne) dans des pays qui n’ont pas la même
législation ni le même niveau de protection des données. Aussi, un « cloud de confiance »
peut être mis en oeuvre pour écarter le risque de transfert et accès illégal à l’international
(notamment UE et USA) 56, à l’heure des data brokers, ces courtiers en données,
intermédiaires entre entreprises qui collectent des données personnelles et comportementales
57
, et celles souhaitant les acquérir pour leurs activités, en somme une collecte indirecte qui ne
permet pas aux usagers d’être informés pour un consentement éclairé, sur un marché des
données. Les fichiers sont un des maillons de la matrice d’un processus implacable qui capte
données directes et indirectes, avec des caméras de surveillance, des cookies et autres traceurs
algorithmiques. Cette matrice est incarnée actuellement par la multiplication des dites
plateformes58, sans parler des « capteurs et senseurs, les antennes et câbles, les centres
d’hébergement de données et les bases de données, les métiers et l’ensemble des institutions
qui leur sont associés, sont autant d’éléments qui constituent une économie et un écosystème
de la donnée dont il faut saisir à la fois l’ampleur et le détail. Car les éléments de ce système
technique conditionnent et informent de nouvelles formes d’expériences individuelles et
collectives, qui nous impactent à de multiples niveaux dans les domaines de la santé, de
l’éducation, de l’administration, de l’environnement, etc. » 59. Cette captation massive et
53
Alphonse Bertillon, criminologiste français de la fin du 19 ème et début du 20ème siècle inventeur d’un système biométrique
basé sur un ensemble de mesures anthropométriques comme la longueur de la main ou la distance entre les yeux et autres
procédés d’identification sur la base de caractères physiologiques, ainsi qu’empreintes digitales, jusqu’à aujourd’hui
empreintes génétiques, voir Café Techno Inria et Eurecom, du 25/01/2018 :
https://project.inria.fr/mastic/files/2018/03/history_biometrics11_.pdf
54
Voir (Aïm, 2020) et une note de lecture : https://hal.archives-ouvertes.fr/hal-03214558/document
55
Voir le système GAMIN (gestion automatisée de médecine infantile) ; pour fichage d’une population « à risques », et
l’avis défavorable en 1981 : https://www.legifrance.gouv.fr/cnil/id/CNILTEXT000017654666
56
Arrêt de la Cour de justice de l’Union européenne (CJUE), dit « Schrems II » invalidant le régime de transferts de données
entre l’Union européenne et les États-Unis (Privacy shield) : https://www.cnil.fr/fr/invalidation-du-privacy-shield-les-suites-
de-larret-de-la-cjue
57
La notion de données personnelles a évolué ; pensées nominatives elles concernent de plus en plus les comportements des
individus sur les réseaux numériques, sans même avoir besoin de leurs noms. La thèse de 2020 en sciences de l’information
et de la communication et science politique de Julien Rossi (2020) sur « Protection des données personnelles et droit à la vie
privée : enquête sur la notion controversée de “ donnée à caractère personnel ” », permet d’éclairer cette notion, qui nous
apparaît évidente (de la loi Informatique et Libertés de 1978 au RGPD) et pourtant celle-ci, bien ancrée dans une conception
libérale de la vie privée, l’autonomie et du consentement des individus et son utilité sociale, est en mouvement avec les
évolutions technologiques, intrusives ou (en apparence) non, qui tracent et exploitent toutes données, à notre insu ou non.
58
Voir Jacques Vétois, 2018, « Capitalisme de plateforme », Terminal, 123, http://journals.openedition.org/terminal/3446 ;
Voir le thème de l’appel à articles (n°5, 2022) de la Revue Intelligibilité du Numérique : Les plateformes en ligne comme
dispositifs de production relationnelle. Produire de la relation, produire par la relation, https://intelligibilite-
numerique.numerev.com/appels-a-articles/2627-appel-a-articles-n-5
59
Source : (extrait de) l’argument du colloque interdisciplinaire « À l’épreuve des données : sensibilité, interprétation,
appropriation des données numériques » des 27-28 octobre 2022 Biennale ECOPOSS 2022, https://www.sfsic.org/aac-
13
omniprésente des usages des réseaux numériques conduit à constituer des fichiers
volumineux (big data, (Cardon, 2015)), soumis au dataming, dont les données sont traitées par
des algorithmes et systèmes d’intelligence artificielle.
Les dispositifs algorithmiques, susceptibles d’être utilisés par tous types d’acteurs publics
comme privés, ont besoin, pour leur mise en œuvre, de logiciels pour engager des opérations
notamment de traitements automatisés de données, pouvant être couplés à des objets comme
des caméras (cybersurveillance). Les objectifs sont la sécurité des personnes ou des biens,
l’analyse de la fréquentation d’un lieu, des opérations de publicité, ou encore pour offrir une
personnalisation de l’accès aux services. La CNIL a souhaité exposer ses réflexions et
analyses sur le sujet d’un point de vue éthique, technique et juridique. Elle a soumis un projet
de position, concernant le déploiement de ce type de dispositifs dans les espaces publics, à
consultation publique 64 du 14 janvier au 11 mars 2022 (Rapport CNIL, 2021, p. 60). Son
objectif est de présenter les outils de vidéo et cybersurveillance et leur variété d’usages, les
enjeux éthiques et sociétaux de cette technologie et les risques pour les droits et libertés des
personnes, ainsi qu’une interprétation du cadre juridique applicable à ces dispositifs en
fonction de leurs objectifs, de leurs conditions de mise en œuvre et des risques qu’ils
impliquent. Ces nouvelles formes de vidéosurveillance associées à la reconnaissance des
personnes renvoient, avec inquiétude, au traçage permanent (l’omni-surveillance numérique)
evenement/a-lepreuve-des-donnees/
60
https://www.vie-publique.fr/eclairage/18495-le-developpement-de-lintelligence-artificielle-risque-ou-opportunite ; voir les
principes de l’OCDE sur l’IA : https://oecd.ai/fr/ai-principles
61
CNIL et le télétravail, septembre 2021 : https://www.cnil.fr/fr/les-questions-reponses-de-la-cnil-sur-le-teletravail ; et CNIL
et la collecte de données personnelles sur le lieu de travail, février 2022 : https://www.cnil.fr/fr/covid-19-questions-reponses-
sur-la-collecte-de-donnees-personnelles-sur-le-lieu-de-travail
62
En se souvenant de l’époque post-traumatique de la barbarie nazie de la seconde guerre mondiale, voir (Breton 1997).
63
La rétroaction, avec la gouvernementalité algorithmique selon Hugues Bersini, peut conduire à « une nouvelle pratique de
codage citoyen, transparent, flexible, constamment adaptatif… (dans) une société régie par des puissances prédictionnelles…
une prédictibilité infinie des comportements humains », 2/12/2019 :
https://www.pointculture.be/magazine/articles/focus/gouvernementalite-algorithmique-3-questions-antoinette-rouvroy-et-
hugues-bersini/
64
Les consultations publiques par Internet sont multipliées ; voir Romain Badouard, 2012, «Faire participer. Un enjeu de
légitimité pour l’Union européenne», Participations, 3, 2, p.207-218
14
de toutes données comportementales et personnelles instauré en Chine 65.
La captation permanente des données est différente selon les pays, dans un contexte de « mise
en données apparemment inexorable de la vie quotidienne » 66, de la même manière avec les
cookies sur les sites web et avec les plateformes, sans savoir « qui contrôle les systèmes de
production, de traitement et d’interprétation des données-traces » (argument ECOPOSS
2022). Les cookies semblent se présenter comme une condition pour accéder à un site ou tout
autre service en ligne. La CNIL mène des actions et informe sur les cookies 67, qui sont des
traceurs insidieux malgré le cadre règlementaire. L’autorité a publié des lignes directrices en
matière de cookies et traceurs 68. Mais des associations comme Creis-Terminal, fondée et
animée par des enseignants-chercheurs, et la Quadrature du Net, plus largement composée 69,
veillent, dans le cadre de leur dynamique militante, sur les abus avec ces traceurs : « Depuis
l’entrée en vigueur du RGPD (Règlement général sur la protection des données), le
consentement doit être explicite. Les sites qui affichent : « en poursuivant votre navigation
vous acceptez les cookies » sont hors la loi. Il ne s’agit pas d’un consentement explicite mais
implicite » 70. Et elles dénoncent aussi la façon dont la CNIL surveillent l’application du
RGPD en matière de cookies : « la CNIL souhaite attendre juillet 2020 pour commencer à
sanctionner les sites internet qui déposent des cookies sans respecter les nouvelles conditions
du RGPD pour obtenir notre consentement » (Creis-Terminal, 27/07/2019).
Le Rapport 2021 de la CNIL répond d’une certaine manière à la vigilance des associations en
abordant la question des cookies (p.106), à partir d’une décision du 28 janvier 2022 du
Conseil d’État qui a confirmé la compétence de la CNIL à prendre des sanctions sur les
cookies en dehors du mécanisme de guichet unique (dispositif pour faciliter les démarches
relatives aux traitements des données avec un interlocuteur unique pour les responsables de
ces traitements). Cette décision fait suite à un recours des sociétés Google LLC et Google
Ireland LIMITED contre l’amende de 100 millions d’euros prononcée par la CNIL en
décembre 2020 pour avoir « déposé des cookies publicitaires sur les ordinateurs d’utilisateurs
du moteur de recherche google.fr sans consentement préalable ni information satisfaisante ».
« Plusieurs cookies poursuivant une finalité publicitaire étaient automatiquement déposés sur
son ordinateur sans action de sa part. Ce type de cookies n’étant pas essentiel au service, la
CNIL a considéré que les sociétés n’avaient pas respecté l’obligation de recueillir le
consentement des internautes avant le dépôt des cookies » 71.
Ne serait-ce qu’avec les cookies, nous constatons combien il importe, dans une dynamique
Informatique et Société, d’être en permanence vigilant à l’égard du respect des droits en
matière de consentement et protection des données personnelles. Il est par conséquent
plausible de faire l’hypothèse selon laquelle tous usagers des réseaux numériques ne peuvent
maintenir ce niveau de vigilance. Certes une autorité comme la CNIL a cette mission de faire
appliquer la loi, mais le phénomène de plateformatisation ne facilite pas le travail colossal à
mener pour la faire respecter 72.
65
La Revue des médias, « Cybercontrôle en Chine : l’omni-surveillance à l’ère du numérique », 21 décembre 2018 — Mis à
jour le 09 août 2021 : https://larevuedesmedias.ina.fr/cybercontrole-en-chine-lomni-surveillance-lere-du-numerique
66
Voir argument du colloque « À l’épreuve des données : sensibilité, interprétation, appropriation des données numériques »
des 27-28 octobre 2022, Biennale ECOPOSS 2022, https://www.sfsic.org/aac-evenement/a-lepreuve-des-donnees/
67
https://www.cnil.fr/fr/tag/Cookies+et+traceurs
68
https://www.cnil.fr/fr/cookies-et-autres-traceurs-la-cnil-publie-de-nouvelles-lignes-directrices
69
https://www.laquadrature.net/historique-de-la-quadrature/ ; https://www.laquadrature.net/nous/
70
https://www.lecreis.org/?p=2735
71
https://www.cnil.fr/fr/cookies-le-conseil-detat-valide-la-sanction-de-2020-prononcee-par-la-cnil-contre-google
15
La plateformatisation est un phénomène dans la mesure où tout développement sur le web
semble relever de ces « dispositifs de production relationnelle » 73, modèle 74 dominant ces
années 2020. Les plateformes se distinguent de ce que l’on appelait portails au début des
années 2000 qui mettaient déjà à disposition une variété de contenus et services à consulter,
alors que la plateforme exige de décliner ses données pour y accéder ou d’accepter la
captation des données d’usages. Ainsi, la plateforme offre des contenus et services (pour
communiquer, s’informer, écouter de la musique, regarder des films, organiser ses voyages,
faire des achats, utiliser des services cloud, mais aussi pour engager des opérations de
crowdfunding, pour accueillir l’autopublication et la mise en visibilité de création à des
éditeurs, …), en s’appuyant sur un modèle économique fondé sur des algorithmes et une
exploitation de données d’usages collectées, en suivant le parcours des consommateurs sur ou
en dehors de la plateforme (tracking, cookies), en générant des prix dits « personnalisés »
selon le profilage de la connexion engageant de la discrimination tarifaire. Les objectifs sont
marketing (dont la publicité 75) et la rentabilité. Ces dispositifs renvoient en premier lieu aux
GAFAM, capables de concentrer des innovations -grâce également au rachat de start up- et
démultiplier des services, attirant ainsi les internautes-utilisateurs, dont l’attention est devenue
une ressource dans le cadre de l’économie de l’attention 76.
La recherche en sciences de l’information et de la communication est une contribution dans le
champ informatique et société pour cerner ces plateformes devenues médias, alors que les
médias deviennent plateformes 77. Les industries de la communication (informatique,
télécommunications, Internet, en particulier l’application web) rejoignent les industries
culturelles, entrainant des conflits avec les éditeurs musique-films-presse en prise avec des
plateformes comme Facebook ou Google News. Le ministère de l’Economie français
consacre une présentation sur les « Grandes plateformes du numérique : vers le Digital
Services Act et Digital Markets Act » 78 afin de valoriser les travaux européens qui « doivent
poser le cadre de régulation pour les vingt prochaines années », et de responsabiliser les
acteurs dominants sur le marché des plateformes numériques pour « garantir aux citoyens
européens leur sécurité en ligne et les protéger contre tout abus ». Relevons au passage le
72
Voir cette étude du laboratoire d’innovation numérique, LINC, de la CNIL, du 17/05/2021, au sujet des traces et données
en ligne : https://linc.cnil.fr/en/node/121106
73
Voir l’appel à articles n°5/2022 de la revue Intelligibilité du numérique :
https://intelligibilite-numerique.numerev.com/appels-a-articles/2627-appel-a-articles-n-5?
utm_source=newsletter_10&utm_medium=email&utm_campaign=appel-a-articles-n-5-2022
74
Portail sur la transformation numérique des entreprises pour présenter de « nouveaux modèles d’affaire », publié le
22/01/2020 - mis à jour le 23/12/2020 : https://www.francenum.gouv.fr/comprendre-le-numerique/quest-ce-quune-
plateforme-numerique-et-ses-opportunites
75
« Les dispositifs publicitaires de ces acteurs dominants autorisent un degré de ciblage et de personnalisation beaucoup plus
élevé que la plupart de leurs concurrents “traditionnels” », présentation de l’article de Thomas Guignard, in Vincent Bullich
et Laurie Schmitt, 2019, « Les industries culturelles à la conquête des plateformes ? », tic&société, vol. 13, n° 1-2,
http://journals.openedition.org/ticetsociete/3032 ; https://journals.openedition.org/ticetsociete/3377
76
Voir : http://www.yvescitton.net/wp-content/uploads/2017/09/CITTON-EconomieAttention-Intro-2014.pdf, et
https://lejournal.cnrs.fr/articles/lattention-un-bien-precieux, aussi : Emmanuel Kessous, Kevin Mellet et Moustafa Zouinar,
2010, « L’économie de l’attention : entre protection des ressources cognitives et extraction de la valeur », Sociologie du
travail, vol. 52, n° 3, http://journals.openedition.org/sdt/14802
77
Après l’euphorie, des années 2000, des discours sur la desintermédiation grâce à l’Internet, la réintermédiation, avec les
dispositifs numériques et acteurs de l’économie Internet, a été instaurée avec la multiplication des plateformes avec les
tensions concurrentielles entre les acteurs des contenus, en particulier avec la presse. Si l’infomédiation, comme « capacité de
l’informatique à gérer la multitude des flux d’information en ligne et à organiser leur consultation individualisée par les
internautes », est un service presque consubstantiel au Web, son accentuation depuis 2010 est, elle, en partie liée à la
« migration vers les terminaux mobiles et [à l’]emploi des RSN »…. « entre infomédiaires de l’Internet et entreprises
médiatiques » Franck Rebillard et Nikos Smyranaos, 2019, « Quelle « plateformisation » de l’information ? Collusion
socioéconomique et dilution éditoriale entre les entreprises médiatiques et les infomédiaires de l’Internet », tic&société, vol.
13, n° 1-2, http://journals.openedition.org/ticetsociete/4080
78
Ministère de l’Economie française, 16/12/2020 : https://www.economie.gouv.fr/digital-services-act-et-digital-markets-act
16
terme « act » pour cerner cette tendance lourde au niveau supranational pour penser régulation
et réglementation, tout en ne perdant pas de vue les coordinations (avec de multiples think
tank) 79 pour envisager les cadres (new EU legislation) entre autres des traitements et
transferts de données, tel le Data Act (projet de règlement européen « règlement sur les
données », acte juridique), qui élargit la conception des données sensibles :
« …lorsqu’il s’agit de protéger les droits fondamentaux de la personne, tels que le droit à la sécurité et le
droit à un recours effectif, ou les intérêts fondamentaux d’un État membre en matière de sécurité ou de
défense nationale, ainsi que des données commercialement sensibles, notamment des secrets d’affaires,
ou des droits de propriété intellectuelle, y compris les engagements contractuels en matière de
confidentialité conformément à ce droit. En l’absence d’accords internationaux régissant ces questions, il
convient de n’autoriser le transfert ou l’accès que s’il a été vérifié qu’en vertu du système juridique du
pays tiers, les motifs et la proportionnalité de la décision doivent être exposés, la décision judiciaire ou
administrative doit avoir un caractère spécifique, et l’objection motivée du destinataire doit faire l’objet
d’un contrôle par une juridiction compétente du pays tiers habilitée à tenir dûment compte des intérêts
juridiques pertinents du fournisseur des données » 80.
Veiller et considérer l’évolution de la régulation des activités numériques, puisque les acteurs
politiques cherchent à « bâtir un monde digital régulé », font partie des activités du champ
informatique et société, selon une démarche interdisciplinaire. Il est en effet nécessaire de
poursuivre l’analyse (SHS tout en maîtrisant les développements informatiques) de la
protection des données à l’heure d’une sophistication informatique avec les algorithmes et
l’intelligence artificielle, pour toujours plus de traçabilité et d’exploitation de données. Le
champ informatique et société est également le lieu de la réflexion épistémologique sur les
sciences juridiques ou science du droit 81, non pas seulement parce que les lois et régulations
doivent s’adapter et évoluer, mais parce que l’informatique est en prise avec la façon de
penser le droit, la pensée (le raisonnement) juridique (voir (Mehl, 1968, p.622 et p. 624), et
écouter le témoignage de Danièle Bourcier). Parallèlement est engagée l’épistémologie de
l’informatique, nécessairement impliquée dans les questions de société, « la partie non
technique des programmes, c'est-à-dire les aspects sociaux, économiques et culturels de
l'informatique … dans le sens d'un décloisonnement des différentes disciplines avec une étude
des interactions entre les différents domaines » (Paoletti, 1993, p.175). Le champ «
Informatique et société » permet d’« expliciter quels sont les facteurs d'ordre économique,
politique, social, culturel qui ont influé sur la naissance et l'essor de l'informatique, (et) de
comprendre quelles sont les conséquences d'ordre économique, politique, social, culturel
engendrées par le développement de l'informatique sur la société » (ibid, p.180). Cette
réflexion des années 1990 s’étend : « Informatique, libertés et démocratie, Informatisation :
quelles menaces pour la vie privée et les libertés des citoyens ? … La dimension européenne
et internationale des problèmes « Informatique et libertés », Informatique, exercice du pouvoir
et démocratie. De nouvelles formes d'organisation du travail, Des besoins importants de
formation, … Des modifications de grande ampleur dans la structure de l'emploi, De
nouvelles formes de contrôle et de surveillance des employés » (ibid, p.181-182).
17
qui concentrent les pouvoirs de captation de données comportementales et de mise en relation.
L’informatisation de la société ne se limite donc pas à la partie visible de l’iceberg, quand les
services sur la plateforme sont externalisés ; autrement dit Uber n’emploie pas de chauffeurs
ou de livreurs de repas, AirBnB ne possède pas d’hôtels. Les plateformes orchestrent la sous-
traitance et relèvent d’une économie numérique brouillant les métiers et fonctions de
producteurs, fabricants, commerçants, clients, et déterminant la visibilité tout en pistant les
données des usagers.
Les objets d’étude du champ de recherche Informatique et Société croisent ainsi des questions
relatives à l’économie de l’attention faisant partie de la surveillance (thème abordé en partie
2) des données, que Shoshana Zuboff (2019/2022) 82 inscrit dans le capitalisme, non plus
structuré par la propriété des moyens de production mais celle des outils de traçage et
exploitation des données comportementales, voire de leur orientation83 pour
conseiller/personnaliser en lieu et place de la manipulation 84.
Le champ informatique et société est transversal et continu ; nous le constatons aussi avec les
colloques du CREIS 85 qui se centrent imperturbablement sur les questions relatives à la
protection des données à caractère personnel et de la vie privée, aux libertés, en suivant le
développement de l’informatique, y compris en réseaux. De fait, une déclinaison d’objets
informatiques s’inscrit dans ce champ : interconnexions de fichiers, commerce électronique,
teleservices publics, biométrie, blogs, réseaux peer-to-peer, wikis, messageries instantanées,
réseaux sociaux numériques, RFID, cloud, objets connectés, algorithmes, blockchain,
informatique et Internet au travail, dans divers milieux : santé, éducation.
L’objet d’étude relatif à la protection des données personnelles et de la vie privée avec
l’informatique, les algorithmes et réseaux numériques, résonne avec la question des libertés
soulignée en 1991, pour faire un bilan après un peu plus d’une décennie d’application de la loi
de 1978 en France. Comme d’autres colloques et événements organisés par l’association de
d’enseignants-chercheurs en Informatique et Société (sur la protection des données à caractère
personnel, et vie privée, libertés individuelles et collectives, les vulnérabilités, la sécurité ou
encore les technologies de contrôle), celui de 1990 86 a été l’occasion de mettre en avant des
travaux scientifiques et engagés, pour rappeler le besoin de « protéger les citoyens contre
l’inquisition informaticienne ». La métaphore de l’inquisition est provocatrice, parallèlement
à la valorisation d’une « technique de pointe », l’informatique, tout en comparant l’avancée de
cette protection, avec celle nécessaire en matière de nucléaire et de « manipulations
génétiques » (Actes CREIS et LIANA, 1990/1991).
En somme ce type de manifestation scientifique aborde les relations technique et société (voir
l’introduction de la partie 2) pour aborder les atouts, les risques, mais aussi des contestations
et controverses. De fait, le discours introductif de ce colloque, qui souhaite adopter un regard
critique et argumenté, ne nie pas le « progrès », tout en cherchant à vérifier que la technique
ne porte pas atteinte aux droits et libertés individuelles et publiques. Ce colloque de 1990 peut
82
Voir également : Shoshana Zuboff, 2015, « Big Other: Surveillance Capitalism and the Prospects of an Information
Civilization », https://journals.sagepub.com/doi/pdf/10.1057/jit.2015.5
83
Jusqu’à orienter les choix, voir Christophe Benavent, 2016, Plateformes. Sites collaboratifs, marketplaces, réseaux
sociaux… Comment ils influencent nos choix, Limoges, FYP Editions
84
Voir la contribution à l’appel « Shaping competition policy in the era of digitisation » du 6/07/2018,
https://ec.europa.eu/competition/scp19/media_en.html de la Commission européenne de Yann Bonnet, Camille Hartmann,
Judith Herzog, sur la plateformatisation : https://ec.europa.eu/competition/information/digitisation_2018/contributions/
yann_bonnet_camille_hartmann_judith_herzog.pdf ; auteurs que l’on retrouve dans la liste des membres du Conseil national
du numérique, dans le Rapport d’activité du Conseil national du numérique 2017 :
https://www.vie-publique.fr/sites/default/files/rapport/pdf/184000213.pdf
85
https://www.lecreis.org/?page_id=930
86
CREIS et LIANA, avec la participation du Centre d’information et d’initiative sur l’informatisation (CIII), et de la CNIL,
« Informatique et Libertés : nouvelles menaces, nouvelles solutions ? », Actes du colloque, Nantes, 1990/1991
18
être au croisement des objets d’étude du champ informatique et société, quand on observe les
activités de l’association des chercheurs en Informatique et Société entre 1984 (date de
création de l’association CREIS) et 1999 87. En 1990, l’informatique étant considérée comme
« symbole de la modernité », en débattre n’était pas courant et concernait le fichage, le droit à
la protection des données personnelles et de la vie privée, et les innovations avec les réseaux,
les systèmes experts, les failles de sécurité. La sécurité informatique retenait et retient
particulièrement l’attention car les menaces sont omniprésentes. Aussi le code éthique
international ou projet déontologique de l’IFIP 88 « ifip code of ethics » (Actes CREIS et
LIANA, 1990/1991, pp. 167-168) rejoint les travaux du Comité Technique TC9,
« relationship between computers and society » appelée en français : « informatique et
société », axé sur les rapports entre informatique et la société, les individus, les collectifs et
les institutions. Les travaux concernent l’informatique dans le monde du travail, la maîtrise
des conséquences sociales par les informaticiens, qui doivent faire des choix en prenant en
compte les besoins humains, et considérer l’impact de l’informatique dans les « pays en voie
de développement », et viser une maitrise de l’intelligence artificielle. Il est même question de
la participation des usagers de l’informatique à la mise en œuvre des systèmes informatiques,
de liberté de communiquer, de respect de la vie privée, de l’égalité d’accès aux services
informatiques. Autrement dit, dès 1990, la communauté des informaticiens doit apporter une
contribution pour aider à des solutions « plus justes et plus équilibrées », pour un
développement maitrisé de l’informatique (p.162).
87
A partir de 1999, est instaurée une alternance entre colloques et journées d’étude jusqu’à 2014, année qui marque le
tournant pour un format journée d’étude uniquement : https://www.lecreis.org/?page_id=939. Nous pouvons faire
l’hypothèse que le format plus court (comparé au colloque) correspondait à l’accélération et l’expansion des pratiques
numériques en réseau des années 2000. D’ailleurs, à partir de 2021 (avec les pratiques de visioconférences accrues post-
confinements), Creis-Terminal a même développé un format de rencontre encore plus court : débat d’1 heure en ligne, sans
doute en lien avec la saturation des activités informatisées en ligne et la recherche de gain de temps en mobilité. En terme de
pollution en revanche il reste à démontrer que le numérique est moins polluant que les transports physiques.
88
IFIP international federation for information processing est fondée en 1959 sous l’égide de l’UNESCO : fédération
d’associations qui visent à promouvoir les technologies de l’information : sciences, propositions aux organismes de
normalisation, et débat au sein de la communauté des informaticiens.
89
Voir l’appel à projet qui inaugure la première session du « Bac à sable » données personnelles de la CNIL ; l’édition 2021
était consacrée aux données de santé, https://www.cnil.fr/fr/bac-a-sable-2021
19
En 2022, la question de la vie privée à l’heure d’Internet se pose toujours. Des scandales ont
eu lieu, des alertes (révélations de Snowden 2013, Cambridge Analytica 2018) ont dénoncé
des pratiques de surveillance généralisée. La collecte et l’usage des données personnelles
interrogent avec les nouveaux moyens technologiques, tout en sachant qu’un grand nombre
de données à caractère personnel sont mises en ligne par les individus eux-mêmes. Les traces
sur Internet, autrement dit les données recueillies automatiquement avec les cookies et les
dispositifs de géolocalisation nourrissent un big data, avec une large diversité et une rapidité
encore inégalée auparavant, sans parler du traitement algorithmique pour traquer les
comportements et monétiser les données en circulation réticulaire. En effet les données
personnelles ne sont pas seulement celles permettant l’identification de personnes physiques
dont il faut protéger la vie privée, mais des réseaux de personnes et de comportements.
L’analyse informatique et société va donc jusqu’à traiter des objets relevant de la privacy by
design (protection dès la conception, et non pas par l’opt out (décocher la traçabilité par
défaut), paramétrer sa protection), autrement dit des objets informatiques et numériques
conçus en intégrant la protection de la vie privée. La chercheure Francesca Musiani (2016)
cible la capacité des usagers à se protéger pour réduire l’inégalité entre eux (savoir
paramétrer, utiliser messagerie chiffrée, réseau privé virtuel (VPN), ou anonymat avec le
darknet) et les concepteurs/entreprises des dispositifs de traçabilité des données.
Les travaux en informatique et société permettent de cerner la limite de la loi face aux
traitements massifs et automatisés des données, des droits 90 d’opposition, d’effacement, de
rectification et à l’international. La question du consentement éclairé est également abordée ;
le consentement est crucial alors que la sophistication des technologies, de l’enchevêtrement
des algorithmes est telle qu’il est complexe de cerner les risques, dans un contexte d’opacité
des conditions d’accès aux services en ligne. La communication en ligne peut de plus
influencer les utilisateurs à accepter les conditions d’utilisation, quand ils ont besoin des
services numériques visés. Le Rapport 2021 de la CNIL (p.108) relève le respect du recueil du
consentement éclairé des internautes en matière de cookies et de traceurs, l’importance de les
informer des conditions d’utilisation. Mais rien n’est moins sûr, et c’est sans parler des sites
sur Internet qui ne mentionnent même pas le choix d’accepter ou de refuser les cookies. La
CNIL qui recueille les plaintes déclare (à propos de l’affaire noyb, avec 10 000 plaintes en
2022 91) : « une grande proportion des sites contactés ont remédié aux violations visées dans
nos plaintes. Les autres sites qui ne se sont pas conformés ont fait l’objet d’une plainte
formelle auprès des autorités compétentes » (CNIL, rapport 2021). Les « bannières de cookies
ont évolué » ; « Vu le taux de conformité atteint après la première vague de plaintes, nous
sommes en train de réfléchir à l’opportunité de passer à une autre plateforme que One Trust et
d’adapter notre logiciel à cette nouvelle plateforme », relative aux plaintes sur les cookies. En
fait, le cadre règlementaire RGPD est insuffisant dans la mesure où les algorithmes qui
traquent les activités en ligne sont omniprésents et opaques, entrainant une réduction des
libertés des individus manipulés, croyant à la personnalisation de leurs usages numériques.
Pourtant les usagers d’Internet et autres réseaux de télécommunications sont attachés à leurs
droits fondamentaux, à la loi Informatique et Libertés 92, et savent que leurs usages sont sous
surveillance. Certains prennent même part aux débats et se mobilisent (pétitions notamment)
contre les menaces pour leurs libertés, leurs communications, et vie privée, même si
90
https://www.cnil.fr/fr/reglement-europeen-protection-donnees/chapitre3
91
Un site dédié à l’affaire noyb avance la demande d’arrêt de Google Analytics (qui « collectent les interactions des
utilisateurs et transfèrent les données des utilisateurs aux Etats-Unis ») et la mise à jour des plaintes au 5 juillet 2022 : https://
noyb.eu/fr/mise-jour-lautorite-europeenne-de-protection-des-donnees-ordonne-nouveau-larret-de-google-analytics
92
Voir l’enquête INRIA et Harris Interactive de 2021, résultats en ligne le 11/05/2022 : https://www.inria.fr/fr/dialogue-
sciences-numerique-technologies-france : « les Français s’intéressent fortement à l’usage des technologies et à ses
conséquences notamment en termes de protection des données ».
20
l’argument avancé est la sécurité. Les pratiques numériques font désormais pleinement partie
de la vie quotidienne de tous individus.
Les objets Informatique et Société sont ainsi nombreux et associés aux problématiques que
nous aborderons en partie2 de ce rapport de recherche. Mais auparavant, pour poursuivre
l’objet algorithmes et réseaux, recoupant l’objet de recherche central du champ Informatique
et Société, la protection des données personnelles et de la vie privée, des libertés
individuelles, concentrons nous sur les systèmes d’intelligence artificielle qui traitent les
données de tous secteurs d’activités y compris de santé, dans le cadre d’injonctions politiques
et économiques, avec des enjeux majeurs pour les données sensibles.
A l’heure de l’espace santé, un retour du DMP (dossier médical partagé) 93 qui n’a pas fait
l’objet d’une appropriation sociale, l’opt-out est réinstauré (alors que l’avancée règlementaire
avec l’opt-in était significative), une sorte d’injonction douce (nudge), une incitation à priori à
opter pour le service numérique. Nous relevons la position de la CNIL qui titrait en 2017
« Comment permettre à l’Homme de garder la main ? Rapport sur les enjeux éthiques des
algorithmes et de l’intelligence artificielle » 94. En 2021 et 2022, un dossier du laboratoire
d’innovation numérique de la CNIL, LINC du 4 avril 2022 (repris dans le rapport 2021 de la
CNIL) présente :
« Les systèmes d’IA engendrent des risques de sécurité spécifiques en comparaison avec des systèmes
d’information classiques, du reste une réglementation de l’IA est en cours 95. En effet, les nouvelles
capacités introduites par l’apprentissage automatique (machine learning) augmentent la « surface
d’attaque » de ces systèmes en introduisant de nombreuses (et nouvelles) vulnérabilités, et des biais
algorithmiques engageant des modèles de machine learning. … Les équipes du LINC se sont également
entretenues avec des chercheurs travaillant à la croisée des sujets d’IA et de protection de la vie privée. …
sur l’évolution de la prise en compte des impératifs de protection des données dans le domaine de
l’apprentissage automatique » (p. 67 du rapport CNIL 2021) 96.
Le rapport 2021 de l’ARCEP 97 sur « l’état de l’internet en France » offre une vision de la
situation pour une « protection des consommateurs » à éclairer, avec un « Code de conduite »
98
de l’autorité (dont le logo est accompagné de la mention « les réseaux comme bien
commun ») et une position concernant l’intelligence artificielle, qui mêle « le respect des
principes de protection de la vie privée, du secret industriel et du secret des affaires et en
préservant les incitations économiques des opérateurs et fournisseurs tiers à l’origine de leur
collecte » 99.
Les risques soulevés avec l’IA conduisent les politiques publiques à engager un cadre
règlementaire pour l’intelligence artificielle 100. Il s’agirait d’un compromis qui se poursuit
93
Le site officiel du DMP communique : « À partir du 1er juillet 2021, il ne sera plus possible de créer de nouveaux DMP sur
le site dmp.fr, ni auprès des professionnels de santé, ni à l'accueil des caisses d'assurance maladie. Les DMP créés avant cette
date ne seront pas supprimés et il sera toujours possible pour les patients et les professionnels de santé de les consulter, ainsi
que d'y ajouter des informations. Cette interruption des créations de DMP est nécessaire pour préparer l'arrivée du nouveau
service Mon espace santé qui sera proposé à tous en début d'année 2022. Mon espace santé est le nouveau service sécurisé
qui permettra à chacun d'être acteur de sa santé au quotidien. Il donnera accès au DMP ainsi qu'à une messagerie sécurisée,
mais aussi à un agenda de santé, et à un catalogue d'applications référencées par l'État. Tous les usagers qui disposaient déjà
d'un DMP avant le 1er juillet 2021 retrouveront automatiquement leurs données à l'activation de Mon espace santé » https://
www.dmp.fr/. Le site https://www.monespacesante.fr/ avance « vous avez la main sur votre santé ».
94
15 décembre 2017 : https://www.cnil.fr/fr/comment-permettre-lhomme-de-garder-la-main-rapport-sur-les-enjeux-ethiques-
des-algorithmes-et-de
95
https://www.vie-publique.fr/en-bref/279650-nouveau-reglement-europeen-sur-lintelligence-artificielle-ia ;
https://www.cnil.fr/fr/intelligence-artificielle-lavis-de-la-cnil-et-de-ses-homologues-sur-le-futur-reglement-europeen
96
Voir le dossier du 4/04/2022 du LINC : https://linc.cnil.fr/fr/dossier-securite-des-systemes-dia
97
https://www.arcep.fr/actualites/actualites-et-communiques/detail/n/internet-ouvert-070721.html
98
https://www.arcep.fr/uploads/tx_gspublication/code-de-conduite-QoS-internet-2020_sept2020.pdf
99
https://www.arcep.fr/uploads/tx_gspublication/reseaux-du-futur-IA-dans-les-reseaux-janv2020.pdf
21
encore en mai-juin 2022 dans le cadre de « bacs à sable réglementaires » 101, de « tests » et
« mesures de soutien » aux entreprises. Plusieurs dispositions sont discutées pour dégager une
définition d’un système d’intelligence artificielle, la classification de ces systèmes, selon les
niveaux de risques, leur gouvernance, les liens avec d’autres règlementations, et les sanctions
à prévoir. La publicité « intelligente » dite ciblée avec l’intelligence artificielle, est
particulièrement ciblée pour un encadrement fort étant donné les algorithmes mobilisés pour
ce type de publicité afin de pouvoir saisir ces systèmes, qui calculent les données de chaque
internaute y compris des données sensibles comme l’orientation sexuelle, l’ethnie ou la
religion. Le ciblage publicitaire à partir de données sensibles est interdit dans le Digital
Services Act 102, sauf consentement explicite.
Avec cet exemple, nous relevons de nouveau la nécessaire démarche interdisciplinaire du
champ informatique et Société pour suivre les développements informatiques, pour un suivi
permanent des travaux, rapports, amendements, délibérations et votes de lois, y compris au
niveau supranational. Par exemple le rapport des commissions Marché intérieur et Liberté ;
nous relevons notamment « the protection of the rule of law and fundamental rights, ensuring
data protection and privacy in a digital age » dans la présentation de la commission du
Parlement européen des libertés civiles, de la justice et des affaires intérieures (LIBE) 103 ;
l’un des dossiers concerne « e-Privacy Reform »104.
La littérature grise est importante pour mener les travaux du champ Informatique et Société,
tout comme la diffusion des travaux et réflexions des scientifiques. Gérard Berry, chercheur
en informatique (médaille d’or du CNRS en 2014, a été directeur de recherche à l’INRIA,
Institut national de recherche en sciences et technologies du numérique, auparavant Institut
national de recherche en informatique et automatique en lien avec l’histoire du Plan
Calcul105), professeur au collège de France, a une chaire informatique et sciences numériques
(2009-2010), puis une chaire algorithmes, machines et langages (2012-2019), signifiant une
volonté de partager une expertise informatique, d’autant plus que le collège de France diffuse
des leçons en vidéo en ligne 106. Jean-Gabriel Ganascia, chercheur en intelligence artificielle
au LIP6, a présidé le Comité d’éthique du CNRS de 2016 à 2021, médiatise ses réflexions
critiques 107 à partir de ses connaissances en informatique. Ses réflexions rejoignent la
dynamique informatique et société dans la mesure où il connaît et reconnait les avantages de
l’informatique tout en dénonçant l’exploitation des données notamment avec l’intelligence
artificielle. Il n’y va pas par quatre chemins, voici le titre d’un de ces entretiens accordés :
« La société numérique nous trompe de plus en plus… » ; ajoutons : « l’avènement d’une
société numérique dans un régime démocratique exige que nous nous posions publiquement
ce type de questions, et que le traitement de la donnée soit conditionné au respect des
100
https://ec.europa.eu/info/sites/default/files/commission-white-paper-artificial-intelligence-feb2020_fr.pdf ;
https://ec.europa.eu/commission/presscorner/detail/fr/ip_21_1682
101
https://www.arcep.fr/professionnels/startups-entrepreneurs/bac-a-sable-reglementaire.html
102
Voir la présentation : « La législation sur les services numériques et la législation sur les marchés numériques visent à
créer un espace numérique plus sûr dans lequel les droits fondamentaux des utilisateurs sont protégés et à établir des
conditions de concurrence équitables pour les entreprises », https://digital-strategy.ec.europa.eu/fr/policies/digital-services-
act-package
103
https://www.europarl.europa.eu/committees/fr/libe/about
104
ePrivacy Regulation : 2017 : https://www.europarl.europa.eu/committees/fr/e-privacy-reform/product-details/
20170329CDT01341 ; 2013 : https://eur-lex.europa.eu/legal-content/FR/TXT/?uri=uriserv:OJ.L_.2013.173.01.0002.01.FRA
(en vertu de la directive 2002/58/CE du Parlement européen et du Conseil sur la vie privée et les communications
électroniques).
105
https://www.inria.fr/fr/notre-histoire
106
https://www.college-de-france.fr/site/gerard-berry/la_video_de_la_lecon_inaugural.htm
107
Jean-Gabriel Ganascia, 3/03/2022 : « La société numérique nous trompe de plus en plus »
https://dataanalyticspost.com/jean-gabriel-ganascia-la-societe-numerique-nous-trompe-de-plus-en-plus
22
principes et valeurs fondamentales de nos systèmes socio-politiques » 108. Les données des
internautes sont « à la merci des algorithmes des acteurs….surtout des grands…pour servir
des intérêts qui ne convergent pas forcément avec les nôtres ». L’intelligence artificielle
permet « à ces acteurs d’exploiter ces données à leur profit. Avec pour finalité notamment de
modifier nos comportements de consommation. On est passé de la publicité pour tous à une
nouvelle situation, où la population est segmentée et visée par des algorithmes, catégorie par
catégorie, voire individu par individu. Cette possibilité de cibler les gens est exploitée pour
vendre des biens et des services, mais aussi des idées. Les hommes politiques ont bien
compris qu’ils pouvaient eux aussi en tirer parti ». Il est souvent avancé que les internautes
sont libres de ne pas aller sur des sites qui traquent leurs données ou de cocher qu’ils ne
souhaitent pas être tracés, mais en réalité les inconvénients sont tels que la plupart du temps,
ils renoncent et le troc est la traçabilité des données en échange des contenus et services en
ligne. Cette situation va jusqu’à redéfinir les « valeurs essentielles de la vie sociale » selon
Ganascia, en prenant l’exemple de l’amitié et de la confiance, tout en prévenant des limites à
poser à l’exploitation des données, y compris intimes (quand la captation concerne les
pensées), dans les mondes dits virtuels, tels les récents métavers.
Le titre du document du LINC de la CNIL « Métavers : réalités virtuelles ou collectes
augmentées ? » 109 annonce de suite les risques en termes de captation de données dans ce
type de développement sur les réseaux informatiques. Le site Second Life, au début des
années 2000 visait le même type d’univers virtuel, 3D. Les jeux collaboratifs, comme
Minecraft, sont également des modèles ouvrant vers la dimension dite « réalité virtuelle ». La
collecte de données sur ces plateformes fait partie de leur modèle économique, prenant appui
sur les interactions entre les internautes quelles que soient leurs activités. La collecte de
données est encadrée par le RGPD et le règlement ePrivacy, selon le rapport du LINC, mais la
sophistication de la captation des données va jusqu’au eye tracking, la détection des émotions
ou la biométrie comportementale, à partir des mouvements des avatars évoluant dans les
métavers 110, où l’on trouve divers services, posant les questions de l’identification des
responsables de traitements des données. L’exercice des droits des utilisateurs se complexifie
avec les « interfaces qui ont un rôle déterminant sur notre capacité à être correctement
informés », d’autant plus que la publicité augmentée se déploie dans ces métavers.
L’intelligence artificielle au service de ces univers numériques fondés sur une économie des
données représente un enjeu informatique et société majeur, puisque l’intelligence artificielle
permet de « personnaliser » les accès, une inclusivité pour tous types de profils d’usages,
grâce à l’apprentissage machine/ l’apprentissage automatique pour des propositions continues.
Les Cahiers IP (innovation et prospective) 111 en lien avec le comité de la prospective pour
réflexions et débats sur l’éthique du numérique du LINC de la CNIL ont depuis plusieurs
années aborder les différents objets techniques traitant les données utilisateurs, comme les
jeux en ligne « massivement multi-joueurs » ((MMO), et les univers persistants quand les
jeux continuent même lorsque les joueurs ne sont pas connectés, comme World Of Warcraft),
108
Source : l’argument du colloque « À l’épreuve des données : sensibilité, interprétation, appropriation des données
numériques » ECOPOSS 2022, https://www.sfsic.org/aac-evenement/a-lepreuve-des-donnees/
109
5/11/2021, https://linc.cnil.fr/fr/metavers-realites-virtuelles-ou-collectes-augmentees
110
Voir par exemple Nvidia entreprise qui a mis en place le métavers Omniverse, plateforme collaborative d’ingénieurs, à
partir de « jumeaux numériques », basés sur l’IA : https://www.nvidia.com/fr-fr/omniverse/ ;
https://www.nvidia.com/fr-fr/omniverse/solutions/digital-twins/ La référence aux plateformes de jeux en ligne est à
transposer dans des situations professionnelles, afin de collaborer dans un espace dit virtuel partagé. La plateforme métavers
permet d’évaluer les participants, leur performance, soumis à une sorte d’ubiquité puisqu’en prise avec plusieurs applications
en même temps, et en relation avec le monde réel et virtuel (jumeaux numériques) et une IA qui aide à prendre des décisions
au fil de la collaboration professionnelle, tout en visualisant le produit des actions.
111
https://www.cnil.fr/fr/innovation-prospective/publications
23
univers traçant et exploitant le « partage » 112, l’expérience ludique et les émotions des
gamers, pour servir un marketing de l’émotion 113. En enregistrant les activités dans ces
univers (hier sites, aujourd’hui plateformes, demain métavers), il est possible de croiser les
données (dont reconnaissance des individus impliqués), afin d’automatiser l’exploitation de
l’environnement informatique. Le mot Métavers renvoie en 2022 au changement de nom de
Facebook 114 : méta pour marquer l’ambition de rassembler de multiples services : réseau
social, messagerie, service de paiement… selon la diversification des activités, grâce à la
puissance financière des GAFAM en rachetant des entreprises développant de multiples
innovations. Google et sa plateforme Youtube, mais aussi Apple, Amazon avec le e-
commerce et la vidéo…. Les métavers demandent un équipement, comme des casques (qui ne
font pas encore l’objet d’une appropriation sociale), ou autres dispositifs de réalité virtuelle ou
de réalité mixte (ou hybride, rejoignant ce que l’on appelait il y a peu la réalité augmentée),
pour étendre l’intermédiation (modèle du champ de recherche des industries culturelles 115).
Les métavers sont en fait les plateformes de cette décennie 2020, aux capacités de traitements
rapides de données multimédias massives (réseaux sociaux numériques, vidéos, sons, textes),
nécessitant des supercalculateurs. Ces « univers virtuels » (avec la 3D et réalité augmentée, et
création d’avatars, simulation de mondes réels/jumeaux numériques) sont des capteurs de
données, dépassant les données personnelles telles qu’elles étaient envisagées au début de la
recherche critique sur l’informatisation de la société. Cette captation est nécessaire pour
nourrir les systèmes d’intelligence artificielle (fonctionnant en mode apprentissage
automatique) de ces mondes numériques, et posant des questions de propriété des contenus y
compris ceux créés par interactions traitées par l’IA sur les plateformes, et des questions de
protection des données, voire même des pensées déduites, de consentement éclairé et de
recours. Faudrait-il envisager des conditions spécifiques, rejoignant les interrogations du
laboratoire de la CNIL : « le métavers réduit la capacité individuelle à échapper à la collecte
de données, (…) par exemple, quel avenir pour le principe de confidentialité des
correspondances privées, si celles-ci ont lieu dans un « métavers » et sont soumises à des
conditions générales d’utilisation ? » (LINC-CNIL, 5/11/2021). Il semble en effet qu’une
attention particulière des régulateurs de la protection des données soit requise, augmentant le
nombre de développements technologiques à étudier dans le cadre du champ de recherche
Informatique et Société. Le rapport 2021 de la CNIL promet de suivre l’évolution
des métavers en 2022. Des initiatives (abordées en partie2 de ce rapport) permettent de mettre
en débat ces plateformes de la captation des données généralisée. Les tactiques (de Certeau,
1990) face aux stratégies ont besoin des cadres règlementaires et régulations relatifs à
l’informatisation intensive de la société, même si ceux-ci présentent des limites comme
abordé. Le champ de recherche Informatique et Société est constant en se centrant sur la
protection des données personnelles et de la vie privée, même si ces notions évoluent, et c’est
essentiel car l’enjeu est toujours le respect des droits des individus dans des environnements
hyperconnectés, provoquant des tensions. Sans relâche, sans baisser la garde pour certaines
associations de chercheurs et/ou de militants pour l’informatique et les libertés, la dynamique
Informatique et Société relève de l’engagement interdisciplinaire et de l’enseignement qui
doit traverser les formations, toutes concernées avec l’informatisation de la société.
112
https://linc.cnil.fr/sites/default/files/atoms/files/cnil_cahier_ip_partage_version_finale_web_1.pdf
113
Nous pouvons relever la collaboration entre une entreprise comme Ubisoft et une Université : Laval au Québec pour un
projet « Fun II » afin d’étudier, grâce aux mouvements du casque, les émotions, tout en servant ce marché. L’étude du LINC
de la CNIL sur la captation des émotions est éclairant à ce sujet : https://linc.cnil.fr/en/node/121784
114
Le dirigeant de Facebook déclare d’ailleurs un « Internet augmenté » et l’orientation de ses activités vers le
développement des métavers, et des technologies 3D ; voir : https://www.realite-virtuelle.com/meta-facebook-tout-savoir/
115
Jacob Matthews, 2015, « Passé, présent et potentiel des plateformes collaboratives Réflexions sur la production culturelle
et les dispositifs d'intermédiation numérique », Les Enjeux de l'information et de la communication, 1, n° 16/1, pp. 57-71,
https://www.cairn.info/revue-les-enjeux-de-l-information-et-de-la-communication-2015-1-page-57.htm
24
25
Réglementation et régulations
Les notions de données personnelles et de vie privée ont évolué au fil de ces cinq dernières
décennies de développement de l’informatique 116. La loi Informatique et Libertés de 1978
117
a évolué, avec la directive européenne sur la protection et la circulation des données
personnelles de 1995 transposée en droit français en 2004 118, puis le règlement général sur
la protection des données en 2016. Les cadres règlementaires se sont démultipliés avec les
développements ininterrompus des innovations numériques, et cette démultiplication suscite
le doute : « la législation existante, centrée sur la vie privée et la lutte antitrust, n’ont pas suffi
à stopper sa croissance. Nous avons besoin de lois qui rejettent la légitimité fondamentale des
déclarations du capitalisme de surveillance et qui mettent fin à ses opérations les plus
primaires, y compris la restitution illégitime de l’expérience humaine sous forme de données
comportementales ; l’utilisation du surplus comportemental comme matière première
gratuite… ; la fabrication de produits de prédiction ; le commerce des comportements futurs ;
l’utilisation des produits de prédiction pour des opérations tierces de modification, d’influence
et de contrôle… » (Zuboff, 2019/2022, p. 463). Les régulations témoignent des enjeux de
pouvoir et d’actions d’autorités et acteurs aux différentes légitimités, avec compromis voire
contradictions issues des décisions collectives.
L’autorégulation et la co-régulation ont été envisagées dans le cadre de la gouvernance
d’Internet des années 1990-2000. La notion même de gouvernance conduit à interroger les
tensions dues aux rôles et à la participation des acteurs impliqués, tant du secteur privé, de la
société civile et ONG, que des États, dans un contexte d’informatisation intensive de la
société. En ce qui concerne en particulier la gouvernance d’Internet, la régulation est
d’abord technique 119 avec les noms de domaine, l’infrastructure et les protocoles 120. Dans les
années 1990, elle a été pensée en termes d’autorégulation, nourrie d’une utopie 121 du partage
et de liberté des expressions grâce à un tel protocole de réseau de réseaux décentralisé, et une
netiquette (des règles non écrites (Mounier, 2002)) quand il y avait encore peu d’internautes,
ou avec les communautés du logiciel libre 122.
Le principe de la radical trust 123, stimulé avec le Web dit participatif-contributif, déployé
notamment avec des wikis, peut être un leurre quand les acteurs économiques captent les
expressions, dans le cadre d’une marchandisation des libertés et du partage des connaissances
sur les réseaux numériques 124. Mais en cas de fakes, de communication et information
116
Voir Cahiers IP08 LINC-CNIL, avril 2021, pp. 6-12 :
https://www.cnil.fr/sites/default/files/atoms/files/cnil_cahier_ip8.pdf
117
Voir (Vitalis, 2009)
118
https://www.legifrance.gouv.fr/jorf/id/JORFTEXT000000697074
119
Voir « normalisation technique » dans (Massit-Folléa, 2012b)
120
Voir (Massit-Folléa, 2013)
121
Une utopie peut être stimulée par des désirs de la voir se réaliser ; l’« utopie de reconstruction », selon Mumford en 1922
(« Histoire des utopies », Extraits in : https://sniadecki.files.wordpress.com/2012/04/mumford_ums.pdf), quitte à assimiler et
modifier le système technique en place tant dans le monde physique que celui des idées.
122
Une traduction en français d’un extrait, 1998 : https://archive.framalibre.org/IMG/cathedrale-bazar.pdf ; un ouvrage de
Eric S. Raymond en 1999, 2001, editor Tim O’Reilly en ligne :
https://monoskop.org/images/e/e0/Raymond_Eric_S_The_Cathedral_and_the_Bazaar_rev_ed.pdf, voir pp. 141-142 (pages
152-153 pour la version PDF) notamment.
123
À recouper avec le participatif-contributif (web dit 2.0) ; la confiance en des communautés d’internautes, pas exemple
dans le secteur muséal : voir Spadaccini, J. et C. Sebastian, (2007). “Radical Trust : The State of the Museum Blogosphere”.
In J. Trant and D. Bearman (eds). “Museums and the Web 2007” : Proceedings. Toronto : Archives & Museum Informatics,
published March 31, 2007, http://www.archimuse.com/mw2007/papers/spadaccini/spadaccini.html
124
Les réseaux sociaux numériques compris, participant à la formation du dit « web 2.0 » ; nous pouvons revoir en 2022 la
définition de Tim O’Reilly en 2005, « What Is Web 2.0 : Design Patterns and Business Models for the Next Generation of
Software », notamment page 2 pour cerner les exemples wikipedia, logiciels libres/open source :
26
illégales, comme la circulation des discours de haine sur Internet 125, l’autorégulation et la
confiance, par des relations collaboratives prétendument symétriques en ligne et intelligence
collective 126, peuvent soutenir une conception de la liberté en dehors de la punition légale 127.
Les limites de l’autorégulation conduisent à penser la co-régulation en impliquant les
responsabilités des intermédiaires pour surveiller les accès et usages (Badouard, 2020). Mais
la controverse (en termes de modération et censure) relative à la privatisation des fonctions
relevant des pouvoirs inscrits dans les fondements de la démocratie a été et est encore vive.
Comme l’écrit Françoise Massit-Folléa (2013) « la régulation d’Internet » est entre « fictions
et frictions » 128. La tension est alors entière nonobstant l’espoir de concevoir Internet comme
un « bien commun mondial » (Massit-Folléa, 2013, §2) 129. L’autre tension concerne la
neutralité d’Internet (Schafer et al., 2011). En effet l’expérience d’exploitation de données
massives et l’intervention des Etats sur l’environnement même de l’Internet en 2022
permettent d’en douter, puisque servent des intérêts, jusqu’à la fragmentation de l’Internet,
dont le protocole permet une interopérabilité de réseaux. La tension porte ici sur
l’infrastructure d’ouverture, conduisant à cette situation fondamentalement ambivalente dans
la mesure où la régulation et réglementation de l’Internet le fragmentent et ne permettent pas
de maintenir sa neutralité : « regulations on net neutrality have been aimed at defending
openness, by making sure that all users and businesses are treated in the same way on the
network, even if they are new entrants on digital markets. As such, the internet is a global
network of interoperable networks. » (p.1) 130.
Pourtant, se poursuivent les débats tel que celui de l’UNESCO 131 en faveur de la diversité
culturelle et géographique sur le réseau. La tension entre protection/sécurité et libertés
présente également des contradictions dans les débats. Le droit d’accès et de la libre
expression sur les réseaux semble devenu sous conditions, et la question de la protection des
données personnelles divise les Etats-Unis et l’Europe. L’Europe entend bien adapter à la
hausse ses exigences réglementaires pour répondre aux défis posés par les technologies
nouvelles. Depuis les événements tragiques de septembre 2001 aux USA semblent favoriser
la sécurité. Il y a vingt ans, Berleur et Poullet (2002) écrivaient déjà : « Les régulations
techniques sont bien présentes sur l’Internet. On évoquera rapidement les trois organisations
principales qui les développent : l’Internet Engineering Task Force (IETF) — et donc
l’Internet Society (ISOC), le World Wide Web Consortium (W3C) et l’Internet Corporation
27
for Assigned Names and Numbers (ICANN) » 132. Nous en étions à un tournant important du
déploiement généralisé de l’Internet et à la veille du Sommet Mondial sur la Société de
l’Information (SMSI) 2003 et 2005 pour tenter d’envisager une gouvernance multipartite
(Oulebsir, 2022). Entre temps, des directives et autres règlementations, ainsi que les Etats
souverains ont rejoint le concert de la régulation, dont l’objectif est d’aller plus vite que la
temporalité de la démocratie, entrainant des risques pour cette dernière, mais au fondement de
laquelle la critique de la démocratie elle-même est vivace. La régulation de et par la technique
relève aussi d’une approche qui traverse les frontières, mais celle-ci ne suffit pas y compris à
l’échelon supranational. Malgré les difficultés à encadrer des activités légales traitant des
données en circulation entre des pays (qui ne possèdent pas la même conception de la
réglementation)133, la protection des données et de la vie privée sur l’Internet est un sujet
d’inquiétude à un tel niveau de sophistication technologique et de stratégie économique.
Aussi, l’inflation des lois en ce début des années 2020 traduit la situation dans laquelle la
société se trouve, avec des enjeux mondiaux du marché des données à protéger et en même
temps au fondement des croyances en des économies à réguler. La loi a une fonction capitale
en créant un cadre de référence qui prescrit, garantit et permet la condamnation en cas
d’infraction, avec ses limites territoriales, tout en s’appuyant sur les régulations des
organismes 134 tels l’ONU, l’OCDE, l’OMC, l’OMPI, FMI135, Banque Mondiale, le Conseil de
l’Europe136, autres ensembles régionaux, ainsi que les ONG. Ces régulations donnent lieu à
des compromis et consensus à surveiller, et c’est une des fonctions de la recherche
Informatique et Société : surveiller les surveillants, quand on sait le poids des lobbys et autres
manœuvres d’influence potentielles dans les instances de régulations avec des représentants
d’intérêts d’entreprises ou secteurs d’activités (Berleur, Poullet, 2002).
Les régulations techniques sont sous contrôle des autorités publiques impliquées dans les
débats pour envisager leurs conséquences en termes de droits et libertés des usagers 137. Les
Etats souverains s’impliquent de plus en plus pour intervenir au cœur de la gouvernance
d’Internet, un objet de recherche indirect dans le champ de recherche Informatique et Société,
rejoint par la dynamique de recherche Internet et Société « au croisement de disciplines telles
que la sociologie, le droit, l’histoire, l’économie, la science politique, les sciences de
l’information et de la communication, l’informatique et les sciences de l’ingénieur », en visant
l’éclairage des « grandes controverses techniques et la définition des politiques
contemporaines liées au numérique, à l’internet, et plus largement à l’informatique » 138. Cette
initiative scientifique s’inscrit dans un cadre plus large : « Le CIS s’intègre à plusieurs
132
Voir également Milton Mueller, 1999, « ICANN and Internet governance », info, vol 1, n° 6, https://home.uchicago.edu/
~mferzige/muell.pdf
133
Par exemple entre France et USA, où les discours racistes, homophobes, sexistes ou autres sur Internet ne sont pas laissés
impunis, même dans le cadre de la liberté d’expression.
134
En 2001, la régulation d’Internet est pensé comme un « nouveau type de régulation totalement décentralisé et exempt
d’intervention publique », in Brousseau Éric, 2001, « Régulation de l'Internet », Revue économique, 7, n° 52, pp. 349-377,
https://www.cairn.info/revue-economique-2001-7-page-349.htm
135
Organisation des Nations Unies, Organisation de coopération et de développement économiques, Organisation mondiale
du commerce, Organisation mondiale de la propriété intellectuelle, Fonds monétaire international
136
Conseil de l’Europe et la gouvernance de l’Internet 2016-2019 : « L'objectif général de la Stratégie pour la gouvernance
de l’internet du Conseil de l’Europe 2016-2019 est que l’individu soit au centre des politiques publiques relatives à l’internet
afin de bâtir la démocratie en ligne, de protéger les utilisateurs et de garantir le respect et la sauvegarde des droits de l’homme
en ligne. En particulier, elle se définit par une série d’actions et d’activités destinées à protéger la liberté, la vie privée et le
sécurité des internautes, à renforcer leur pouvoir et à faire d’eux des acteurs engagés dans le dialogue sur la gouvernance de
l’internet. » https://www.coe.int/fr/web/freedom-expression/igstrategy
137
Dès 2000, Richard Delmas, lors du colloque « Internet et le droit », abordait « Internet et les chantiers législatifs
européens », Université Paris 1 Panthéon Sorbonne, septembre 2000, http://www.wallonie-isoc.org/Documents/Delmas-
Richard_Internet-et-le-droit.htm
138
Voir https://cis.cnrs.fr/le-cis/
28
réseaux de recherche comme le NoC (Global Networtk of Internet and Society Research
Centers), GigaNet (Global Internet Governance Academic Network), RESAW (Research
Infrastructure for the Study of Archived Web Materials) et Public Data Lab ». Ce réseau de
réseaux de recherche démontre le besoin de s’allier, comme le champ de recherche
Informatique et Société qui a ouvert la voie dès les années 1980, pour faire face à l’ensemble
complexe que représentent les enjeux des développements de l’informatique, y compris en
réseaux, en ce 21ème siècle. Les alliances sont bien entendu essentielles en politique aussi ; le
Digital Governance Act (DGA) 139, une proposition de Règlement présentée le 25 novembre
2020, qui doit s’articuler avec le DSA (Digital Service Act) et le DMA (digital market Act), a
pour but de favoriser le partage de données, pour la création d’un espace européen de
données, d’établir une relation de confiance avec les citoyens européens et de maintenir une
relation étroite avec le RGPD. Ainsi le DGA cherche à dégager la possibilité d’un modèle
numérique européen. L’intelligence artificielle (IA) et les technologies informatiques pour
automatiser les prises de décisions font aussi l’objet de travaux européens, avec un « AI Act »
: « l’Union (européenne) doit agir en tant qu’organisme normatif mondial en matière d’IA »
140
. En France, la mesure est prise avec un « avis relatif à l’impact de l’intelligence artificielle
sur les droits fondamentaux » en avril 2022 141.
À l’heure des développements de l’intelligence artificielle qui provoquent des craintes (voir
communiqué CNIL du 8/07/2021) et font donc l’objet de travaux de réglementation, la
recherche Informatique et Société, qui a tôt travaillé les enjeux sociaux de la surveillance, se
préoccupe de l’intelligence artificielle qui renouvelle les systèmes biométriques 142 pour
traquer des profils d’individus, pour servir des intérêts sécuritaires et économiques, à la
frontière de la discrimination interdite en vertu de l'article 21 de la Charte des droits
fondamentaux de l’Union européenne. L’IA vise à automatiser les déductions exigeant des
traitements massifs de données (non pas seulement personnelles, mais par recoupements
sophistiqués, et avec des machines apprenantes en permanence). Les régulations et cadres
règlementaires sont-ils suffisants pour protéger des droits inaliénables ? La demande d’une
éthique ne suffit pas, même s’il s’agit d’engager des compromis dans le cadre de régulations
en cours, avec le renfort des lois. La question concerne le consentement : à l’heure des
traitements par les systèmes d’IA, est-il vraiment éclairé ? Même si les informations pour
éclairer le consentement sont présentes, sont-elles véritablement compréhensibles dans un
contexte d’urgence à cliquer et de nudges ; ces incitations omniprésentes 143. Par voie de
conséquence, la question concerne l’autonomie, le libre arbitre (« vous avez le choix »,
« internet c’est ce que l’on en fait », etc.). Rien n’est si sûr, tant les algorithmes enchâssés et
les systèmes d’IA suivent des intérêts qui n’ont rien à voir avec les choix des individus et la
139
Rapport d’information n°4299 Assemblée Nationale, enregistré le 29/06/2021
https://www.assemblee-nationale.fr/dyn/15/rapports/souvnum/l15b4299-t1_rapport-information#_Toc256000136
140
Avril 2021 : https://ec.europa.eu/commission/presscorner/detail/fr/ip_21_1682 ; mai 2022 : « Résolution du Parlement
européen du 3 mai 2022 sur l’intelligence artificielle à l’ère du numérique » :
https://www.europarl.europa.eu/doceo/document/TA-9-2022-0140_FR.html. La procédure : Le Standardization Request ad-
hoc Group (SRahG) "Intelligence artificielle" créée en mars 2022 en prévision du projet de demande de normalisation sur
l'intelligence artificielle en mai 2022 ; le Comité européen de normalisation en électrotechnique, CEN et CENELEC ont reçu
le projet de demande de normalisation de la Commission européenne :
https://www.cencenelec.eu/news-and-events/news/2022/newsletter/issue-34-etuc-s-position-on-the-draft-standardization-
request-in-support-of-safe-and-trustworthy-ai/
141
JORF n°0091 du 17 avril 2022 Texte n° 99 : https://www.legifrance.gouv.fr/jorf/id/JORFTEXT000045593731
142
Dès 2003 : https://www.lecreis.org/?p=145 ; https://www.lecreis.org/?p=2782 ; https://www.lecreis.org/creis/wp-content/
uploads/2017LivreBlanc-CreisTerminal_CECIL.pdf
143
Voir : https://michel-foucault.com/2018/01/27/nudges-et-normativites-genealogies-concepts-et-applications-2018/ ;
https://www.u-paris2.fr/fr/recherche/publications/nudges-et-normativites ; https://hal.archives-ouvertes.fr/hal-02056338 :
Jacques Chevallier, 2018, « Les Nudges dans la modernisation de l'action publique », in Nudges et normativités.
Généalogies, concepts et applications, M. Bozzo-Rey, A. Brunon-Ernst, (dir.), Hermann, 2018, pp. 227-238
29
temporalité du débat démocratique. Jean-Gabriel Ganascia pose la question : « de quelle
autonomie dispose le client qui vient d’acheter un ordinateur et qui est sommé de cliquer pour
approuver les CGU (conditions générales d’utilisation) ? Certes, il a le droit de les refuser…
et ainsi de se passer du produit qu’il vient d’acheter, mais certainement pas les moyens de les
négocier » 144. La négociation est pourtant possible pour certains (sans parler des hackers, ou
autres usagers-experts du darknet (Gayard, 2018))145 usagers dont la culture numérique permet
de passer inaperçus ou simplement rester vigilants 146.
Les lois et régulations fixent certes des limites, mais la société civile, les individus sont
impliqués dans ce refus d’être traqués en permanence, sans renoncer à leurs droits à la
protection des données de leur vie privée et au delà de jouir d’un environnement collectif où
les libertés circulent et ne sont pas entravées en permanence, en faisant de plus en plus appel à
la CNIL (qui a selon le rapport 2021 « été marquée par une activité particulièrement intense et
une sollicitation croissante ») pour faire respecter les droits. La menace d’aliénation
(technologique) ne serait-ce que partielle (Lefèbvre, 1961) au tout numérique en réseau n’est
pas encore effective, mais la vigilance est absolument nécessaire, quand il ne s’agit pas de
limiter le tracking ou refuser les cookies. La posture ou les travaux relevant de la recherche
Informatique et Société sont des remparts à l’intensité et la complexité du processus
d’informatisation de la société. Mais ce dernier exige des rapprochements, en termes
d’interdisciplinarité en recherche, et de partage des connaissances. La diffusion des
informations dans l’espace public contribue à forger une culture de la vigilance numérique.
Certes des heures sont consacrées au droit de l’informatique, à l’éthique de l’informatique,
mais le risque est la résignation face à l’hyperconnectivité, semble-t-il inéluctable, à la
profusion des cadres de régulation et règlementaires, au nombre considérable d’acteurs
impliqués ne serait-ce que pour la protection des données personnelles et des libertés face à la
surveillance et traitements généralisés et qui ne vont que s’accroître. En effet pour parvenir à
assurer ce type de protection, il est nécessaire d’aborder la cybersecurité 147, l’éducation aux
médias, la médiation des contrôleurs (CEPD contrôleur européen de la protection des
données) pour l’Europe, CIL correspondant Informatique et Libertés, DPO délégué à la
protection des données), le pilotage de l’éthique du numérique (Comité National Pilote
d’Éthique du Numérique-CNPEN), en ce qui concerne l’IA le partenariat mondial sur l’IA
(GPAI.ai), etc. Et la CNIL, très sollicitée, poursuit sa politique d’accompagnement, renforce
son action 148, sans fléchir dans un nouvel environnement d’une normativité contemporaine 149,
144
Jean-Gabriel Ganascia, 3/03/2022, https://dataanalyticspost.com/jean-gabriel-ganascia-la-societe-numerique-nous-
trompe-de-plus-en-plus/
145
Voir également la dialectique régulation/libertés : https://www.vie-publique.fr/parole-dexpert/281854-darknet-un-reseau-
internet-clandestin-double-emploi-par-marie-robin (voir le principe du réseau TOR (The Onion Router) notamment : texte et
podcast: https://www.radiofrance.fr/franceculture/podcasts/le-meilleur-des-mondes/darknet-comment-peut-il-etre-une-arme-
de-la-dissidence-9375320)
146
Voir le guide du Centre d'Études sur la Citoyenneté, l'Informatisation et les Libertés : « Guide de survie des aventuriers
d’Internet, en ligne : https://journals.openedition.org/terminal/2291
147
« Dans le cadre de la thématique prioritaire sur la cybersécurité du web français, la CNIL a contrôlé vingt-et-un
organismes en 2021. Quinze ont été mis en demeure pour des défauts de chiffrement des données ou de gestion et de
sécurisation de comptes d’utilisateurs », https://www.cnil.fr/fr/cybersecurite-15-mises-en-demeure-lencontre-de-sites-web-
insuffisamment-securises. « Face à une augmentation des actes de cybermalveillance et dans un contexte de profonde
transformation numérique des collectivités, Cybermalveillance.gouv.fr, en collaboration avec la CNIL, propose un nouveau
guide pour informer les élus locaux et agents territoriaux », https://www.cnil.fr/fr/cybermalveillancegouvfr-et-la-cnil-
publient-un-guide-sur-les-obligations-et-les-responsabilites-des. À l’échelle surpanationale, la directive, adoptée en juillet
2016 et révisée en octobre 2021, transposée en droit français en 2018 : Network and Information System Security (NIS) vise
à assurer la sécurité informatique dans l'Union européenne. https://www.ssi.gouv.fr/entreprise/reglementation/directive-nis/ ;
https://www.ssi.gouv.fr/actualite/revision-de-la-directive-nis-une-opportunite-pour-renforcer-le-niveau-de-cybersecurite-au-
sein-de-lue/ ; https://www.cnil.fr/fr/notifications-dincidents-de-securite-aux-autorites-de-regulation-comment-sorganiser-et-
qui-sadresser ; https://eur-lex.europa.eu/legal-content/FR/TXT/?uri=CELEX%3A32016L1148
148
https://www.cnil.fr/fr/la-cnil-publie-son-rapport-dactivite-2021
30
la loi et la régulation, « une normativité dialoguée » 150. L’enseignement Informatique et
société n’est pas qu’analyse des enjeux techniques, juridiques, économiques et sociaux, il a
pour ambition le développement d’une posture critique pour embrasser tous ces enjeux ou du
moins se donner les moyens de les considérer par rapport à sa spécialité, pour garder le cap
sur sa formation.
149
Voir Mireille Delmas-Marty, Cours et travaux du Collège de France, Résumés 2007-2008, Annuaire 108e année, Chaire
d’Etudes juridiques comparatives et internationalisation du droit, Collège de France, Paris, 2008. Et https://www.conseil-
constitutionnel.fr/nouveaux-cahiers-du-conseil-constitutionnel/la-normativite-de-la-loi-une-exigence-democratique
150
https://www.conseil-constitutionnel.fr/nouveaux-cahiers-du-conseil-constitutionnel/normativite-et-regulation
31
PARTIE 2
PROBLÉMATIQUES
Pour poursuivre l’état de l’art relatif au champ Informatique et Société, après l’entrée par les
objets d’étude, qui démontre déjà la nécessaire approche interdisciplinaire pour la recherche et
présente le besoin d’une approche transdisciplinaire pour l’enseignement, nous allons explorer
maintenant l’entrée par les problématiques. Pour ce faire, seront abordées en guise
d’introduction les relations technique et société, en termes d’idéologie et de système, puis les
problématiques de la surveillance et des injonctions à l’innovation permanente, avant de
conclure sur la recherche engagée et d’autres actions dans l’espace public.
32
prennent le pas sur le débat public, au nom de la complexité qui justifie en outre les
limitations des libertés humaines, entre autres : interroger et mettre en débat, entrainant une
dépolitisation. L’activité communicationnelle se trouve absorbée par l’activité rationnelle qui
vise une fin ; en référence à la « rationalité » 153 de Max Weber (1956/1995) discutée par
Herbert Marcuse 154 qui interprète « une forme déterminée de domination politique inavouée »
(dans le cadre de l’exercice du contrôle) (Habermas 1968/1973, p. 5). Habermas poursuit la
lecture de Weber par Marcuse sur la « raison technique : « ce n’est pas seulement son
utilisation, c’est bien la technique elle-même qui est déjà domination (sur la nature et sur les
hommes)… Ce n’est pas après coup seulement, et de l’extérieur, que sont imposés à la
technique certaines finalités et certains intérêts appartenant en propre à la domination- ces
finalités et ces intérêts entrent déjà dans la constitution de l’appareil technique lui-même…
Cette finalité de la domination lui est consubstantielle et appartient dans cette mesure à la
forme même de la raison technique » (Habermas, 1968/1973, p. 6, citant Marcuse).
Ces éléments recoupent d’une certaine manière ce qu’avance Ellul (1954/1990) sur
l’« autonomie de la technique », en se référant à la figure de l’usine, « organisme clos », selon
Taylor, en visant l’efficacité (Ellul, 1954/1990, pp.121-135) puisque c’est la technique qui
« conditionne et provoque les changements sociaux, politiques, économiques » ; ce sont « ses
nécessités internes » qui « déterminent la technique », dans une accélération généralisée. Les
innovations permanentes ne laissent plus le temps de l’appropriation, inscrite dans le temps
long comme les savoir-faire, les gestes et procédés transmis et lentement modifiés (Mauss,
1941-1948/2012). En retenant que la technique, composante de la civilisation humaine,
permet d’agir sur son milieu, selon l’approche de l’anthropologie sociale. Pour Lewis
Mumford (1963), la technique est démocratique quand elle est « dirigée par l’homme,
relativement faible mais ingénieuse et durable » 155, autoritaire quand elle émane « du centre
du système, extrêmement puissante mais par nature instable » (p.27).
Mais à l’heure de l’autonomie de la technique, recoupant la technique autoritaire de Mumford
pour qui « le moment est proche où ce qui nous reste de technique démocratique sera
totalement supprimé ou remplacé », et qui ne repose plus sur les traditions (Ellul, 1954/1990,
p.12) puisque la « technique autoritaire (n’est) entravée ni par la coutume … ni par le
sentiment humain » (Mumford, 1963, p. 28), elle est développée avant même d’évaluer les
conséquences, dans un engouement, ne laissant ni place ni temps à la mise en débat,
rejoignant l’analyse de Habermas (1968/1973).
Sans mise en débat, dominent la fascination, la séduction, la distraction et les plaisirs 156
personnels et gratifications privatisées. Ainsi, le contrôle social, qui selon Becker (2006)
« consiste en ce que les individus obéissent à des règles sociales, …. en postulant
l'intériorisation d'un autrui généralisé qui constitue l'assistance cachée poussant à observer les
règles » (Becker, 2006, &11, en ligne), tout en expliquant : « la déviance … par le conflit
entre les buts culturels valorisés par tous les membres de la société et le manque de moyens
socialement valorisés pour y parvenir (Merton, 1983) » (Becker, 2006, §10, en ligne), s’opère
153
Voir également : « Individu, société, rationalité, histoire » Cornelius Castoriadis, 1987/1988, en ligne :
https://interventions-democratiques.fr/sites/default/files/individu-societe-rationalite-histoire-le-max-weber-de-philippe-
raynaud.pdf ; on relèvera par exemple «la « logique des intérêts » (p.98), de fait le « sens visé », mais non pas « isolé », et un
« comportement socialement orienté », en critiquant l’individualisme méthodologique, la « liaison de la causalité et de la
compréhension…représentée par l’intelligibilité rationnelle » (p. 94). La rationalité est un imaginaire structurant (Castoriadis,
1975), une institution, c’est une forme sociale qui structure le rapport au monde des membres d’une société.
154
Herbert Marcuse, 1964/1968, L’homme unidimensionnel, Paris, Les éditions de Minuit
155
Mumford (1963) ajoute pour la technique démocratique : « un certain degré d’autonomie, de discernement et de
créativité », pour la technique autoritaire : « habilement perfectionnée et extrêmement renforcée » (p. 29).
156
On peut se reporter aux travaux de Harold Innis pour saisir que « la communication mécanisée provoque un divorce entre
la raison et l’émotion et privilégie l’émotion » (in « L'oiseau de Minerve », Communication. Information, 1983, vol. V, n° 2
et 3, pp 267-297.
33
par la douceur, l’acceptabilité face à l’abondance et la sécurité, réduisant la réflexion
intersubjective dans le cadre de l’activité communicationnelle instrumentalisée. Selon
Habermas (1987), la réflexion intersubjective devient un rouage du système économique,
même si la communication évolue dans l’espace public (Habermas, 1978 et 1992) en tant que
lieu d’actions communicationnelles. Mais avec des technologies numériques de
communication, l’espace public devient morcelé, affaiblissant les formes argumentatives et
rendant floue la frontière avec l’espace privé, d’où l’on travaille, communique également. De
plus, l’obsolescence programmée conduit à des évolutions rapides incessantes rendant
instables les dispositifs pour la participation dans l’espace public qui dépend alors des
fluctuations techniques. La communication médiatisée par les ordinateurs interconnectés
transforme les publics en audiences (donnant avis par des étoiles, pouces et notes, pour retenir
l’attention et prétendre à l’expression de tous) et confondant mise en débat public et
agrégation d’avis. Cependant ces technologies de communication fondées sur des algorithmes
sont promues innovations sociales, alors qu’elles relèvent de l’ordre des gratifications (Katz,
1989) avec mise en valeur de la satisfaction ou l’insatisfaction des internautes, audience
active prenant appui sur les valeurs de performance et de rapidité, thèmes majeurs à l’heure de
l’universalisation de la raison instrumentale (Habermas 1968/1973). Les usages s’inscrivent
dans une activité rationnelle, obéissant à des règles techniques, en prévoyant le résultat des
choix sans cesse opérés ; choix reposant sur un « agir en conformité avec les normes »
(Habermas, 1968/1973, p. 23). Prévoir, tel est un des objectifs des actuels calculs
algorithmiques et systèmes d’intelligence artificielle : « Les conduites de choix rationnel se
règlent selon des stratégies, qui reposent sur un savoir analytique. Les stratégies impliquent
des déductions sur la base de règles de préférence (système de valeurs) ….L’activité
rationnelle par rapport à une fin réalise des objectifs définis dans des conditions données ;
mais alors que l’activité instrumentale met en œuvre des moyens qui sont adéquats ou
inadéquats par rapport aux critères d’un contrôle efficace par la réalité, l’activité stratégique
ne dépend que de l’évaluation correcte des alternatives de comportements possibles… »
(Habermas, 1968/1973, p. 22).
Les relations technique et société, plus récemment les techniques informatiques (appelées
souvent technologies), sont alors envisagées en termes apocalyptiques ou apologétiques. Si
l’on suit Ellul en 1988 : « c’est une remarquable confusion. Depuis la machine pensante…
jusqu’à l’outil à tout faire en donnant à l’homme une puissance souveraine… » (p. V préface
in Vitalis, 1988). En cette fin des années 1980, Ellul souligne que la réflexion est passée, avec
l’informatique, de la technique en général à des rapports visant « à éclairer les décisions du
pouvoir et à préparer des orientations politiques ». La fascination pour l’informatique, qui
pénètre le quotidien, tout comme désormais ce qu’appelait Ellul en 1988 la télématique, « va
combiner l’invasion, la submersion de l’homme par la télévision avec celles de l’ordinateur »
(p.V). Entre crainte et admiration, l’ordinateur fait l’objet de prouesses réelles, notamment par
la vitesse de calcul, et d’ un imaginaire (Flichy, 2001) jusqu’à la transformation épuisante de
la société sous l’emprise technologique (Ellul, 1988), avec des coûts notamment sociaux
(chômage et inégalités) et énergétiques (pollution).
Dans un environnement politique visant la protection des libertés, l’informatique pourrait être
envisagée comme un moyen pour distribuer et décentraliser les pouvoirs. Si cette promesse de
libertés est envisageable, il s’agit d’une puissance à maîtriser, tout en protégeant la vie privée.
Or, la fonction des algorithmes, fournisseurs de gratifications, est de permettre les choix et la
personnalisation, avec des machines à disposition, pour calculer, prévoir, s’informer,
communiquer, consommer, jouer, travailler, étudier, accéder à la culture... Mais
l’ambivalence de l’informatique, entre avantages et contraintes, conduit à produire un
34
système technicien (Ellul, 1977/2004) qui dicte les conduites et conditionne toutes activités
dans la société, jusqu’à produire une « mégamachine » selon le terme repris de Mumford par
Latouche (2004), mais que Ellul rejette : « le système technicien n’est pas une simple addition
de machines, ni une mégamachine » (1977/2004, p. 239). Ainsi, la production ingénieuse de
l’informatique rend consentants, sans être nécessairement éclairés ; et la fascination peut
devenir une aliénation157, partielle (Lefèbvre, 1961), par exaltation et inéluctabilité, menant à
penser par le prisme informatique, y compris le droit et « le monde juridique » vers une «
machine juridique » (Bourcier, 1999, et voir témoignage).
En ce début de 21ème siècle, l’opacité se trouve à ce point précis où tout s’emballe y compris le
flot ininterrompu de régulations et réglementation, coordination, planification, expertise et
évaluations pour tenter de cadrer les pouvoirs et contre-pouvoirs en matière d’informatique et
de numérique. L’informatique construit du réel et les réseaux numériques sont dans nos vies :
pourquoi faisons nous ce que nous faisons avec cette construction du réel ? Les usagers de
l’informatique et du numérique en sont conscients tout en laissant faire. En effet les machines
rendent des services, facilitent, distraient et à la fois pèsent dans une ambivalence d’usages.
Les systèmes d’intelligence artificielle contemporaine, les algorithmes permettent de prédire
et fournir des décisions. Aussi la délégation aux machines, qui rappelons-le tombent en panne,
interroge, tout comme l’utopie d’éviter l’erreur et la haine humaines avec l’informatique.
Telle pouvait être l’espérance depuis la cybernétique (années 1940), or nous en sommes à une
informatique qui crée la dépendance dans la mesure où l’erreur est programmée pour ne pas
laisser entendre que (presque) tout est maîtrisé et faire apparaître la machine comme
compagnon. En effet, l ‘ordinateur n’est plus seulement l’instrument fondé sur la théorie
mathématique de l’information de Claude Shannon ayant pour objet le codage et le transport
de signaux dans un circuit de communication. Celui-ci est inscrit dans un système à équilibrer
en permanence (homéostasie) par rétro-actions pour des adaptations (machine apprenante) et
viser des buts, inconnus ou partiellement identifiés ; pour les usagers, bénéficier des services
via les machines, pour les entreprises, bénéficier des données des premiers. Mais non pas
seulement pour capter leur attention et leur vendre des biens et services ou une image de
marque ; mais pour orienter les comportements calculés pour le marché de la prédiction
(Zuboff, 2019/2022). Un des premiers postes qui a besoin de ces prédictions est la publicité
visant la persuasion, réinventée par le capitalisme de surveillance (Zuboff, 2019/2022, p.
461), et dénoncée par des acteurs de la société civile 158.
Dès lors, il faut en finir avec l’analyse en termes d’impacts. En effet, la technique qui sert la
technique est en interrelation avec la société, pour une mise en correspondance entre la
technique et la société (Deleuze, 2003). Il semble qu’avec l’autonomie de la technique, c’est
la société qui doit évoluer selon le développement de la technique. Il ne s’agit donc pas
uniquement de conséquences (impacts étant le terme souvent employé dans tous types de
discours, y compris scientifiques), ni non plus d’assimilation d’innovations techniques dans
un système technique préexistant, nécessitant apprentissage pour de possibles améliorations
sociales et économiques. Friedmann (1966) avance une « civilisation technicienne », nous
menant à considérer l’approche anthropologique pour saisir le concept de civilisation, avec
Claude Lévi-Strauss, Marcel Mauss (1941-1948/2012) en dialogue avec Durkheim 159
permettant d’envisager d’un côté pour Mauss : l’ensemble des expressions matérielles et non
157
Si la conscience de l’aliénation, même partielle, disparaît, l’aliénation risque d’être totale, voir Henri Lefebvre, 1980,
« Aliénation et société », Raison présente, n°55, Raisons rationalités rationalismes, pp. 101-103,
https://www.persee.fr/doc/raipr_0033-9075_1980_num_55_1_2089
158
Par exemple Résistance à l’Agression Publicitaire : https://antipub.org/30-ans-rap-moment-historique/ ; exemple d’action
sur Internet : https://antipub.org/bilan-journee-contre-la-pub-subvertthecity-600-dispositifs-commerciaux-reappropries-en-
france/
35
matérielles (idéologies, spiritualités) d'un groupe humain (peuple, société, voire le mode de
vie en société), de l’autre pour Durkheim : ce qui permet de comprendre comment une
société, assemblage de parties relativement indépendantes et d'organes différenciés, peut
former « une individualité douée d'une unité ». Le concept de culture est également éclairant
pour saisir l’ampleur des enjeux des relations technique et société ; la culture serait esprit et
histoire d’une communauté d’humains, mais aussi ensemble de connaissances croyances
habitudes acquises, de fait tout aussi complexe que le concept de civilisation représentant la
très longue histoire, la permanence et le développement convergent de sociétés humaines, tout
en retenant la diversité des peuples, des sociétés humaines, et ce qu’elles ont en commun sur
des territoires, avec des ressources et des techniques. Ces dernières pour Levi-Strauss dans
Tristes Tropiques 160 existent en premier lieu 161 pour s’alimenter (chasse, pêche, préparation
de repas, avec division du travail), mais aussi se protéger de l’environnement hostile. Il est
possible de dire qu’il n’existe pas de sociétés humaines sans techniques (instruments, gestes,
organisation administrative, savoirs, hygiène).
Comme les anthropologues, Mumford ne réduit pas la technique à une approche
instrumentale, et avance la notion de « mégamachine » pour penser l’organisation sociale
envahie par les machines concrètes avec de « nouveaux procédés industriels (qui se
répandent) à grande échelle » (1934/1950, p.23). Les machines organisent le social,
l’économique, le politique et même l’imaginaire fondé sur le mythe de la rationalité, avec des
machines qui standardisent pour accomplir de multiples tâches et produire en masse, dans un
régime visible. Le régime invisible appartient aussi à la figure de la mégamachine dans un but
de domination avec le pouvoir politique, la puissance militaire, la division du travail, la
mécanisation de la production. La mise en correspondance technique et société, à des fins de
contrôle, « les sociétés de contrôle qui sont en train de remplacer les sociétés disciplinaires »
(Deleuze, 2018, §2 ; 1990162/2003) et des fins d’efficacité, est alors incontournable.
Les activités réticulaires sont similaires, et comme le fonctionnement informatique est pour la
plupart des humains inconnu, seulement perçu par les interfaces numériques, tout en croyant
atteindre le monde au bout des doigts (digital), sans limite, la technologie informatique
transforme toutes les activités et les modes d’existence, brouillant la frontière entre vie privée
et activités à l’extérieur (études, travail, loisirs, etc.). La dépendance aux machines se
confirme avec les technologies en correspondance avec et servant les techniques politiques,
économiques favorables au développement des premières, dans le cadre de relations entre les
humains et la technique comme milieu constitué de conditions de vie, depuis les éléments
naturels aux machines industrielles.
Les sociétés industrielles analysées par Friedman en 1966, qui prône le besoin d’une
technique dominée, rejoignent le capitalisme de surveillance analysé par Zuboff en 2019, qui
ne semble pas optimiste en matière de maîtrise des technologies de surveillance de données en
ligne (ainsi que des déplacements avec la géolocalisation). En effet, leur captation vise le
conditionnement des comportements (dépassant la manipulation de l’attention, et les
incitations de type nudges) par des prédictions calculées à partir de profils afin de cibler la
publicité et orienter les usages. Il s‘agit d’une industrie menaçant le libre arbitre et la
démocratie, en retenant que les cadres règlementaires ne suffisent pas pour enrayer les
systèmes algorithmiques. Pour Zuboff les individus sont des objets de l’économie de
159
Marcel Mauss et Emile Durkheim, 1913, « Note sur la notion de civilisation », L'Année sociologique, 12, 1909-1912, pp.
46-50, voir : http://classiques.uqac.ca/classiques/mauss_marcel/oeuvres_2/oeuvres_2_12/notion_civilisation.html
160
Claude Levi-Strauss, 1955, Tristes Tropiques , Paris, Plon. Voir notamment l’étude des Nambikwara, dans leur vie
d’apparent dénuement, qui incarneraient l’humanité avant la culture.
161
Voir aussi l’articulation du domaine technique et de la dimension symbolique, le « cortex-silex » de André Leroi-
Gourhan, 1965, Le Geste et la Parole : la mémoire et les rythmes, Paris, Albin Michel
162
Reprise de (Deleuze, 2018)
36
surveillance avec ses usines d’intelligence artificielle, tentant de passer des prédictions aux
certitudes. L’intrusion est complète dans la mesure où ce ne sont pas que les traces sur les
réseaux informatiques qui sont captées, mais également les activités dans la vie réelle
identifiées par déduction des comportements en ligne et en mobilité. Mais pour vendre la
prédiction, comme l’avance Zuboff , autant façonner les comportements. De l’économie de
service numérique personnalisé vendu au contrôle sur les réseaux, tout semble être au service
du capitalisme de surveillance.
Penser les relations technique et société dans le temps long est la meilleure manière de s’y
prendre pour cerner la problématique informatique et société sur ces quatre décennies
écoulées (voir Partie 1 : depuis les années 1980). Si l’on remonte aux techniques des moulins
du moyen âge avec les énergies eau et vent (ainsi que la ressource bois pour la matière
première), puis aux techniques du charbon, pétrole, de l’électricité, puis du nucléaire… nous
relevons bien entendu destruction et pollution, mais aussi, sans nostalgie du temps ancien où
les travailleurs souffraient, la condition ouvrière du 19 ème siècle (« phase néotechnique ») 163
comme permettant de conduire à une amélioration des conditions de vie humaine. Non
seulement l’économie de marché est le motif prédominant des développements techniques,
mais l’automatisation de la production est un objectif en soi grâce à la connaissance
scientifique qui vise directement l’application industrielle. Les ordinateurs d’aujourd’hui sont
comme les horloges d’hier, ils s’inscrivent dans l'ère de la machine qui découpe et organise le
temps. Mumford (1934/1950), qui analysait le "progrès" de l'industrie, tirait le signal d’alarme
pour le bien-être des humains et la préservation de l'environnement. Avec les technologies
informatiques et numériques, nous en sommes à l’accentuation de l’alerte. Le champ
Informatique et Société ne cesse de tirer l’alarme depuis les années 1980, notamment autour
des problématiques de la surveillance et des injonctions, en termes de risques pour la
protection des données personnelles et des libertés.
163
Voir les trois phases de Mumford (1934), avec également les phases éotechnique, paléotechnique.
37
Pour contrôler et orienter les conduites des personnes et des objets, il est nécessaire de les
surveiller. Les technologies informatiques permettent de traiter quantité de données mises en
visibilité par les usagers eux-mêmes (la fameuse expression « à l’insu de leur plein gré »),
mais aussi dans une certaine invisibilité (dans la mesure où les conditions d’utilisation sont
acceptées sans les lire tant elles sont longues ou peu explicites 164, excepté le fait qu’elles
avancent des cookies nécessaires pour l’accès). Les consultations sont en permanence tracées
sur Internet, mais quand il s’agit d’expressions volontaires, il faut bien entendu un intérêt à les
rendre visibles, par exemple donner son avis, se donner à voir, se faire connaître (e-
réputation), mais aussi pour travailler, s’informer, profiter de loisirs ludiques et culturels, faire
des achats, et tant d’autres activités de la vie quotidienne. Il y a bien entendu une différence
entre traçabilité (cookies) et surveillance, qui est le soubassement de la captation des données
traitées pour prédire (algorithmes de recommandation notamment). Ensuite le passage de la
surveillance (à la limite parfois des pratiques liberticides) 165 au contrôle sert des intérêts
distincts comme sécuriser, autoriser, tant pour des acteurs privés que publics.
Le contrôle numérique doit s’entendre comme une déclinaison du contrôle dans la perspective
de conduire les conduites (Foucault, 1982). La mise en œuvre de dispositifs pervasifs et
automatiques de collectes de données personnelles (même si celles-ci sont anonymes), de
populations permet la constitution de volume important de données (big data) pour le
traitement algorithmique qui leur donne de la valeur. Le consentement n’est pas toujours
requis, ni éclairé (en mode pervasif) dans la mesure où la surveillance des données se déroule
à l’insu des individus qui produisent ces données. En contrepartie, les gratifications
permettent de contrôler les activités dans les environnements connectés, et il en est de même
pour les services en ligne, en autorisant l’usage des cookies 166, pour que la captation des
données vise à mieux servir ceux qui les ont acceptés en cochant leur « consentement
éclairé » (autrement dit les usagers savent qu’ils sont tracés) acceptant les conditions
générales d’utilisation (CGU, dépôt de cookies pour personnalisation des contenus, mesure
d’audience, communication sur les réseaux sociaux numériques, et publicité ciblée) sans
prendre le temps de les lire complètement tant elles sont longues, ou quand elles sont courtes,
sont peu explicites.
Pour surveiller les données afin de les capter et les exploiter pour contrôler et orienter les
comportements, il faut un grand nombre d’opérations de fichage (voir Partie1), qui font
l’objet d’innovations. En effet, le fichage des années 80-90 167 (voir Partie1) a évolué ; le
fichage institutionnel a été étudié en recherche informatique et société, avec les fichiers tels :
- le TAJ pour traitement d’antécédents judiciaires 168 en 2012 (précédé du STIC-système de
traitement des infractions constatées- et Judex –système judiciaire de documentation et
d’exploitation) 169 pour le maintien de l'ordre public à la frontière de la répression et de la
prévention,
164
Pourtant, le RGPD « exige que toute information ou communication relative au traitement de données à caractère
personnel soit concise, transparente, compréhensible et aisément accessible en des termes simples et clairs » :
https://www.cnil.fr/fr/informer-les-personnes
165
Voir notamment (Mattelart, 2007), chapitres I-1, III-10 et III-11
166
https://www.cnil.fr/fr/cookies-et-autres-traceurs/regles/cookies/que-dit-la-loi
167
Dès les années 1970 avec le NIR : numéro d’inscription au répertoire, à partir du numéro de sécurité sociale, qui avait
provoqué un choc avec le fichier SAFARI, système automatisé pour les fichiers administratifs et le répertoire des individus.
168
https://www.cnil.fr/fr/cnil-direct/question/taj-traitement-dantecedents-judiciaires-anciens-stic-et-judex-cest-quoi ; https://
www.cnil.fr/fr/taj-traitement-dantecedents-judiciaires
169
Fichiers avec droit d’accès indirect : https://www.data.gouv.fr/fr/datasets/droit-dacces-indirect-taj-stic-judex/
38
- TES pour titres électroniques sécurisés 170 en 2016 171 ; cartes d’identité et passeports
biométriques,
mais aussi le fichage pour un contrôle social numérique (Carré, Vétois, 2016) avec des
technologies au service des consommateurs et administrés, sans contrainte visible.
La vidéosurveillance (introduite en Partie1) est une autre préoccupation constante pour le
champ informatique et société, de la simple caméra de surveillance à la dite videoprotection
relevant d’un dispositif d’objets connectés, donnant lieu à de nombreux fichiers.
La prolifération de fichiers pose des problèmes de lisibilité parfois d’abus faisant l’objet
d’ajustements, d’oppositions, jusqu’à parfois leur abandon. On l’a relevé avec SAFARI en
1974 (voir Partie 1), mais plus récemment le fichier EDVIGE pour « Exploitation
documentaire et valorisation de l'information générale » de 2008, qui a été retiré sous la
pression de la contestation du fichage de personnes ayant de significatives activités politique,
syndicale, économique, institutionnelle, sociale ou religieuse, susceptibles de porter atteinte à
l'ordre public. La CNIL avait, à l’époque, émis des réserves sur ce type de collecte
d'informations dès 16 ans, et demandé un débat au Parlement. Une pétition « Non à
EDVIGE » avait remporté de nombreuses signatures, plusieurs associations, syndicats et
partis politiques (dont LDH, syndicat de la magistrature) avaient déposé un recours auprès du
Conseil d’Etat. À cette époque, deux rapports ont été produits en 2008-2009 172, pour faire le
point sur les fichiers d’Etat à contrôler « pour protéger les libertés » (vie-publique.fr,
11/12/2008). Plusieurs travaux Informatique et Société portent sur ce type de fichage 173,
relayé par un autre type de fichiers (est retenu le terme données au détriment de celui de
fichiers) foisonnants également avec les acteurs de l’économie numérique. Pour ces derniers,
la surveillance est actuellement effective à tout instant et en tout lieu pour assurer la sécurité
et rendre service aux citoyens-consommateurs connectés, en étant l’objet et le sujet,
produisant lui-même les moyens et la condition de cette surveillance, dans des « sociétés de
contrôle, qui fonctionnent non plus par enfermement, mais par contrôle continu et
communication instantanée » (Deleuze, 2003 p.236).
39
rapports de force, (d’une) intervention rationnelle et concertée dans ces rapports de force,
soit pour les développer dans telle direction, soit pour les bloquer, ou pour les stabiliser, les
utiliser » (Foucault dans Dits et écrits, volume III, cité par Agamben 2006, §5, en ligne).
Agamben poursuit en parcourant les possibilités d’entendre ce concept avec d’autres termes
comme exiger, commander jusqu’« à un ensemble de praxis, de savoirs, de mesures,
d’institutions dont le but est de gérer, de gouverner, de contrôler et d’orienter, en un sens qui
se veut utile, les comportements, les gestes et les pensées des hommes » (Agamben, 2006, §23
en ligne). Quand il expose la « signification technologique » il réduit le dispositif à : « la
manière dont sont disposées les pièces d’une machine ou d’un mécanisme, et, par extension,
le mécanisme lui-même » (§18 en ligne). Cette conception instrumentale du dispositif se
retrouve dans la littérature en langue non francophone, qui ne conserve pas toujours le terme
dispositif entre guillemets, avec : « device », « socio-technical system » (Beuscart et
Peerbaye, 2006, note 3, en ligne), rejoignant le dispositif du point de vue de la sociologie de
l’innovation. Pour ce champ sociologique, le dispositif de Foucault rejoint le projet qui, par
son inscription technique, cherche à atteindre son but en passant par la contrainte et le
contrôle des gestes, voire de l’esprit. La sociologie de l’innovation écarte la conception
disciplinaire 175 de Foucault, pour travailler sur l’hétérogénéité de l’organisation sociale ayant
besoin de dispositifs pour agir, en les adaptant si nécessaire ; les « scripts » (Akrich, 1987)
dans des objets, la médiation, la traduction (Akrich, Callon, Latour, 2006), dans le cadre d’un
réseau socio-technique (l’acteur-réseau).
Pour poursuivre avec la sociologie, on peut se référer aussi à une ambition de dresser « un
panorama » du concept, permettant d’exprimer d’une autre façon le fait que les dispositifs
informatiques et numériques « organisent » les activités des individus tout en laissant la
possibilité d’agir (Beuscart et Peerbaye, 2006, §3 en ligne), de façon à nourrir le dispositif
(pour Foucault), le système technique (pour Ellul). Les sciences de l’information et de la
communication apportent aussi leur contribution pour cerner le concept, tout en se référant,
comme de nombreux chercheurs de différentes disciplines, à Foucault, Agamben, à partir de
travaux sur les dispositifs socio-techniques, notamment en analysant les technologies de
l’information et de la communication. La revue Hermès en 1999 a entrepris un point sur « Le
dispositif : entre usage et concept » 176 permettant également d’aborder l’agencement
d’éléments humains et matériels, et de penser le dispositif comme une relation entre
contraintes et liberté une médiation, permettant interactions et dialogue humain-machine.
175
Voir également Julie Paquette, 2018, « De la société disciplinaire à la société algorithmique : considérations éthiques
autour de l’enjeu du Big data », French Journal For Media Research, 9, Ethics, Media and Public Life :
https://frenchjournalformediaresearch.com:443/lodel-1.0/main/index.php?id=1439
176
Dirigé par Geneviève Jacquinot-Delaunay et Laurence Monnoyer-Smith : https://www.cairn.info/revue-hermes-la-revue-
1999-3.htm
40
A l’heure du prétendu pouvoir grâce au numérique 177 des internautes et utilisateurs de
smartphones (réseaux 4G, 5G), la recherche informatique et société travaille la notion de
consentement largement accordé au suivi des comportements. Les surveillés sont visibles
tandis que les stratégies de surveillance sont opaques ; certes la promesse est la
personnalisation des services en ligne, qui ne s’épuisent pas car automatisés, avec des
algorithmes entrainés (machine learning) pour les prises de décision, grâce à l’interconnexion
des fichiers 178 et la convergence des supports et des contenus. Les individus isolés,
hyperconnectés derrière leurs écrans, agrégés et « seuls ensemble » (Turkle, 2011/2015), sont
soumis à des orientations de leurs comportements (voire à des décisions à leur place, Zuboff,
2019/2022) 179, pourtant capables de raisonner et développer une posture réflexive. De la
surveillance des données au contrôle des comportements sur les réseaux informatiques, la
situation est ambivalente dans la mesure où les libertés individuelles de consultations,
d’informations, d’expression sont élargies (même en milieu autoritaire, bien que les réseaux
soient davantage bridés que dans les sociétés démocratiques), et dans le même temps
fournissent la matière du contrôle social. Cette ambivalence s’inscrit dans un double
processus de domination/émancipation émanant de la globalisation 180, « nouvelle
impérialité » dans le cadre entre autres de « la mise en œuvre des technologies, (dans les)
systèmes d’information et de communication qui submergent » (Freitag, 2010, §47). Il
s’agirait d’un pouvoir normatif par subordination des individus volontairement connectés et
collaborant à leur propre surveillance pour bénéficier de services qui les rendent libres de
consommer, de s’informer, de communiquer leurs goûts et idées dans les réseaux sociaux,
leurs données de consommation, avec le sentiment de maîtriser la situation. L’acceptabilité de
la surveillance, subie et choisie (Carré, Panico, 2012b), offre une pleine expansion d’un
contrôle sans contrainte apparente, sans anéantir la critique à l’égard des acteurs puissants de
l’économie numérique 181.
Dès lors, une banalisation de la surveillance numérique (et/ou une fatigue de devoir sans
cesse lire et paramétrer les conditions générales d’utilisation) dilue la vigilance, en tant que
contre-pouvoir, remise entre les mains d’une CNIL, des régulateurs, législateurs, qui devraient
suffire 182 pour protéger les droits. D’ailleurs, à partir du début des années 2000,
l’enseignement Informatique et Société en IUT a été réduit à l’option (écouter témoignage
Daniel Naulleau) 183, acceptée comme telle étant donnée la croyance en des instances
177
Le terme « empowerment » mobilisé en régime numérique présente un « flou conceptuel et sémantique »
https://journals.openedition.org/terminal/5570#tocto1n1 : « cette inflation terminologique et sémiotique de l’empowerment
s’est soldée par un glissement idéologique de la notion vers des acceptions plus libérales, la vidant peu à peu de son sens
initial et affaiblissant du même coup sa portée critique et radicale » §6 en ligne Fabien Labarthe et Marianne Trainoir,
« Explorer les déclinaisons de l’empowerment en régime numérique », Terminal [En ligne], 125-126 | 2019,
http://journals.openedition.org/terminal/5570
178
https://www.cnil.fr/en/node/15316
179
Voir définitions page 5 de la présentation en ligne : https://www.zulma.fr/wp-content/uploads/extrait-
572196extrait_sitepdf-1.pdf
180
La globalisation des années 1990 s’appuie sur : « le capitalisme (qui) se trouve énergétisé par une fabuleuse expansion
informatique, l’économie marchande envahit tous les secteurs de l’humain, de la vie, de la nature; corrélativement la
mondialisation des réseaux de communication instantanée (téléphone mobile, téléfax, Internet) dynamise le marché mondial
et est dynamisée par lui » (Morin, 2002, §5 en ligne).
181
Si l’on pense aux GAFAM voir la proposition de démantèlement : https://www.vie-publique.fr/parole-dexpert/281851-
les-gafam-vers-une-regulation-ou-un-demantelement-par-louis-perez Mais des géants du numérique existant ailleurs qu’aux
USA, par exemple en Chine, les BATHX : voir le rapport d’information 2019 sur les « géants du numérique » présenté à
l’Assemblée Nationale par les députés Alain David et Marion Lenne:
https://www.assemblee-nationale.fr/dyn/15/rapports/cion_afetr/l15b4213_rapport-information#_Toc256000021
182
A ce sujet, nous pouvons nous interroger sur l’impossibilité de faire évoluer une situation « quand les moyens dont
dispose un système sont devenus incapables de résoudre ses problèmes » (Morin, 2002, §77 en ligne).
183
Relevons le rapport de la Société Informatique de France (SIF) 2021 avec la rubrique « informatique et société » centrée
sur les questions de sécurité, reproductibilité et soutenabilité,
https://www.societe-informatique-de-france.fr/wp-content/uploads/2022/03/Bilan-moral-AG-SIF-2022.pdf. Voir également
41
suffisantes et capables d’assurer la protection des données et des libertés. Le désir de services
numériques conduit ainsi à « la participation et l’utilisation enthousiastes, voire addictives,
des dispositifs interconnectés, des applications et des plateformes web… ces formes … de
désir sont toujours contraintes et disciplinées par des impératifs de production et de
valorisation… la créativité qui se manifeste, par exemple, dans la conception d’algorithmes,
de graphiques et d’interfaces pour de célèbres plateformes…vise d’abord et avant tout à
développer, à maintenir et à pérenniser des fonctionnalités pénétrées par des logiques de
marché » (Richert, 2019, p. 38).
Si l’on situe, selon une approche philosophique 184, le désir dans un cycle de reproduction
sociale (Deleuze, Guattari, 1972) 185, « il s’agit … de considérer les sociétés capitalistes
comme un état spécifique de la production sociale et de la production désirante » (Richert,
2019, p. 33). Et, si l’on situe, selon une approche sociologique, la reproduction sociale et la
reproduction des privilèges dans la société avec violence symbolique pour imposer des cadres
légitimes de domination à maintenir (Bourdieu, Passeron, 1970), nous pouvons retenir
l’inscription des individus dans le système technique au service de l’économie : « le
capitalisme produit du schizo exactement comme il produit de l'argent, toute la tentative
capitaliste consiste à réinventer des territorialités artificielles pour y inscrire les gens »
(Deleuze, cours du 16/11/1971, en ligne). Ainsi la reproduction sociale permet de gérer, avec
la surveillance, les calculs algorithmiques et l’intelligence artificielle contemporaine,
l’indéterminé, l’insécurité potentielle gênant les Etats qui cherchent l’ordre social, et les
entreprises qui ont besoin de prédire et orienter les comportements pour servir leurs intérêts.
Les institutions et le cadre juridique conditionnent les environnements de production,
consommation, communication. Le « codage » social s’appuie donc sur la surveillance des
comportements déviants (pour l’ordre social), mais aussi ordinaires dans la vie quotidienne,
du travail au foyer, selon un désir d’objets convoités, ici numériques. Ces objets numériques
s’inscrivent dans la dynamique capitaliste, qui assujettit pour s’auto-servir, selon un ordre
dominant (Althusser, 1970/1976), en retenant cependant qu’une idéologie peut produire
l’opposé (Hall, 2012, §15, en ligne).
L’ensemble est basé sur une croyance généralisée et des imaginaires (Castoriadis, 1975/2006)
relatifs aux technologies réticulaires, conduisant à l’adhésion et au consentement, comme
vérité universelle, et sources de profit (avec les prédictions algorithmiques, les détections de
risques). Le capitalisme puise dans ces techniques de surveillance numérique pour se déployer
(Zuboff, 2019/2022). Prenant appui sur une conscience de la surveillance généralisée par les
réseaux numériques et les droits à la protection des données et de la vie privée, les
négociations d’usages (Vidal, 2010 et 2017) ne sont qu’une façon de limiter l’aliénation
puisque la désaliénation est impossible (Lefèbvre, 1980). Une mise en perspective de 1980 à
2022, permet de lire à propos de la fin de l’aliénation selon Marx : « L’aliénation due à la
pénurie ou la rareté devait aussi finir dans l’abondance permise par la technique » (Lefèbvre,
1980, p.102), alors que nous abordons l’aliénation par le système technicien (Ellul, 1977),
42
l’ambivalence de la technique, son autonomie, son universalisation et notamment la
convergence par les réseaux informatiques, l’automatisme (Ellul, 1977, p. 239). À ce sujet,
Ellul renvoie à Simondon, qui souligne (le danger principal d’aliénation avec)
l’indétermination 186 (dans la mesure où la machine porte en elle une capacité
d’autorégulation ; « les techniques se combinent…de façon indépendante d’une décision
humaine » (p. 239) ; « l’homme n’est absolument pas l’agent du choix », rappelons-le en 1977
(p. 245)), et l’accélération (tout en contredisant Mumford qui avance en 1937 les limites
« par la nature du monde physique » (cité par Ellul, 1977, p. 301)).
En effet, l’automatisation et la puissance de calculs des algorithmes et des systèmes de
l’intelligence artificielle contemporaine 187 sont à relier aux prescriptions automatisées
émanant des traitements algorithmiques des données sous surveillance numérique.
Les conduites sont alors soumises aux prescriptions intégrées dans les dispositifs de
traçabilité et profilage, y compris pour les usages tracés à l’insu des individus, au courant de
la situation : « si le souci de la protection des données et de la vie privée est partagé dans
toutes les classes sociales, le baromètre du numérique pointe que les cadres et les professions
intellectuelles sont légèrement plus précautionneuses dans leurs pratiques effectives, ce qui
peut conduire à un recours plus important aux droits par ces groupes sociaux » (CNIL 2021,
p. 60). De fait, l’émancipation fondée sur les libertés individuelles mène à une situation
catastrophique selon Freitag 188 liée à un « utilitarisme totalitaire » de l’immédiateté. Mais
l’immédiateté doit composer avec des médiations, que sont les prescriptions, qui rejoignent
l’économie Internet ouvrant « la voie à de nouvelles structures de marché en mettant en avant
une fonction de prescription clairement distincte des fonctions d’offre d’une part, des
fonctions logistiques et de mise à disposition des biens d’autre part…(ceci) permet de mieux
comprendre les modèles d’affaires et les structures concurrentielles à l’œuvre dans l’économie
de l’Internet organisées autour de l'articulation de trois marchés : biens primaires,
référencement, prescription. Cette modélisation de marchés à prescription contribue à enrichir
la compréhension des chaînes de valeur et des relations d’affaires repérables dans l’Internet »
(Benghozi, Paris, 2007, p.12). Concrètement, les prescriptions concernent les algorithmes des
plateformes (économie servicielle 189 ou tertiarisation 190) accueillant des contenus générés par
les utilisateurs, nouvelle forme de la servuction des années 1980 avec les bornes en self-
service, traitant des données massives et exploitées pour nourrir le processus d’apprentissage
automatique, afin de servir le système de recommandation fondé sur la captation des données
sous surveillance.
186
Voir http://www.implications-philosophiques.org/quest-ce-que-la-marge-dindetermination/#_ednref4 ; à propos de la
marge d’indétermination dans Du mode d’existence des objets techniques de Gilbert Simondon en 1958 ; les machines
comme expérience du monde, et dont les schèmes ne sont pas absolument prédéfinis. L’automatisme (industriel) comporte
des « schèmes rigides », donnant des objets techniques fermés, prédéterminés.
187
Michel Freitag, 2006, « Combien de temps le développement peut-il encore durer ? », dans Les ateliers de l’éthique, la
revue du CRÉUM, vol. 1, n°2, pp. 114-133, partie « 3. Sur le plan culturel », en ligne :
http://classiques.uqac.ca/contemporains/freitag_michel/combien_de_temps_devel/
combien_de_temps_texte.html#combien_temps_2 : Freitag est inquiet avec la « diffusion généralisée des technologies »,
« nouvelles technologies informatisées de communication et d’information », et de son couplage avec une « culture de
consommation de masse »… ou encore avec « l’application massive des technologies de contrôle cybernétisé » (notamment
« dans une perspective écologique ») ; « à moins d’un renversement radical », il se demande s’il n’est « pas déjà trop tard …
pour espérer un avenir meilleur ».
188
Michel Freitag, 2009, « L’émancipation. Réflexions sur la liberté et le progrès moderne », in Tremblay Gaëtan (dir.),
L’émancipation hier et aujourd’hui, Québec, PUQ, pp. 89-107
189
L’exemple des SaaS, Software as a Service, est intéressant pour saisir les enjeux de la « transformation servicielle »,
quand il ne s’agit plus d’acquérir une licence pour se servir d’un logiciel, « mais via un abonnement internet, dans le cloud,
auprès d’un prestataire de services », https://www.cci-paris-idf.fr/fr/prospective/numerique/economie-servicielle.
190
Rapport d’information du Sénat, 27/06/2018 : https://www.senat.fr/rap/r17-607/r17-6072.html
43
Les algorithmes et les plateformes nourrissent « l’appétit des géants » (Ertzscheid, 2017).
Dans le même temps, éclatent des révélations (de Edward Snowden, 2013) sur la captation
des métadonnées à travers différents systèmes d’écoute et programmes de surveillance, et des
affaires comme celle de Cambridge Analytica, concernant l’exploitation des données de
millions de personnes révélée en 2018. Ces affaires montrent que la surveillance en ligne ne
se fait pas que dans un seul sens : des entreprises et des Etats surveillant les comportements
de citoyens-consommateurs, pour certains capables de surveiller les premiers. Certains
internautes apprennent à connaître les algorithmes, le fonctionnement de plateformes et les
stratégies de visibilité. Mais l’opacité de certains enchevêtrements d’algorithmes et de
stratégies impénétrables ne permet pas toujours une co-surveillance. De fait, la capture de
données est inégale et l’environnement normatif avec les cadres légaux conduit à la
reproduction des rôles, malgré des résistances, mise en débat des abus des plateformes avec
des contraintes relevant de stratégies face aux tactiques, autrement dit les géants face aux
individus devant céder avec désillusion 191. L’accès aux plateformes est facilité mais les règles
(sur lesquels sont bâtis les algorithmes) sont inconnues 192. L’empire s’appuie sur une
gouvernementalité algorithmique (Rouvroy et Berns, 2013 ; Ertzscheid, 2017, p. 381),
chassant le potentiel public agissant. L’internet a fait l’objet d’une appropriation économique
jusqu’à bâtir des empires, dans un téléscopage des libertés et dans le cadre de rapports de
forces inégales. En effet, la démocratie des droits de l’homme, les libertés individuelles,
l’individualisme conduisent à l’impossibilité d’agir ensemble sur le monde, à une impuissance
collective, aboutissant à la démocratie contre elle-même de Marcel Gauchet (2002), selon une
contradiction profonde : la démocratie est autodestructrice.
En démocratie, les libertés sont pourtant protégées ; la réglementation et la régulation battent
leur plein, y compris pour la gouvernance d’Internet. Les RFC (requests for comments ; des
spécifications informatiques et techniques d’internet) depuis longtemps relèvent de cette
implication dans la gouvernance d’Internet, qui ne concerne pas que les noms de domaines (la
partie la plus connue de la gouvernance Internet avec l’ICANN), afin d’engager les standards,
par consensus, du réseau de réseaux. L’exemple des RFC conduisant en 2021 au standard
QUIC 193 « remplaçant, au moins partiellement, TCP » (protocole d’Internet) est à retenir
pour cerner ces enjeux d’une géopolitique numérique. Un pays comme la France veut bien
entendu se positionner au sein de la gouvernance Internet, en terme notamment de « transition
numérique » 194. Il s’agit d’être impliqué dans un Internet, contrairement à ce que l’on croit,
qui est « gouverné » si l’on suit DeNardis (2014) cité par (Rossi, Musiani, Castex, 2022).
Cette gouvernance, à dimensions technique et politique 195 est menée non seulement par des
Etats, mais aussi des entreprises et des organisations pour la normalisation technique pour la
régulation d’Internet. Des textes juridiques sont produits par des acteurs publics, mais aussi
des accords (chartes, standards) entre organisations privées. Ces enjeux de niveau macro
rejoignent ceux des niveaux méso et micro-sociologiques quand les débats concernent aussi la
modération sur Internet (Badouard, 2020). En effet, l’intelligence artificielle a besoin de
surveillance pour détecter et automatiser la modération voire la dénonciation, s’appuyant sur
un « vigilantisme numérique », un empowerment, pour alerter avec des « formes actives de
surveillance » (Loveluck, 2016), la censure à mettre en œuvre ou même la censure
191
Voir le désenchantement d’Internet, malgré des mobilisations en ligne selon (Badouard, 2017), l’auteur termine
cependant sur une note positive relative à l’Internet offrant la possibilité de poursuivre une expression démocratique.
192
Voir Ertzscheid (2017) qui cite page 23 : « ces 10 algorithmes qui dominent le monde »,
http://fr.ubergizmo.com/2014/05/23/algorithmes-dominent-monde.html ; et voir aussi son blog affordance.info
193
Voir le blog du chercheur Bortzmeyer, 28/05/2021 : https://www.bortzmeyer.org/quic.html
194
Rapport remis au premier ministre Juin 2015, « Ambition numérique" : https://cnnumerique.fr/files/2017-10/CNNum--
rapport-ambition-numerique.pdf ; voir pages 45-49
195
Voir (Massit-Folléa, 2012a).
44
participative à l’heure du signalement en ligne (Badouard, 2020, p. 56). Cette censure
participative, cette auto-justice en ligne relèvent d’une co-surveillance 196, parfois ancrée dans
une action militante (collective), parfois visant une réputation selon un régime de visibilité sur
les réseaux. L’exemple de mobilisations de la société civile utilisant Internet pour mener une
critique d’Internet, par exemple pour élaborer la blocage de publicités 197, du bad buzz, la
détection de fakes 198, mener des études d’algorithmes (audit d’algorithmes (Badouard, 2020,
p.86 ; Cardon, 2019)) et du respect des droits des usagers, celui des libertés de connexion à
Internet 199, impliquant des chercheurs aussi, comme dans le champ Informatique et Société
sur l’évolution de la loi Informatique et Libertés 1978, 2004 200. Il s’agit de rendre visibles ces
actions notamment sur Internet ; or ces données également font l’objet d’une captation au sein
de l’économie de l’attention 201 (Citton, 2014), qui régit le visible et l’invisible selon les
intérêts de ceux qui ont le pouvoir d’agir sur ce régime. Cette pratique préexiste, mais avec les
réseaux numériques la manipulation est synchrone et s’adapte aux usages. Les plateformes
sont actuellement le flambeau de l’économie de la surveillance de masse, éloignant
l’autorégulation s’appuyant sur une netiquette 202 (voir IETF Internet Engineering Task Force)
203
, encore vivace durant les années 1990. En effet, les dispositifs de surveillance numérique
mettent fin aux idéaux libertaires (utopie et cyberculture, Turner, 2006/2012, p.27) qui ont
marqué les décennies 1980-1990 (de usenet au web) jusqu’au tout début des années 2000
donnant lieu à une significative appropriation sociale et économique d’Internet (start-up 204,
rachats, réseaux sociaux numériques, e-commerce…). Il semble que les règles et conditions
soient dictées par les plateformes au design de l’attention, jusqu’à la « captologie » 205, donc
attractives comme des « aimants » 206, dans une « liaison diabolique » 207. Les libertés, y
compris les subversions, numériques sont surveillées, ce qui interpelle les chercheurs
travaillant sur la gouvernance et la régulation d’Internet 208, dans une double dynamique en
Science and Technology Studies (STS) et Internet Governance Studies, sans oublier le droit de
196
Comme déjà indiquée, une co-surveillance limitée néanmoins par des rapports de forces inégales entre Etats/entreprises et
citoyens/collectifs de citoyens.
197
Relevons Adblock qui a été racheté en 2015, entrainant des « acceptable Ads » avec « Adblock Plus » distribué par
l’entreprise EyeO.
198
Romain Badouard, 2017, Le désenchantement de l’internet. Désinformation, rumeur et propagande, Limoges, FYP
Editions
199
Voir la lutte contre les coupures d’Internet, « entrave à la liberté d’expression » : https://www.amnesty.org/fr/latest/news/
2021/04/tchad-les-coupures-internet-une-entrave-la-liberte-dexpression/ ; également au Myanmar (Birmanie), en Iran, au
Bénin…
200
Voir par exemple : https://www.lecreis.org/creis/wp-content/uploads/Fiche-CREIS-loiEtL-070409.pdf ; et pour le RGPD
des chercheurs et des acteurs de la société civile via l’OLN : https://www.ldh-france.org/conference-rgpd/
201
Voir le dossier de janvier 2022 du Conseil National du Numérique en France : https://cnnumerique.fr/files/uploads/2022/
Dossier%20Attention/CNNum_Votre_attention_s_il_vous_plait_!_Dossier_VF.pdf
202
Netiquette Guidelines, 1995 : https://www.rfc-editor.org/info/rfc1855
203
Voir Ethics and the Internet - IAB Internet Activities Board, janvier 1989 : RFC 1087 :
https://datatracker.ietf.org/doc/html/rfc1087 ; voir les actes de l’IETF depuis 1986 (en 2022 : le 113ème meeting IETF) :
https://www.ietf.org/how/meetings/past/
204
Voir un article du magazine informatique en ligne ZDNet du 5/01/2001 : https://www.zdnet.fr/actualites/plus-de-200-
start-up-internet-ont-ferme-en-2000-2061997.htm ; ou encore, avec le même registre de discours, Le Journal du Net qui le
23/12/09 rappelle les faits de l’année 2000 : https://www.journaldunet.com/ebusiness/le-net/1050461-1999-2009-dix-ans-de-
web-francais-a-la-loupe/1050464-2000
205
« Captologie et économie de l’attention » sur le site TheConversation du 15 novembre 2017 :
https://theconversation.com/captologie-et-economie-de-lattention-87140
206
Voir « Les affects numériques », Laurence Allard, Camille Alloing, Mariannig Le Béchec et Julien Pierre, 2017, Revue
française des sciences de l’information et de la communication, 11, http://journals.openedition.org/rfsic/2870
207
Dans la revue des médias de l’INA septembre 2019 : Nathalie Pignard-Cheynel, « Facebook et les médias, une liaison
diaboliquement complexe », https://larevuedesmedias.ina.fr/facebook-et-les-medias-une-liaison-diaboliquement-complexe
208
L’association de chercheurs Informatique et Société l’abordait en 2009 : https://www.lecreis.org/?p=170
45
l’informatique, avec entre autres Guillaume Sire (2017) concernant la normalisation de
HTML5, Luca Belli (2016) les protocoles et standards techniques qui définissent l'architecture
et le fonctionnement d’Internet en considérant les parties prenantes engagées dans l'évolution
du réseau de réseaux, Laura De Nardis et Francesca Musiani (2016) les enjeux de pouvoir
relatif à l’infrastructure. Les travaux des jeunes chercheurs impliqués dans l’analyse des
enjeux de la gouvernance Internet rejoignent la dynamique de recherche Informatique et
Société, une dynamique d’engagement, dans la mesure où l’analyse nourrit la réflexion
critique concernant l’envahissement de l’informatique et des réseaux numériques, le contrôle
des plateformes, la régulation des contenus, des algorithmes.
Comme tous les contenus sont potentiellement surveillés via les réseaux numériques, les
travaux sont considérables et les autorités 209, à elles seules, ne peuvent éviter les risques en
matière de respect des libertés et droits. Par exemple le secteur de la santé présente un enjeu
considérable en matière de protection de données sensibles, pourtant en circulation constantes
avec les objets connectés en santé ou de bien-être, avec une confusion persistante, puisque les
objets connectés en santé (Carré, Vidal, Sandré, 2021) doivent respecter les dispositions du
Code de la santé publique, alors que les objets connectés relevant du marché du bien-être,
non. La vigilance concerne également la relance du DMP (dossier médical partagé) avec
« Mon espace santé » en 2022, abordé en Partie1 de ce rapport. Ce cas marque la capacité
d’un Etat à réintroduire l’opt-out alors que l’opt-in avait permis une avancée pour les droits
relatifs à la traçabilité de ses données. Ce nouvel espace santé serait bon pour les citoyens
aussi leur attribue-t-on a priori ; seul l’opt-out leur permet de ne pas en bénéficier. Mais les
patients vont-ils s’approprier ce type d’ « espace » en ligne faisant l’objet de partage de
données de santé sécurisé 210 ? En revanche les pratiques d’automesures numériques (avec
dispositifs et applications) sont non négligeables ; la Haute Autorité de Santé (HAS) indique :
« plus de 8 personnes sur 10 (sont) équipées d’un smartphone, 61% d’un ordinateur, 56%
d’une tablette, 23% d’un objet connecté en lien avec la santé » 211. L’innovation numérique
pour le secteur de la santé s’annonce comme une solution économique et d’amélioration des
soins avec la télémédecine (téléconsultation, téléexpertise), et la e-santé définie par la HAS
comme « un vaste domaine d’applications des technologies de l’information et de la
télécommunication au service de la santé…. (des) dispositifs tels que les logiciels d’aide à la
prescription, les dossiers médicaux informatisés » 212. La HAS est bien entendu consciente des
risques pour la sécurité des données de santé, aussi des hébergeurs de données de santé sont
agréés. Il est en outre nécessaire de mettre en place des systèmes d’information fiables et
robustes pour les hôpitaux publics qui n’ont pourtant pas tous les moyens financiers et
techniques.
Bien d’autres secteurs et technologies sont concernés par cette surveillance numérique
généralisée, comme les déploiements récents de la blockchain surveillée pour la possibilité de
vérification des transactions par chaines de blocs selon un registre distribué 213. S’agirait il de
penser le paradoxe qui consiste à chercher à réduire le pouvoir de contrôles centralisés tout en
209
En comptant par ailleurs sur le travail des autorités comme la CNIL et l’ARCOM (Autorité de régulation de la
communication audiovisuelle et numérique) qui fusionne le Conseil supérieur de l’audiovisuel (CSA) et la Haute Autorité
pour la diffusion des œuvres et la protection des droits sur Internet (Hadopi) : https://www.arcom.fr/larcom
210
https://www.monespacesante.fr/protection-donnees-personnelles?gclid=EAIaIQobChMIl9276fqG-
QIV15TVCh2QXwM6EAAYASAEEgKnaPD_BwE&gclsrc=aw.ds
211
Baromètre du numérique 2021 (29/07/2021) : https://linc.cnil.fr/fr/barometre-du-numerique-2021-les-chiffres-des-usages-
numeriques-en-france
212
« Autorité publique indépendante à caractère scientifique, la Haute Autorité de santé (HAS) vise à développer la qualité
dans le champ sanitaire, social et médico-social, au bénéfice des personnes. Elle travaille aux côtés des pouvoirs publics dont
elle éclaire la décision, avec les professionnels pour optimiser leurs pratiques et organisations, et au bénéfice des usagers dont
elle renforce la capacité à faire leurs choix. Elle a été créée par la loi du 13 août 2004 relative à l’Assurance maladie »,
https://www.has-sante.fr/jcms/c_452559/fr/la-has-en-bref
213
Journée d’étude de Creis-Terminal : https://www.lecreis.org/?p=2800
46
permettant la traçabilité permanente ? Tout comme les environnements dits virtuels et
immersifs, abordés en Partie1, intitulés « métaverse », attisant convoitises et croyances, étant
donné le potentiel en termes de captation de données et d’attention à vendre sur le marché de
la prédiction. L’ancien environnement « Second Life » semble être un modèle mais avec de
nouvelles infrastructures et capacités de débits et calculs, de plus en plus puissantes pour
servir des fonctionnalités des mondes virtuels, nécessitant des équipements spécifiques
comme les casques de réalité virtuelle. D’ailleurs les entreprises telles Facebook, Microsoft et
autres géants chinois Alibaba, Tencent et TikTok sont déjà en concurrence sur ce marché du
métaverse. L'immersion des internautes ne se limitera donc pas aux écrans de smartphone et
ordinateurs, mais s’étendra aux casques et lunettes pour offrir une réalité augmentée sous
surveillance. La pollution et la sécurité sont les risques majeurs, du fait des besoins de
datacenters, énergivores, dédiés à ces univers sous le feu potentiel de cyberattaques. Il s’agit
donc de protéger, sécuriser, et l’Etat est tout désigné pour mener cette mission.
L’Etat a toujours surveillé et mis en place les instruments de contrôle des populations
(Vitalis, Mattelart, 2014) et de toutes activités sur le territoire où celui-ci exerce son autorité.
Aujourd’hui cette puissance est également déployée par les entreprises qui ont de plus en plus,
et plus facilement, les moyens de surveiller, s’imbriquant dans un contrôle social élargi. Les
entreprises sur les réseaux numériques stimulent la production de données en circulation sur
les réseaux, tandis que la production de données par les administrations est moins diversifiée,
mais tout aussi importante. L’État stocke, traite et interconnecte les données récoltées par ses
administrations. Ainsi chaque citoyen est visible, non pas comme le citoyen prisonnier sous
surveillance disciplinaire 214 par domination légale, mais selon une surveillance invisible et
permanente, intrusive, très organisée. L’Etat peut exercer un pouvoir sur l’esprit entre
consentement et contrainte, justifié par les besoins de mesures des populations, la sécurité,
l’économie et la prévention des risques de violence. Ces objectifs légitiment la surveillance
avec des caméras (voire avec des drônes) connectées à des bases de données traitées par des
systèmes d’intelligence artificielle. Ainsi, anticipation et aide à la décision permettent de
contrôler les comportements, et il en est de même pour les acteurs privés qui eux visent les
influences pour servir leurs intérêts, au nom de l’économie numérique, soutenue par l’Etat.
Dès lors, un renouvellement du fichage par les acteurs publics et privés est à l’œuvre,
facilitant une « nouvelle économie du contrôle » (Vitalis, Mattelart, 2014) grâce à Internet,
une multiplicité d’applications numériques et autres politiques publiques et territoriales. Mais,
cette industrialisation numérique de la communication et de toutes activités dans la société
est réalisée aux dépens d’une protection solide de la vie privée des consommateurs-citoyens,
amenés à dévoiler eux-mêmes leur vie privée, menaçant des droits inaliénables. Il y a certes
monétisation 215 de services fréquemment basée sur l’abonnement renouvelé (acheter la
gratuité), mais l’apparence gratuite des contenus et services sur les plateformes (en dehors des
achats de biens en ligne) offre la possibilité de constituer de gigantesques bases de données
sur les individus, avec peu de marge de manœuvre pour contourner 216 la captation de leurs
données, dans le cadre d’un cybercontrôle, au service d’une gouvernementalité
algorithmique (Rouvroy et Berns, 2013).
Les algorithmes fascinent, les algorithmes inquiètent. Au cœur du processus d’informatisation
de la société, ils sont comme les fichiers pensés dans les années 1980-90, envahissants. Les
traitements des données fichées bénéficient désormais de la sophistication des algorithmes et
214
Voir Jeremy Bentham, texte édité en 1791, Panoptique : https://gallica.bnf.fr/ark:/12148/bpt6k114009x.texteImage ;
Panoptique, Paris, Gallimard, Mille et Une Nuits, 2002
215
Jusqu’à monétiser les données tracées : https://www.cnil.fr/fr/cookies-et-autres-traceurs/regles/cookie-walls/
monetisation-des-donnees-personnelles-les-enjeux-juridiques-et-ethiques
216
Hormis certains internautes du darknet (Gayard, 2018).
47
des systèmes de l’intelligence artificielle (IA) contemporaine. En 2017, les chercheurs du
réseau Creis-Terminal soulevaient la question critique : « vivre dans un monde sous
algorithmes » 217, étant donné le volume de données traitées pour alimenter le machine
learning, afin de modéliser les comportements humains. Mais les biais sont fréquents : «
derrière les algorithmes, il y a des humains avec leurs présupposés, leurs idéologies, leurs
visions du monde » 218. Les algorithmes gouvernent bon nombre de prises de décision dans
tous types de secteurs, y compris, comme nous l’avons déjà abordé, la santé (pour aider à la
décision d’adapter des soins, y compris à distance) et la justice (pour une justice predictive) 219.
Plateformes, contrôle des populations, biais, enjeux géopolitiques et rôle des algorithmes dans
la commande des conduites, tels sont certains ingrédients importants de la société de contrôle
du 21ème siècle. Plus tôt en 1999, Danièle Bourcier, directrice de recherche au CNRS, et dans
le réseau CREIS 220, coordonnait avec Louise Cadoux, conseillère d’Etat honoraire, un
ouvrage sur le droit et l’informatique, à la teneur épistémologique, pour envisager le
raisonnement par le calcul devenu modèle. L’ouvrage abordait également l’intelligence
artificielle et les règles de droit avec « une machine capable de fournir une réponse exacte à
un problème et pas seulement un ensemble d’informations 221 sur un problème », « une
machine à décider…à dire le droit » avec des commandes et une régulation. Si la question est
d’envisager « l’ordinateur comme modèle de la pensée juridique », encore faut il modéliser
l’action de l’institution, les incertitudes et la part de l’indéterminable avec la décision
(Bourcier, 1999, pp. 119-131).
217
https://www.lecreis.org/?p=2473
218
Texte de l’appel à articles : https://journals.openedition.org/terminal/2176 ; https://journals.openedition.org/terminal/4035
219
https://www.vie-publique.fr/eclairage/277098-lintelligence-artificielle-ia-dans-les-decisions-de-justice
220
Voir comité de programme du 12ème Colloque européen en Informatique et Société, mars 2001 :
https://www.lecreis.org/creis/?paged=48
221
Les banques de données juridiques
222
https://www.cnil.fr/fr/10-conseils-pour-rester-net-sur-le-web
223
La Ligue des Droits de l’Homme avec des associations comme le CECIL et autre ONG comme European Digital Rights :
« Guide de survie des aventuriers d’Internet, en ligne : https://journals.openedition.org/terminal/2291 ; « Sous surveillance »,
2010.
48
Plus de libertés conduit ainsi à une gouvernementalité algorithmique, sans douleur. Pourtant
les relations ne sont pas horizontales, les jeux de domination restent inchangés avec l’opacité
de la programmation et un leurre de réciprocité (en lieu et place d’une co-surveillance entre
internautes sur les réseaux sociaux numériques). En fait, nous ne cessons de renoncer et de
négocier avec des injonctions numériques (voir II-2 de ce rapport). Des travaux sur la
surveillance dans le champ informatique et société nous sommes passés aux surveillance
studies 224. Avec les recherches récentes en la matière, l’approche critique et interdisciplinaire
est conservée, sans peut-être la dimension militante (voir conclusion de cette Partie2). Les
discours et mesures sécuritaires ont encouragé ce champ de recherche, ainsi que les lanceurs
d’alerte qui dévoilent des affaires de surveillance numérique (l’affaire Snowden en 2013 ou
celle de Cambridge Analytica- révélations en 2018). Mais le sentiment d’être autonome en
s’emparant de ces technologies informatiques et des réseaux numériques l’emporte sur la
crainte d’être surveillés, d’autant plus si des discours assurent la sécurité des données
échangées.
Les plateformes surveillent les usagers qui les critiquent, telle est la situation ambivalente
avec les libertés et la manipulation des données et des comportements, en guidant vers ce qui
correspond aux intérêts des plateformes. Cette situation n’empêche cependant pas les
perspectives d’émancipation, en tentant de cerner les « enclosures algorithmiques » avec des
algorithmes « de 3e et 4e génération… plus complexes et plus subtilement perverses… plus
difficilement repérables et identifiables » (Ertzscheid, 2015, §27 et §37 en ligne) 225, et en
envisageant des collectifs (avec une force critique) pour la rendre publique. Si un contre-
pouvoir est envisagé dans la dynamique d’engagement Informatique et Société, celui-ci doit
faire face à l’idéologie d’une société numérique, selon laquelle il est urgent de laisser les
systèmes d’intelligence artificielle décider pour une gouvernance algorithmique qui conduit à
la conformité plutôt que la mise en débat. Mais les individus continuent aveuglement de se
dévoiler, de s’en remettre aux machines qui, selon les croyances, ne se trompent guère, mais
assurément peuvent dépasser l’humain en puissance de calculs complexes. Il est vrai que les
machines traitent des masses de données et la tentation avec les algorithmes est séduisante,
sauf que les biais faussent la clairvoyance. En matière d’exercice des pouvoirs par les
institutions publiques, devons nous craindre l’apprentissage des machines qui les relaieraient
ou supporteraient ? Les institutions et leurs représentants, entre autres élus, ne seraient plus
seuls à incarner le pouvoir, aux côtés des objets algorithmiques. Passer d’une technique
(gouvernement) à une autre (algorithmes et IA) pour conduire les conduites, surtout quand il
s’agit d’assurer la sécurité des citoyens-consommateurs. Serait-ce « le résultat du processus
par lequel l’État de justice du Moyen Âge, devenu aux XVe et XVIe siècles État administratif,
s’est retrouvé petit à petit « gouvernementalisé » » (Foucault, cité par Laborier, 2014, p.170).
L’informatisation de la société ne fait que s’accentuer depuis plus de 40 ans et, au delà même
des machines, la technique prend de plus en plus de place dans la vie de chaque individu et
dans la société. Aussi les dispositifs de surveillance et de contrôle omniprésents dictent
l’injonction invasive numérique jusqu’à transformer les conduites (Vidal, Panico 2019).
L’acceptabilité sociale n’empêche cependant pas la critique des injonctions, pouvant d’une
certaine manière rejoindre la double contrainte de l’Ecole de Palo Alto (Winkin, 1981 ; 2008),
quand les individus sont soumis à des injonctions contradictoires : contraints d’accepter les
conditions d’usages, qui contraignent les libertés, tout en étant conscients de la situation
paradoxale (accepter les conditions d’utilisation c’est accepter d’être tracés, sans vouloir être
tracés, et refuser les conditions c’est abandonner l’usage du dispositif). La double contrainte
224
(Aïm, 2020), voir aussi le groupe de travail au sein du Centre Internet et Société du CNRS :
https://cis.cnrs.fr/surveillance-et-manipulation-des-gouts-et-des-opinions/
225
Voir aussi Affordance.info
49
ici exprime le fait d'être obligé d’accepter une situation non désirée ; protéger ses libertés et
en même temps prendre des risques pour ses libertés
Nous allons aborder plus précisément cette situation d’injonctions aux innovations et
incitations à renoncer petit à petit aux droits et libertés fondamentales.
50
2-2 injonctions et renoncement
La vie quotidienne, en nous appuyant sur les travaux de Howard Becker (2006) et Henri
Lefèbvre (1945-47/1958 ; 1961 ; 1981), permet de saisir les usages des technologies
numériques, dans leur routine, jusqu’à une hyperconnectivité (Vidal, Carré, 2018) sous
surveillance, peut-être sans s’en rendre compte toujours : « La routine quotidienne – les
événements se reproduisant chaque jour – impose d'accorder une valeur toujours plus
importante à la continuité d'un comportement cohérent, bien que la personne réalise rarement
qu'il en soit ainsi » (Becker, 2006 § 32 en ligne). Selon l’approche interactionniste, Becker
avance que la fabrication du social puise dans l’activité quotidienne, et se réfère aux travaux
de Goffmann qui contribue à cerner l’importance du quotidien : « Erving Goffman souligne
que les règles gouvernant les interactions de face-à-face sont articulées de telle manière que
les tiers aident l'individu à jouer son rôle (« sauver la face »). Néanmoins, les activités d'une
personne s'avèrent souvent contraintes par le type de rôle qu'elle a joué plus tôt dans
l'interaction. Elle pense avoir parié sur une apparence de participant responsable et continue
donc dans une trajectoire d'activité congruente avec ce rôle. » (Becker, 2006, § 29 en ligne).
Autrement dit, sur les réseaux numériques se joueraient des rôles selon les interactions ; aussi
est il intéressant de douter de la capacité des systèmes d’IA à cerner/modéliser des
« processus sociaux (plus) complexes », des « comportements… irrémédiablement
enchevêtrés » (Becker, 2006, §22 en ligne). Cependant à l’heure des prédictions
algorithmiques et autres systèmes d‘IA, il s’agit de suivre des trajectoires d'activité, afin de
proposer des contenus calculés et adaptés selon « les actions passées (qui) lient des intérêts
externes à une trajectoire d'activité » (Becker, 2006, §44 en ligne).
En dehors du champ informatique et société, les travaux de Becker et de Goffman (1973) qui
avance la notion de règle pour l’ordre social qui organise le collectif, les interactions entre
acteurs (renvoyant à l’Ecole de Chicago) dans des sociétés individualistes dans des cadres
partagés, et le sens accordé à leurs actions dans des cadres sociaux (Goffman,1991),
nourrissent néanmoins la réflexion en s’attachant en particulier au quotidien connecté en
(quasi) permanence, sans être obligatoirement aliénation.
Selon la sociologie de la quotidienneté, développée par Henri Lefèbvre des années après-
guerre à la décennie 1980, l’aliénation partielle, notamment « l’aliénation technologique »
(Lefèbvre, 1961, p. 211), est inscrite dans la reproduction de l’idéologie du progrès
technologique et économique, permettant de saisir l’ancrage des stratégies pour faire accepter
les technologies numériques réticulaires disséminées dans la société. Il est également
intéressant de retenir, de cette sociologie de la vie quotidienne, qu’il existe un mouvement
dialectique (aliénation/désaliénation) (Lefèbvre, 1961, p.209) des libertés individuelles, en
retenant de nouveau que la contrainte sociale et le contrôle, particulièrement analysés par
Durkheim (1975, pp. 22-31) et Bourdieu (1980b, pp.134-135), sont intériorisés par les
individus, ce qui renvoie aux normes incorporées comme habitus (Bourdieu 1980a), un
schème socialement constitué déterminant les actions probables des sujets sociaux, ou cadres
d’expérience (Goffman, 1991).
Ainsi, les usages numériques participent de la rationalisation de la vie quotidienne et des
transformations des relations sociales, par le biais des logiques industrielles (informatique,
télécommunicationnelle) et de tous types de contenus (industries culturelles). Henri Lefèbvre,
se référant au rapport Nora-Minc (1981, p.137), écrit : « l’informatique … ira-t-elle jusqu’à
transformer la vie quotidienne ? Jusqu’à transformer les rapports sociaux de production, de
reproduction et de domination » (1981, p. 136). Il est nécessaire de tenir compte des
déterminants techniques et économiques qui pénètrent la vie quotidienne. Lefèbvre a bien
cerné dès 1981 les enjeux de pouvoir et de domination dans le quotidien avec l’arrivée de
l’informatique et la télématique (page 135, in « l’informationnel et le quotidien » (pp. 135-
51
153). Le quotidien est le lieu de transformations et de continuité 226 (Lefèbvre, 1981, p. 49),
traversé par ce que nomme Henri Lefèbvre « le modernisme technologique » (1981, p.52). Au
cœur des rapports de domination, le renoncement à la protection de la vie privée face à la
surveillance permanente des données, sur les mêmes réseaux informatiques avec lesquels les
individus négocient leurs usages. L’informatisation de la société, au cœur du champ
Informatique et Société, soutient un changement social (les discours ne cessent d’appeler à la
transition et transformation numérique), et dès lors un changement du mode d’aliénation non
absolue (qui ne peut être totale, mais en perpétuel mouvement (Lefèbvre, 1961, p. 209 et p.
211)). Il importe donc d’adopter une démarche dialectique (Lefèbvre, 1945-46/2002, p. 4)
pour avancer en recherche informatique et société.
Le travail est une activité quotidienne majeure pour de nombreux individus sur la planète, y
compris en termes de préoccupation pour ceux en recherche d’emploi, et le monde du travail
est totalement informatisé et sous surveillance. Les entreprises contrôlent le travail pour viser
la productivité des travailleurs. Quand nous retenons que le travail fait partie des activités qui
stimulent le lien social, participent grandement à la conception du temps, tout en rythmant les
vies des individus, il est possible de situer cette surveillance des individus-travailleurs et ce
contrôle social au cœur de la vie quotidienne.
Plusieurs recherches Informatique et Société ont été consacrées à la surveillance au travail
227
. Des chercheurs de l’association Creis-Terminal ont mis à l’ordre du jour de colloques,
débats et publications, les questions de l’informatique au travail 228 (CREIS, 1981, 1984,
2004, 2007, Creis-Terminal, 2010, 2011, 2014, 2016, 2022), de l’informatisation du monde
du travail (Baron, Paoletti, Raynaud, 1993), de la surveillance et contrôle au travail (Paoletti,
2003), les problèmes de « respect de la vie privée et des libertés des travailleurs » (2003, p.
67), les fichiers d’embauche et de gestion du personnel (2003, p. 69). La surveillance et le
contrôle des activités et déplacements, au delà des badges professionnels, la
« cybersurveillance sur les lieux de travail » (2003, p.71), se sont accentués durant la décennie
2010, et début 2020 notamment avec le télétravail durant les confinements liés à la pandémie
(crise sanitaire Covid19). Les systèmes d’information dans le monde du travail 229
s’immiscent dans la vie des organisations, tel un dispositif de surveillance sans contrainte,
entrainant de nouvelles modalités au travail favorisant l’autonomie des collaborateurs sans
pour autant, contrairement aux discours sur les innovations numériques permettant une
organisation plus horizontale, réduire les rapports de force au sein des organisations visant
une surveillance permanente. Mais même si « l’employeur a le droit de contrôler le travail
226
Nous relevons également à ce titre : « L’humble événement de la vie quotidienne m’apparaît alors sous un double
aspect : petit fait individuel et accidentel – fait social infiniment complexe, et plus riche que les « essences » multiples qu’il
contient et enveloppe. Le phénomène social se définit par l’unité de ces deux aspects » (Lefèbvre, 1945-47/1958, p. 67).
227
La CNIL travaille sur la surveillance au travail, en 2019 : https://www.cnil.fr/fr/la-videosurveillance-videoprotection-au-
travail ; le télétravail durant la pandémie : https://www.cnil.fr/fr/covid-19-travail-et-teletravail ; droits et libertés numériques
au travail, 2020 : https://www.cnil.fr/fr/air2020-droits-et-libertes-numeriques-au-travail-realites-et-horizons
228
Colloques du CREIS en 1981 : « Informatique et conditions de travail » ; (à partir de 1999 colloques et journées d’étude)
2004 « Société de l’information, société de contrôle » https://www.lecreis.org/?p=188 ; 2007 « De l’insécurité numérique à la
vulnérabilité de la société » https://www.lecreis.org/?p=186 ; à partir de 2010 Creis-Terminal : « Les libertés à l’épreuve de
l’informatique. Fichage et contrôle social » https://www.lecreis.org/?p=180 ; 2011 « Le rôle de l’informatique et des TIC
dans les transformations des conditions de travail des salariés » https://www.lecreis.org/?p=175 ; 2014 « Données collectées,
disséminées, cachées – Quels traitements ? Quelles conséquences ? » https://www.lecreis.org/?p=2065 ; (à partir de 2015, fin
de l’alternance colloques/journées d’étude, pour n’organiser que des journées d’étude) 2016 « La transformation numérique
de l’entreprise du futur » https://www.lecreis.org/?p=2415 ; en 2022, introduction du format Débat, le premier portait sur
« Le télétravail en post-pandémie ? » https://www.lecreis.org/?p=3051
229
Voir le texte d’appel à articles de la revue Socio-anthropologie, n°47, « Numérique au travail, un moment politique »,
coordonné par des chercheurs en informatique « qui coaniment un groupe de recherche fortement pluridisciplinaire
(économie, gestion, informatique, droit, mathématiques, sociologie) » : https://journals.openedition.org/socio-anthropologie/
10986
52
effectué par le salarié, (…) le salarié a le droit au respect de sa vie privée (article 9 du Code
Civil) » 230. Ainsi, les travailleurs sont contrôlés pour une productivité au travail et dans le
même temps se sentent libérés de certaines contraintes au travail. Ce paradoxe peut « rendre
fou » selon Vincent de Gaulejac et Fabienne Hanique (2015), dans la mesure où la flexibilité
au travail, sous injonction, est permanente et inscrite dans un « capitalisme paradoxant » (de
Gaulejac et Hanique, 2015), puisque les discours managériaux valorisent l’empowerment des
collaborateurs grâce aux réseaux numériques. Mais ce pouvoir partagé est ambigu et semble
servir un sentiment d’autonomie pour donner aux salariés davantage de ressources surtout,
afin de leur permettre de servir les intérêts de l’entreprise. Donc s’il y a autonomie du salarié,
celle-ci est soumise à conditions, notamment de prendre en charge les outils de travail sous
surveillance.
Une autre manière d’analyser le travail et le numérique, sous l’appellation « digital labor » (y
compris dans les publications francophones), délimité par des services uberisés (voiture,
livraisons), le microtravail pour des plateformes, et des contenus produits par des internautes-
contributeurs qui reçoivent en retour quelques gratifications, consiste à développer une
posture critique à l’égard du travail « du clic » et avec les systèmes de l’IA (Casilli 2019) 231.
Si l’on retient selon Freitag (2010) que le travail est comme une dette des individus à l’égard
de la société qui les accueille, il semble acceptable d’être surveillés, mesurés au travail, à
distance ou non (ceci expliquerait l’acceptabilité sociale de la surveillance au travail). Les
plateformes collaboratives, hybrides aussi (autrement dit reliant l’interne et la distance),
peuvent représenter l’instrument-clé de la surveillance continue au travail. Dans le cadre du
développement de l’IA, les algorithmes sont entrainés avec toutes ces données (deep learning)
de travail, y compris donc pour ces nouveaux travailleurs du clic. Mais comme nous l’avons
déjà abordé, la surveillance n’est pas le fait que des entreprises aux stratégies managériales et
économiques sophistiquées, et de leurs technologies. Elle est au cœur de la société
technicienne.
Cette société technicienne prend place depuis les 18 ème et 19ème siècles marquant
l’individualisation des sociétés et la mise à distance de « la crainte du mal (qui) s’efface »
(Ellul, 1990, p.43), grâce à « l’amélioration des conditions de vie » (ibid, p.43) qui permet la
croyance en des applications de la science pour le bonheur et la justice. Dès lors « la mise en
ordre du monde » puise dans « l’évolution technique » et la « révolution industrielle » (ibid,
p.39), dans un « asservissement de la science à la technique » (ibid., p.42). Mumford déclare
en 1963 que « jusqu’à présent, confiants dans les principes optimistes de penseurs du dix-
neuvième siècle comme Auguste Comte et Herbert Spencer, nous avons vu le développement
de la science expérimentale et des inventions mécaniques comme le meilleur gage d’une
société industrielle pacifique, productive, et avant tout démocratique » (Mumford, 1963, p.
29) 232. Or, Mumford, qui poursuit avec l’enlisement du « bricolage 233 » (p.33) (participant de
ce qu’il envisage comme « technique démocratique »), analyse « la technique autoritaire (qui)
entreprend de nous dominer » (ibid, p. 32), et avec inquiétude déclare : « la vie ne se délègue
pas » (ibid, p. 33). En effet une tendance à la délégation aux machines existe face à la masse
de données à traiter pour travailler, à l’accélération des innovations permanentes
(obsolescence programmée), qui ne permet pas le temps de l’habitude, caractéristique de la
société technicienne : « Par la mécanisation, l’automatisation, l’organisation cybernétique,
230
https://www.lecreis.org/creis/wp-content/uploads/La-cybersurveillance-des-salari%C3%A9s_1110.pdf
231
Voir le site du chercheur : https://www.casilli.fr/tag/travail-du-clic/
232
Pagination depuis le Bulletin critique des sciences, des technologies et de la société industrielle : Notes & Morceaux
choisis n°11, printemps 2014, https://sniadecki.files.wordpress.com/2012/04/mumford_ums.pdf
233
Bricolage qu’aujourd’hui nous pensons en terme de « do it yourself » et fablab.
53
cette technique autoritaire a enfin réussi à surmonter ses faiblesses les plus graves : sa
dépendance originelle à l’égard de servomécanismes 234 résistants et parfois activement
indisciplinés, encore assez humains pour aspirer à des fins parfois contradictoires avec celles
du système » (ibid, p. 30).
234
Dispositif qui automatise des tâches à partir de commandes d’opérateurs ; ici Mumford évoque l’opérateur humain
(potentiellement résistant ou indiscipliné), dont le système dépend. La relation entre l’opérateur humain et la technique est à
la fois asservie et asservissante ; la technique est asservie par/dépend de l’opérateur ; la technique est asservissante quand
l’humain est au service de la « mégamachine » (terme de Mumford).
235
https://www.coe.int/fr/web/freedom-expression/internet-users-rights
54
intériorisent l’ordre institué, qui émet des injonctions. Dès lors, en ce qui concerne
l’informatisation de la société, existe une tension créativité démocratique et inéluctabilité
soutenues par les promesses d’hier (les autoroutes 236 puis la société de l’information 237) et
d’aujourd’hui (l’« industrie 4.0 ») 238, les technologies d’aujourd’hui (les réseaux numériques)
et de demain (l’IA). Ces croyances en l’inéluctable se déploient au moment où l’incertitude
provoque tant de régulations et cadres règlementaires. Le technologisme (Vitalis, 2007)
tendrait à exclure, par un « terrorisme technologique » (Ellul, 1988), les alternatives qui
pourtant existent (voir la conclusion de cette partie2).
L’inéluctabilité d’une société numérique draine les prescriptions qui n’apparaissent pas
comme des obligations dans la mesure où les usagers des réseaux se laissent porter par le
système d’automatisation qui a réduit l'intervention humaine à la performance tant technique
qu’humaine. En effet les techniques et outils informatiques permettent de traiter un nombre
considérable de données (big data) afin d’en tirer du sens et de l’exploiter. Cette société
numérique émane d’un long processus d’informatisation de la société jusqu’à penser les
sciences du numérique, qui selon l’INRIA regroupent « algorithmes, logiciels, modèles,
données …» 239. Il faut ajouter l’intelligence artificielle, au delà de la simulation des facultés
cognitives humaines, centrée sur le calcul et le traitement massif de données (datacenters)
pour la prédiction et le profilage, avec des algorithmes de machine learning (apprentissage
automatique supervisé ou non). L'Internet des objets (réseau pervasif) peut recouper ce
développement de l’IA afin de faire communiquer les données captées par les objets
connectés. Ainsi, infrastructures, protocoles, objets, traitements algorithmiques, données … ,
constituent les dispositifs pour penser l’informatisation intensive de la société inéluctable. Il
est donc compliqué de résister aux injonctions numériques face aux innovations permanentes,
et paradoxalement aisé de se laisser faire car dépassés par la complexité des technologies
informatiques invisibles ou miniaturisés implantées dans la vie quotidienne, avec un
consentement aux injonctions.
En amont de transformations profondes avec ces technologies, les transitions numériques qui
traversent les sociétés s’inscrivent dans un incertain provoquant un nombre considérable de
régulations et cadres règlementaires parallèlement à une revendication d’autonomie en
mobilité avec de multiples réseaux. Lois et régulations aménagent des institutions qui
délibèrent et structurent la société d’individus qui se donnent les moyens de s’autolimiter,
sans être soumis, mais ayant intériorisé une autorité qui dicte les agissements, avec des
libertés et des droits conquis et institués. L’équilibre pour maintenir la société n’empêche
cependant pas des rapports de pouvoirs inégaux d’une part et selon des règles imposées, voire
injonctions et sanctions pour maintenir l’ordre, afin d’éviter la mise en danger de la société,
les violences, déviances, guerres d’autre part. Dans la vie quotidienne, la vigilance face aux
injonctions, désormais algorithmiques, reste importante pour protéger des sphères d’activités
allant de la sphère privée à la sphère publique, en passant par la sphère professionnelle. La
sphère privée est menacée par l’absorption dans la sphère publique, rendue visible, autrement
dit des données privées sur des réseaux ouverts. La multiplicité des réseaux peut menacer les
libertés de leurs utilisateurs qui ne savent pas qui, comment et pourquoi les dispositifs
d’injonctions numériques sont conçus et réalisés. Certes la discussion argumentée se poursuit,
236
En 1994 : https://www.vie-publique.fr/rapport/28527-les-autoroutes-de-linformation
237
2003 et 2005 le sommet mondial sur la société de l’information : https://www.itu.int/net/wsis/index-fr.html ; En 2004 :
https://www.vie-publique.fr/rapport/26546-la-societe-de-linformation ; en 2018 le FGI à Paris évoque le sommet mondial sur
la société de l’information (SMSI) : https://www.gouvernement.fr/forum-sur-la-gouvernance-de-l-internet
238
https://www.gouvernement.fr/action/la-nouvelle-france-industrielle
239
Voir le site « piloté par INRIA » : https://interstices.info/ (https://interstices.info/qui-sommes-nous/)
55
dans une ambivalence entre circulation libre de la critique, dans un espace public fragmenté,
et technologies potentiellement aliénantes, car insaisissables avec l’enchevêtrement des
algorithmes. La délibération publique démocratique, y compris lors de sommets sur la société
de l’information et autres forums pour la gouvernance d’Internet semble se heurter à
l’imaginaire social pétri par la technique, via les terminaux et technologies de l’information et
de la communication.
Quand Cornélius Castoriadis rédige la « Technique » dans l’Encyclopedia Universalis en
1973 240, il aborde l’homo faber, les humains fabricants des outils qui sont ceux possédant « le
parler-penser », en citant Leroi-Gourhan 241. Il poursuit avec « l'énorme impact de la
technologie contemporaine sur l'homme concret (à la fois comme producteur et
consommateur), sur la nature (effets écologiques alarmants), sur la société et son organisation
(idéologie technocratique, cauchemar ou rêve paradisiaque d'une société cybernétisée), cette
préoccupation reste massivement marquée, au niveau sociologique, d'une duplicité profonde »
(1973). La facilité et l’émerveillement emprisonneraient « dans de nouvelles mythologies (les
« machines qui pensent » – ou « la pensée comme machine ») » et parallèlement
favoriseraient « une clameur qui monte contre la technique rendue soudain responsable de
tous les maux de l'humanité » (1973). André Vitalis (1988) pointe cette dualité avec une
approche socio-politique, avancée également par Castoriadis quand la technique sert aux
pouvoirs auxquels les individus se remettent pour négocier leurs attentes. Castoriadis accuse
« l'attitude globale à l'égard de la technique : la plupart du temps, l'opinion contemporaine,
courante ou savante, reste empêtrée dans l'antithèse de la technique comme pur instrument de
l'homme (peut-être mal utilisé actuellement) et de la technique comme facteur autonome,
fatalité ou « destin » (bénéfique ou maléfique) » (1973), sans mise en débat, mais en se
remettant au rythme effréné de mise en place des cadres règlementaires et régulations. Cette
multiplicité conduit à déléguer la responsabilité de la situation technicienne, tout en
intériorisant les injonctions qui mettent dans une disposition d’acceptabilité et de
renoncement au nom de la complexité technologique. Pour Jacques Ellul qui préface
l’ouvrage de André Vitalis (1988), la technique comporte sa propre idéologie et il semble sa
temporalité si on lit : « la technique a de même modifié le temps des hommes », sans s’en
rendre compte tant « nous sommes pénétrés par la technique » (Ellul, 1954/1990, p. 297).
Ellul renvoie aux « sonneries de l’Eglise » et aux horloges et indique l’horloge publique à la
fin du14ème siècle, époque à laquelle la mesure du temps ne sert que ponctuellement
(événements, besoins spécifiques). Puis « la vie même sera mesurée par la machine ». Ellul se
réfère à Mumford en pointant la montre comme « machine la plus importante de notre
civilisation … qui permet toute l’efficience par la rapidité et la coordination de tous les faits
de la vie quotidienne » » (Ellul, 1954/1990, p. 298). Les humains s’adaptent ainsi à leur
milieu rythmé par la technique, mais dans le temps court on passerait d’une « massification de
la société » à « l’homme des masses » (1954/1990, p. 301) ; autrement dit, il s’agit d’être en
accord avec les machines, un « genre de vie technicien », une assimilation pour éviter
« l’agression des techniques » (1954/1990, p. 300), puisque les « instruments que nous
possédons sont faits pour une masse » et que l’homme « appartient à la masse » (1954/1990,
p.303). L’homme est « menacé par ses propres découvertes » et celui « qui n’est plus en
mesure de dominer les puissances sera restauré dans sa grandeur par les techniques de
l’homme » (1954/1990, p. 304). Ellul envisageait déjà « un humanisme technique »
(1954/1990, p.305) et « l’homme … comme objet de technique » (1954/1990, p.307),
renvoyant aux analyses contemporaines sur les données massives à partir des usages sur les
240
« Technique » par Castoriadis, 1973 et 1978 : https://transecos.files.wordpress.com/2018/04/technique-par-cornelius-
castoriadis-1973.pdf
241
André Leroi-Gourhan, 1965, Le Geste et la Parole : la mémoire et les rythmes, Paris, Albin Michel et « Milieu et
technique », volume 2 de Evolution et technique, Paris, Albin Michel
56
réseaux numériques, réduisant les individus à des données. « Les méthodes métriques…
seules capables d’analyser et de prévoir en vue d’une action efficace » (Ellul, 1954/1990, p.
310), renvoient à l’intelligence artificielle contemporaine et la gouvernementalité
algorithmique. Il faut distinguer « l’individuel soumis au technique (la façon de travailler par
exemple) » (en somme ce qui restait indépendant de la technique : vie intérieure, vie familiale,
vie psychique), de « l’intégration totale » (ibid, p. 372), afin « de cerner maintenant ce qui, de
la personne, échappait encore. … Ce qui était de la vie privée doit être ordonnancée par des
techniques invisibles, mais aussi implacables parce que issues de la persuasion individuelle ».
Selon Ellul dès les années1950, l’homme est ainsi « entièrement soumis à la puissance
technique, (qu’il soit) l’objet de techniques dans toutes ses actions et ses pensées » (ibid, p.
373).
Tout en gardant à l’esprit que le monde est en prise avec la technique, il est proposé de
poursuivre cette analyse, qui peut laisser entendre que la technique détermine l’organisation
de la société, avec le travail, les activités de la vie quotidienne et l’administration, en avançant
le thème de la similitude à partir de la figure du Leviathan de Hobbes (1651/2000), qui
représente l’acteur dominant, ici le système technicien avec les réseaux numériques, les
algorithmes de recommandation, l’IA pour la prédiction et l’aide à la décision, et tout autre
dispositif prescriptif. Dès lors la diversité est modélisée et les usages numériques sont
similaires voire s’inscrivent dans une uniformisation des actions sur les plateformes et
applications ; la situation conduit à ne pas échapper aux réseaux, à la géolocalisation,
l’internet des objets. Cependant, le Leviathan informatique offre dans le même temps la
liberté d’information, de communication, de consommation…hors contraintes apparentes. Les
réseaux numériques peuvent représenter par similitudes une multitude d’acteurs humains et
non humains. Les similitudes sur ces territoires réticulaires, composés et recomposés,
génèrent des interactions qui conduisent à une hyperconnectivité, qui permet de s’en emparer
ou de s’égarer, d’agir ou d’être trompé. Penser les réseaux numériques comme territoires de
nombreuses activités sociales pose une interrogation quant à leurs similitudes orchestrées par
les traitements algorithmiques. Les plateformes en sont une des émanations, servant les
intérêts des acteurs dominants sur les réseaux numériques. Notre rapport aux objets et aux
autres est alors similaire dans la mesure où nous nous représentons les algorithmes comme
capables de traduire rapprochements et partage. De fait, les réseaux configurent nos
représentations par similarité. Pour autant, nombreux sont ceux qui souhaitent une réciprocité.
Si ce n’est pas le cas, cela aboutit à une fragmentation des relations, engouffrées dans les
réseaux. Si l’on se réfère à Paul Ricoeur (1991) pour saisir les rapports sociaux, la démocratie
se fonde sur la volonté de vivre ensemble nécessitant consensus qui génèrera des compromis
mais aussi des inégalités. Cette contradiction ontologique est au cœur des décisions humaines,
mais ce qui fait tenir une société à chaque époque, avec son environnement technique, repose
aussi sur des prises de pouvoir nécessitant la maîtrise de la technique, non pas seulement
comme milieu mais comme système. Ainsi, tombe la neutralité de la technique qui sert les
intérêts des pouvoirs ; les moulins au moyen âge, les machines industrielles au 19ème siècle, les
ordinateurs, les réseaux informatiques et les algorithmes aujourd’hui. Il en est de même pour
la critique, par exemple sur le thème de la pollution dès les années 1970 242, en cherchant à
engager l’impératif de la sobriété numérique. Nonobstant la créativité des humains peut
provoquer des transitions ; la transition numérique engage une transformation de la société,
qui elle-même engage une transformation de la technologie dans la société, selon un
développement continu servant la productivité, avec entre autres stratégies l’obsolescence
programmée.
242
En 2022, voir Journée d’étude Creis-Terminal du 9 juin 2022 : https://www.lecreis.org/?p=3060
57
La créativité engage des alternatives sociales, qui ne sont pas qu’utopies ancrées dans les
idéologies relatives aux actuelles technologies numériques réticulaires qui contribuent à
envisager la diversité des légitimités et pouvoirs (empowerment) des sujets sociaux ou
« individus sociaux pouvant … agir et penser de manière compatible, cohérente,
convergente », y compris en cas de conflit (Castoriadis, 1975, p. 528). L’emprise des
technologies sur les individus se poursuit et œuvre au niveau de la jouissance valorisant les
individus, face à eux-mêmes sans obligatoirement en tirer une force politique. Ils ressentent la
puissance d’embrasser, dans un imaginaire et un temps, la prolifération de contenus et
services sur les réseaux mondiaux. La croyance en une puissance instrumentale pour
« prendre part à l’action », et « devenir plus que de simples spectateurs » (Chomsky,
2002/2004, p. 32), sert à ne pas déranger ceux « capables de fabriquer le consentement »
(ibid, p. 33). La circulation des contenus, le renouvellement des expressions, la jouissance des
actes des utilisateurs des réseaux numériques, sont cependant bien réels. En conséquence, les
usages numériques participent d’une simulation de dialogue, entre pouvoir et commande. Les
injonctions comme le dialogue humain-machine, les contraintes relatives aux normes d’usages
peuvent constituer un simulacre d’autant plus convaincant que, sous l’effet des gestes de
l’utilisateur, l’exécution du programme semble instantanée (en termes de perception du
temps). Ces environnements réticulaires concourent à une appropriation en perpétuel
mouvement des technologies en permanente évolution. L’accélération avec le système
technique réduit l’action par la négociation des usages qui fait partie du renoncement
programmé, malgré le consentement éclairé. En fait, l’abandon est rapide tout en s’appuyant
sur la réglementation (RGPD) qui protège, ainsi les usagers renoncent par consentement en
vérité abandonné, avec quelques négociations au cœur de la folie technicienne, régulée. Le
concept de renoncement négocié considère l’ambivalence d’usages informatiques et
numériques, autrement dit une acceptabilité sociale de l’informatisation de toutes activités
dans la société, tout en développant une posture réflexive (notamment connaissances des
droits à la protection des données personnelles, dans le cadre règlementaire Informatique et
Libertés, et du RGPD) sur les usages sous surveillance, un des thèmes majeurs dans le champ
de recherche Informatique et Société, comme abordé dans ce rapport. Ce renoncement
négocié ne signifie pas la fin de l’espace public, lieu emblématique de la démocratie où « des
individus se fondent en public par l’usage qu’ils font collectivement de la raison » (Habermas,
1978), et se donnent des lois qui les gouvernent et auxquelles ils se soumettent, avec raison.
Pour autant les technologies numériques comportent des risques pour les libertés mais aussi
pour la planète (le réchauffement climatique). D’un contrat social pour rendre les individus
libres, à leur contrôle via la gouvernementalité algorithmique qui les contraint, des
alternatives sociales existent, dont l’autodetermination informationnelle, selon un modèle
relatif à l’autonomisation sociale qui renouvelle la protection des données personnelles.
D’autres alternatives mises en place sont abordées en conclusion de cette partie 2, mais leur
visibilité est moins importante que les offres fondées sur l’économie de l’attention et de
l’exploitation des données, par exemple des outils sur Internet pour contourner la captation
permanente des données, peu mobilisés.
243
La campagne publicitaire de l’entreprise Qwant, en juillet 2022 s’appuie sur la promotion de la non traçabilité, de la
protection de la vie privée.
58
Alternatives et recherche engagée
La dialectique domination/émancipation est riche d’enseignements, aussi importe-t-il de
conclure cette partie relative aux problématiques Informatique et Société sur les possibilités
de contester, voire s’extirper de la surveillance généralisée, en retenant que l’émancipation
« commence quand on remet en question l’opposition entre regarder et agir, quand on
comprend que les évidences qui structurent ainsi les rapports du dire, du voir et du faire
appartiennent elles-mêmes à la structure de la domination et de la sujétion » (Rancière, 2008,
p. 19). Cela peut aller jusqu’à « la contestation des dogmes » (Mattelart, 2007, p. 238), quand
il s’agit de critiquer 244 « l’ordre sécuritaire », et le contrôle social. La critique peut se
concentrer sur des éléments précis, comme le « verrouillage technique » (Matos, 2022, p.344)
des « dispositifs sociotechniques » (p.345), aussi une question se pose : « Est-il possible de
démocratiser la technique ? Feenberg avance l’idée selon laquelle « les nouvelles technologies
peuvent être utilisées pour saper la hiérarchie sociale existante ou pour l’obliger à reconnaître
des besoins ignorés jusque-là » (Feenberg, 2004, p. 46, cité par Matos, 2022, p. 345). Pour
poursuivre avec la revendication d’une alternative aux verrouillage et enclosures : « Le code
technique est flexible et changeable ; donc, un processus démocratique de conception du code
technique rendrait les technologies adoptées plus inclusives et bien adaptées aux besoins
sociaux. La rationalisation démocratique consisterait, ainsi, en une réforme ou encore en une
politique technologique réformée rejetant la fausse apparence de l’autonomie de la sphère
technique et privilégiant la participation et l’intervention publiques » (Matos, 2022, p. 345).
En 2014, Feenberg valorise l’appropriation d’Internet comme espace d’actions :
« Des militants en tous genres ont su exploiter le potentiel de l’Internet pour favoriser la discussion et
l’intervention. La capacité d’agir – une manière brève de définir l’agency – a été renforcée par la
disponibilité de nouveaux moyens techniques qui, bien que n’étant pas originellement destinés à ces
usages, ont été adaptés pour ces fins nouvelles. Ces nouvelles formes de politique en ligne ne peuvent pas
remplacer les modes de représentation traditionnelle, mais leur existence signifie que l’activité dans
l’espace public peut maintenant s’élargir pour intégrer des questions techniques auparavant considérées
comme neutres et laissées sans aucune consultation à la discrétion des experts. Cela crée un
environnement social et technique dans lequel l’agency dans les domaines politiques traditionnels a
également commencé à se libérer de la passivité induite par des décennies d’un régime régulier de
radiodiffusion » (Feenberg, 2014, §39 en ligne).
La capacité d’agir (l’« agency » de Feenberg) peut conduire à l’action sur les réseaux,
comme les mobilisations contestataires 245, avec organisations et intérêts différenciés, avec ou
sans stratégie. Mais contestation n’est pas subversion allant jusqu’à des innovations, comme
par exemple le p2p 246, la blockchain, le darknet, qui exigent un capital culturel (compétences
informatiques), et qui s’inscrivent dans le champ (Bourdieu, 1980b) Internet, avec des
frontières établies par des acteurs politiques (Etats) et économiques (GAFAM, FAI), dont les
dominations, qui établissent des règles du jeu, conduisent à exclure (y compris en partie la
capacité répressive des Etats) ou inclure par exploitation des innovations techniques (comme
la blockchain) pour maintenir leur distribution. Certes, certains acteurs de la contestation
peuvent maintenir la subversion, par exemple en restant caché à l’heure de la surveillance
244
(Mattelart, 2007, p. 247) va jusqu’à titrer dans sa bibliographie une entrée : « Résistances ».
245
Voir la sociologie des mouvements sociaux, y compris sur le renouvellement de l'action collective sur Internet. Voir
Fabien Granjon, 2018, « Mouvements sociaux, espaces publics et usages d’internet », Pouvoirs, 1, n° 164, pp. 31-47, https://
www.cairn.info/revue-pouvoirs-2018-1-page-31.htm ; Dominique Boullier, 2012, « Plates-formes de réseaux sociaux et
répertoires d’action collective », Colloque « Mouvements sociaux en ligne face aux mutations socio politiques et au
processus de transition démocratique », pp.37-50, https://hal-sciencespo.archives-ouvertes.fr/hal-00972856/document ; Erik
Neveu, 2010, « Médias et protestation collective », in Olivier Fillieule, Eric Agrikolianski, Isabelle Sommier, Penser les
Mouvements Sociaux. Conflits sociaux et contestation dans les sociétés contemporaines, Paris, La Découverte, coll.
recherches, pp.245-264, https://www.cairn.info/penser-les-mouvements-sociaux--9782707156570-page-245.htm
246
Peer to peer, pair à pair, condamné (Hadopi, https://www.culture.gouv.fr/Thematiques/Industries-culturelles-et-creatives/
Dossiers-thematiques/La-Haute-Autorite-pour-la-diffusion-des-aeuvres-et-la-protection-des-droits-sur-Internet-HADOPI),
bien que la proposition technologique en elle-même ne relève pas de pratiques illégales (Vidal, Mabillot, 2004).
59
continue en ligne, mais sans subvertir le modèle dominant lui-même. Ainsi les technologies
informatiques continuent de tracer, traiter des données massives et exploiter de la même
manière subordination et subversion.
La théorie de l’action (Bourdieu, 1994) permet de saisir le sens pratique des agents, leurs
dispositions (selon un déterminisme social), et les comportements conformes et cohérents
provenant des expériences sociales (habitus), selon les groupes d’individus dotés de capitaux
culturel, économique, social, symbolique, cherchant à maintenir leurs positions respectives,
dans une reproduction sociale. Pour compléter le cadre des alternatives potentielles à
l’inéluctable informatisation de la société, il est intéressant de cerner le concept
d’engagement de (Becker, 1960/2006), qui présente deux axes ; quand les individus agissent
de manière cohérente, dans le cadre de règles sociales, et de déviances (Becker, 1985/2020),
tels que le piratage informatique, le p2p, et quand ils établissent des lignes d’action dans
l’espace public, comme celles relatives à la critique de la surveillance numérique.
L’engagement peut recouper le concept de champ de Pierre Bourdieu (sociologie
structuraliste, sans négliger les discours des agents, leur subjectivité) pour considérer, selon
une toute autre approche sociologique que celle de Howard Becker (interactionnisme,
pragmatisme, Ecole de Chicago) le champ des prises de position et le champ des positions
sociales. La prise de position est à relier à la position sociale à maintenir (Bourdieu, 1979), y
compris à partir des déviances/subversions, selon la théorie de l’action de Bourdieu (1994)
éclairante pour cerner les implications des individus dans la société, confirmant ou non une
position sociale, avec un conditionnement des comportements, pouvant cependant être
transformés. L’engagement pour des valeurs socialement acceptées, telles que la protection
des données personnelles et de la vie privée, légitime les alternatives qui permettent
d’exprimer ces valeurs (par des collectifs et associations) ou des alertes médiatisées (lanceurs
d’alertes). Becker (2016) propose des termes qui gravitent autour de l’engagement :
« implication » (involvment), « attachement » (attachment), « vocation » (vocation),
« obligation » (obligation), ajoutons la participation : « l’individu choisira les alternatives qui
sont cohérentes avec une telle posture axiologique basique et logiquement déductibles de
celle-ci » (Becker, 2006, §14 en ligne).
À l’heure du déclin, annoncé depuis des décennies, de l’engagement politique (Perrineau,
1994) : entre transformation et lassitude, des innovations sociales sont possibles. Autant il est
difficile de se fier à la cohérence des comportements, à la stabilité de ces derniers : « la
personne est susceptible de s'être comportée d'une telle manière (« s'être engagée ») ou d'être
dans un tel état (« être engagée ») » ce n’est pas pour autant « qu'elle va dorénavant suivre
une trajectoire cohérente » (Becker, 2006, en ligne §16), autant il est aisé d’envisager la
continuité de la captation des données, qui doit être massive pour les machines apprenantes,
afin de prédire et orienter les usages et comportements. Cependant, l’engagement, pour
s’opposer, contester, élaborer des alternatives aux dominations dans le contexte de
l’informatisation de la société, peut se déployer en recherche dans le champ Informatique et
Société, revendiqué comme tel ou non.
247
Comme nous le voyons ensuite avec les Science, Technologie et Société ou Science and Technology Studies (STS) :
« relation particulière entre champ académique des STS et sphère militante », in Renaud Debailly, Mathieu Quet, 2017,
« Passer les Science & Technology Studies en revue-s. Une cartographie du champ par ses périodiques », Zilsel, 1, n° 1, pp.
23-53, https://www.cairn.info/revue-zilsel-2017-1-page-23.htm, §22 en ligne et note 7 : https://www.cairn.info/revue-zilsel-
2017-1-page-23.htm#no7. Voir également le magazine (devenu ensuite revue) « Terminal est né sous des couleurs
militantes », https://www.revue-terminal.org/articles/93_94/ArticleN93-94P49-54.pdf
248
Voir le guide du CECIL (Centre d'Études sur la Citoyenneté, l'Informatisation et les Libertés) présentant plusieurs outils
alternatifs sur Internet pour contourner la captation permanente des données. « Guide de Survie à destination des aventuriers
60
recherche critique engagée. Du reste, des publications scientifiques, dont quelques-unes sont
citées dans ce rapport, emploient un registre pouvant relever de ce type de démarche : lutter,
contrôler les contrôleurs, protéger contre les abus, contre des technologies liberticides …
Shoshana Zuboff (2019/2022) par exemple s’adresse aux lecteurs, sur le site de l’éditeur
Zulma de son ouvrage L’âge du capitalisme de surveillance, avec un ton engagé dans un
combat : « Si nous voulons combattre cette créature avec quelque espérance de succès, il nous
faut la connaître en profondeur…. Mon espoir est que cet essai contribue au renforcement de
votre compréhension et de votre pouvoir » 249.
Des blogs de chercheurs (par exemple ceux de Stéphane Bortzmeyer 250, Antonio Casilli 251,
Olivier Ertzscheid 252, David Fayon253 ) peuvent jouer un rôle d’éclairage, servant recherche mais
aussi vigilance pour des étudiants et utilisateurs curieux.
Des chercheurs et enseignants avec d’autres acteurs dans l’espace public engagent de façon
fondée une communication avec des députés, une démarche didactique pour une transmission de
savoirs 254. Un pas de côté (par rapport à la recherche) de leur part peut être engagé pour
dénoncer, de façon argumentée, des dérives et risques 255, d’ailleurs l’approche critique se retrouve
aussi dans des titres de colloques comme celui relatif à la recherche ANR « ResisTIC » 256 :
« Critiques et contournements des contrôles et de la surveillance sur internet » (31 mars-1er avril
2022 Campus Condorcet, France). Certains sont missionnés ou consultés en tant que scientifiques
dans le cadre d’études pour des décideurs politiques 257 ou une autorité 258.
Une autre démarche qui exige des connaissances scientifiques et techniques concerne la rétro-
ingénierie, qui peut mettre à l’épreuve des algorithmes 259 afin de saisir leur opacité, démarche
complétée par de complexes audits d’algorithmes 260. L’expérimentation, de la part de
chercheurs, de traçabilités sur les réseaux, de darknet, et autres pratiques alternatives dans des
d’Internet » avec fiches pratiques « pour réduire les risques liés à la surveillance étatique, commerciale ou de pirates » :
https://www.lecreis.org/?p=2815
249
https://www.zulma.fr/wp-content/uploads/extrait-572196extrait_sitepdf-1.pdf
250
https://www.bortzmeyer.org/
251
https://www.casilli.fr/il-blog/
252
https://affordance.typepad.com/
253
Professionnel-chercheur, responsable écosystèmes innovation à La Poste, Docteur en Sciences de Gestion de Télécom
ParisTech et de l’Université de Paris Saclay et PhD, IAE de Paris (business school de Paris1), Université Paris VI, ENSPTT
(Ecole nationale supérieure des postes et télécommunications) : https://davidfayon.fr/
254
Par exemple avec une revue « EpiNet » : « Depuis sa création en 1971, l'EPI (association Enseignement Public et
Informatique) accompagne le développement de l'informatique pédagogique dans le système éducatif »
https://www.epi.asso.fr/accueil.htm ; https://www.epi.asso.fr/epinet.htm ; ou en écrivant à un/e ministre :
https://www.enseignerlinformatique.org/2022/05/20/lettre-au-prochain-ministre/
255
L’OLN, observatoire des libertés et du numérique, rassemblant des enseignants-chercheurs, chercheurs, associations,
syndicats, https://www.ldh-france.org/Creation-de-l-Observatoire-des/
256
Nous retrouvons des intervenants du CIS-CNRS, dont les recherches sont revendiquées STS (voir par exemple :
https://journals.openedition.org/traces/8419), https://cis.cnrs.fr/resistic/ ; https://www.resistic.fr/
257
Ou des décideurs politiques, ou proche de ces derniers, comme Tristan Nitot, un ancien membre du Conseil National du
Numérique (2013-2015 ; https://cnnumerique.fr/le-conseil/missions), depuis 2016 membre du comité de prospective de la
CNIL, peuvent aussi s’engager dans la rédaction de l’analyse : surveillance:// Les libertés au défi du numérique : comprendre
et agir, 2016, Caen, C&F éditions, Blogollection, afin de proposer de « défendre les libertés dans un monde numérique ».
258
Par exemple André Vitalis a été consultant auprès de la Commission nationale de l’informatique et des libertés
(1987/1994), du Conseil de l’Europe (1995/1996) et du Commissariat général au plan (1998/1999) : https://mica.u-bordeaux-
montaigne.fr/andre-vitalis/ ; ou le rapport de mission Villani sur l’intelligence artificielle : https://www.intelligence-
artificielle.gouv.fr/fr/strategie-nationale/la-mission-villani, ou encore des chercheurs auditionnés pour ce rapport de 2021 sur
la souveraineté numérique nationale et européenne :
https://www.assemblee-nationale.fr/dyn/15/rapports/souvnum/l15b4299-t1_rapport-information
259
Olivier Le Deuff et Rayya Roumanos, 2021/2022, « Enjeux définitionnels et scientifiques de la littératie algorithmique :
entre mécanologie et rétro-ingénierie documentaire », tic&société, vol. 15, n° 1-2, http://journals.openedition.org/ticetsociete/
7105
260
Voir notamment page 58 : https://www.cnil.fr/sites/default/files/atoms/files/cnil_rapport_garder_la_main_web.pdf
61
réseaux et communautés d’utilisateurs dotés d’une culture informatique et Informatique et
Libertés ouvrant sur des actions en ligne et dans la société comme par exemple auprès de députés
pour des lois en cours, est une posture critique également.
Le polytechnicien, informaticien Louis Pouzin, ayant œuvré dans les années 1970 pour le
réseau Cyclades, et contribué au développement des réseaux à commutation de paquets, base
du double protocole Internet TCP-IP, envisage et explore un modèle alternatif avec une
nouvelle architecture réseau intitulée RIANA 261 (Recursive Internetwork Architecture) 262.
62
champ de recherche, ou domaine267 critique des sciences 268. L’intitulé même, STS pour
Sciences Technologies et Société, également envisagé Science & Technology Studies,
présente des enjeux épistémologiques stimulants pour la poursuite de la recherche en
Informatique et Société. En effet, la version française de l’intitulé marque une façon
d’envisager les travaux sur les enjeux sociaux, politiques et culturels des sciences et
technologies, dans une veine sociologie des sciences, alors que la version anglaise marque la
démultiplication des studies269 (des Internet studies 270 aux surveillance studies, plateform
studies 271, AI studies 272…). Les STS constituent un champ de recherche interdisciplinaire
pour analyser l’informatisation de la société, au carrefour de disciplines qui prennent pour
objet les sciences et les techniques. Mais les STS en tant que champ ou domaine de recherche
connaît une expérience institutionnelle avec des formations qui ne sont pas clairement
nommées STS 273, et des revues 274 à partir des années 1960, dont le magazine Pandore en
France à partir de 1979 275, interrompu en 1983. Les STS ont tôt avancé en mode collectif,
pour l’interdisciplinarité nécessaire afin d’étudier les sciences et techniques, mais aussi pour
des revendications, telles qu’on peut les relever dans Pandore 276, par exemple : interroger les
groupes industriels, les « impacts sociaux », la production des connaissances, les discours
scientifiques, les technologies militaires/armement nucléaire/« système scientifico-militaro-
industriel », le statut de chercheur (« instatut »), les systèmes d’information automatisés en
critique de l’approche normative des sciences ou des techniques ». Il faut ajouter la « méfiance » à l’égard de la « réflexion
critique » et « l’insuffisante participation des chercheurs en sciences exactes » (§29), voir « le programme STS » §22
https://journals.openedition.org/hrc/1084?lang=en#tocto2n4 : Catherine Vilkas, 2015, « La politique scientifique du CNRS
pour la « recherche sur la recherche », Histoire de la recherche contemporaine, Tome IV-n°2, pp.118-130,
http://journals.openedition.org/hrc/1084
267
Ou « un ensemble hétérogène » : voir (Vinck, 2016, §40 en ligne) : https://journals.openedition.org/sociologies/5248?
lang=fr
268
Nous faisons l’hypothèse que l’institutionnalisation ou la reconnaissance institutionnelle des STS en France recoupe la
volonté politique d’une part du développement de l’interdisciplinarité et d’autre part de l’utilité sociale de la science : « le
domaine STS par rapport à la double question de la politisation de la science et de l’utilité sociale des STS » §7 en ligne :
https://www.cairn.info/revue-zilsel-2017-1-page-23.htm ; voir également présentation du programme « Science avec et pour
la société » : https://www.horizon2020.gouv.fr/cid74429/science-avec-pour-societe.html ; présentation par le Ministère
français de l’Enseignement supérieur et la Recherche : https://www.enseignementsup-recherche.gouv.fr/fr/science-avec-et-
pour-la-societe-les-mesures-issues-de-la-lpr-49218
269
Comme si tous chercheurs pouvaient engager tous types d’études des enjeux sociaux des sciences et techniques, en
appliquant « studies » à l’objet d’étude ciblé ; ouvrant sur une autre manière de penser les sciences sociales (voir Vinck,
2016, https://journals.openedition.org/sociologies/5248?lang=fr#tocto1n8).
270
Francesca Musiani, 2020, « Science and Technology Studies Approaches to Internet Governance: Controversies and
Infrastructures as Internet Politics », in Laura DeNardis, Derrick L. Cogburn, Nanette S. Levinson, Francesca Musiani (eds.),
Researching Internet Governance: Methods, Frameworks, Futures, The MIT Press, pp.85-104, https://hal.archives-
ouvertes.fr/hal-03021148/document
271
https://mitpress.mit.edu/books/series/platform-studies
272
https://www.ai-studies.com/
273
En France, Pandore n°16, décembre 1981, pp. 66-68 : à l’Ecole nationale des Ponts et Chaussées, l’« Enseignement
S.T.S. » est composé de programmes de « cycles de conférences, travaux personnels d’étudiants » et « une activité de
recherche « Technique et Société ». De nos jours, en Belgique https://www.spiral.uliege.be/cms/c_4089568/fr/spiral-master-
sts ; à Harvard https://sts.hks.harvard.edu/about/whatissts.html
274
Renaud Debailly, Mathieu Quet, 2017, « Passer les Science & Technology Studies en revue-s. Une cartographie du champ
par ses périodiques », Zilsel, 1, n° 1, pp. 23-53, https://www.cairn.info/revue-zilsel-2017-1-page-23.htm Voir également :
https://sciencetechnologystudies.journal.fi/about
275
Non pas revue mais « bulletin de liaison écrit par ses auteurs-lecteurs », un bimestriel envoyé à plusieurs centaines « de
personnes intéressées par les problèmes de Science Technologie et Société » (700 en décembre 1981, n°16, p.2), avec à
l’époque le soutien du CNRS et la MSH de Paris.
276
Pandore http://science-societe.fr/pandore/, cf programme STS au CNRS, puis CESTA 1983-1988 (Centre d’étude des
systèmes et technologies avancés), voir :
https://data.bnf.fr/fr/11862711/centre_d_etudes_des_systemes_et_des_technologies_avancees_france/
63
droit 277, l’enseignement de l’histoire des sciences, les sciences et transferts de technologie,
l’épistémologie STS, l’informatisation (1982, n°17, pp. 37-40)…
En 2022, un collectif d’auteurs s’est attribué un nom qui renvoie à une posture critique :
« marcuse » pour mouvement autonome de réflexion critique à l’usage des survivants de
l’économie, renvoyant au nom de l’auteur critique Herbert Marcuse. Deux contributions avec
ce nom d’auteur en collectif visent des analyses critiques : « De la misère humaine en milieu
publicitaire. Comment le monde se meurt de notre mode de vie », 2004 278. « La liberté dans le
coma : essai sur l'identification électronique et les motifs de s'y opposer », 2012/2019,
éditions Paris, La Lenteur
« Considérer la surveillance comme un aspect négatif mais contingent des Nouvelles technologies de
l'information et de la communication est absurde. À partir du moment où l'ensemble de nos activités sont
informatisées, il y a beaucoup plus d'informations sur nous et elles ne peuvent jamais dans leur totalité
être effacées, rendues anonymes ou inutilisables. … La vie privée n'est pas mise en danger par les
«dérives» d'Internet, elle est déjà en lambeaux, mise à sac par les assauts répétés de la société moderne au
nom de la prospérité économique et de l'impératif d'élévation du niveau de vie. La surveillance,
mercantile ou policière, résulte du choix collectif d'un mode de vie irresponsable. Elle est inévitable tant
que les individus accepteront que des organisations géantes administrent leur existence » 279.
Des enseignants-chercheurs avec des étudiants engagent par ailleurs des travaux sur les
controverses cartographiées pour identifier actions dans l’espace public, les mises en débat.
Le cas du médialab de science po Paris est à signaler quand par exemple les étudiants avec
leurs enseignants avancent les thèmes des données et de la « citoyenneté éclairée 280.
Tous les arguments et discours de contre-pouvoir peuvent être surveillés et récupérés par les
acteurs des pouvoirs discutés, pour en tirer des injonctions qui n’en paraissent pas dans la
mesure où la liberté est connue, rejoignant la réflexion de Shoshanna Zuboff (2019/2022) qui
considère ce phénomène dans le cadre d’un « capitalisme de surveillance ». La récupération
de la critique et de la créativité critique affaiblit les contre-pouvoirs relevant de la
démocratie. Les espaces publics alternatifs confirment des identités multiples, mais ne
rejoignent pas obligatoirement la délibération. Cependant il arrive que des débats en marge de
ceux dominants parviennent à retenir l’attention, participant de la transformation lente de la
société, par une réflexivité critique à l’égard des institutions qui règlent la vie de tant
d’individus. L’émancipation des pouvoirs qui dictent ce processus de l’informatisation sociale
est possible « en voyant dans la démocratie, non pas un simple mode de gestion du conflit
277
Danièle Bourcier, in Pandore n°21, 1982, p. 84 ; l’informatique dans la conception et l’application du droit
278
https://www.editionsladecouverte.fr/de_la_misere_humaine_en_milieu_publicitaire-9782707164575
279
Voir sur le site : https://www.decitre.fr/livres/la-liberte-dans-le-coma-9782954069616.html#resume
280
https://medialab.sciencespo.fr/activites/forccast/ ; https://medialab.sciencespo.fr/productions/2019-03-29-representer-les-
donnees-pour-une-citoyennete-eclairee-robin-de-mourat/
64
inhérent au social, mais la forme même de la politique, qui est inséparable du projet
d’autonomie » (Poirier, 2009, §3 en ligne).
65
La CNIL vise par exemple la mise en responsabilité des plateformes numériques au regard
des risques pour les utilisateurs dans un contexte de diffusion de contenus pouvant être
illicites, également de restrictions d’accès, d’incompréhension des critères et modalités de
calculs. En 2020, le Conseil Constitutionnel a jugé par sa décision « pour la première fois,
qu'est garanti par l'article 15 de la Déclaration des droits de l'homme et du citoyen de 1789 le
droit d'accès aux documents administratifs. Il est loisible au législateur d'apporter à ce droit
des limitations liées à des exigences constitutionnelles ou justifiées par l'intérêt général, à la
condition qu'il n'en résulte pas d'atteintes disproportionnées au regard de l'objectif poursuivi »
285
.
Mais, à l’heure d’une justice prédictive 286, les chercheurs mettent en doute stimulant la
réflexion sur l’informatisation de la société. Comme Danièle Bourcier (écouter témoignage)
l’avance dès 2011 287, il convient de se demander « si les logiciels de décision, à base de
règles ou à base de cas, sont capables techniquement de simuler la décision juridique. … si
ces logiciels ont la possibilité juridique et éthique de le faire », en avançant : « la conclusion
la plus raisonnable est de réaffirmer la spécificité humaine de l’activité de décision pour
penser les limites de la machine à juger ». Et en 2018 288, Danièle Bourcier va jusqu’à rejeter
le deep learning dans le domaine juridique.
Des alternatives juridiques issues d’une initiative lancée aux États-Unis notamment par
Lawrence Lessig 289 de la Stanford Law School, vise à proposer une alternative légale aux
personnes souhaitant libérer leurs œuvres du droit de la propriété intellectuelle. Ces licences
CC ont été transposées en droits nationaux via des chapitres nationaux 290. Danièle Bourcier 291
a transposé en droit français les Creative Commons et participe activement au mouvement des
Creative Commons (CC) dès 2001. Directrice de recherche au CNRS et responsable du
chapitre France des Creative Commons, créé en 2003, elle soutient que les Creative Commons
(CC) rejoignent l’esprit des communs, ressources partagées et gérées par une communauté.
Tout comme les créateurs des logiciels libres au début des années 1980 (avec le projet GNU
292
), il s’agit d’encourager de manière licite la circulation des œuvres, l’échange et la créativité
(voir également Le Crosnier, 2018).
La constatation des limites de l’approche exclusivement répressive par la loi , et des analyses de
la régulation et de la gouvernance d’Internet peuvent donner lieu à des initiatives comme
« techplomate » 293, néologisme pour technologies et diplomate, afin d’engager une autre façon de
285
Décision n° 2020-834 QPC du 3/04/2020 - Communiqué de presse :
https://www.conseil-constitutionnel.fr/actualites/communique/decision-n-2020-834-qpc-du-3-avril-2020-communique-de-
presse
286
Christian Licoppe, Laurence Dumoulin, 2019, « Le travail des juges et les algorithmes de traitement de la jurisprudence.
Premières analyses d’une expérimentation de « justice prédictive » en France », Droit et société, 3, n° 103, pp. 535-554,
https://www.cairn.info/revue-droit-et-societe-2019-3-page-535.htm
287
Danièle Bourcier, 2011, « L’acte de juger est-il modélisable ? De la logique à la justice », in L’e-justice, Archives de
philosophie du droit, t. 54, pp. 37-53
288
http://assaslegalinnovation.com/2018/05/09/interview-9-daniele-bourcier/
289
Lawrence Lessig, 2000, « Code is Law. On Liberty in Cyberspace », Harvard Magazine. 1er janvier 2000,
https://www.harvardmagazine.com/2000/01/code-is-law-html ; L. Lessing, Code is Law. On Liberty in Cyberspace, Basic
Book, 1999
290
Le chapitre français : https://creativecommons.org/licenses/?lang=fr-FR
291
CNRS-CERSA (centre d’étude et de recherche de science administrative), Creative Commons France .
www.fr.creativecommons.org
292
https://www.gnu.org/philosophy/free-software-intro.fr.html
293
11/03/2018 : https://usbeketrica.com/fr/article/on-a-rencontre-casper-klynge-ambassadeur-aupres-des-gafa
19/06/2017 : https://www.numerama.com/tech/268430-techplomate-le-danemark-traite-desormais-avec-les-geants-du-web-
comme-avec-des-etats.html
66
mobiliser la diplomatie avec les GAFAM 294. Des acteurs historiques de l’Internet et de sa
gouvernance affirment des positions, comme Tim Berners-Lee, inventeur de l’HTML, inquiet
295
; le W3C recommandant le protocole ActivityPub 296 pour l’interopérabilité entre des
réseaux sociaux décentralisés, pour une alternative ouverte. Le Forum de la gouvernance
internet FGI (où les parties-prenantes positionnent leurs intérêts (entreprises, Etats, UE,
marques)) prône « plus d’ouverture et d’inclusif » 297.
Enfin, former et renforcer la culture numérique, pour dépasser la culture du clic sans
connaître les rouages informatiques qui supportent les interfaces, jusqu’à déployer une culture
informatique, semblent indispensable pour envisager réellement possibles le consentement
éclairé, l’autodétermination informationnelle, voire l’autoprotection de ses données. Des
contributions dans ce sens sont déjà mises en place avec des journées d’étude ouvertes à tous
par Creis-Terminal, des séminaires tels que ceux 298 de Claire Levallois-Barth 299, enseignante-
chercheure en droit à Télécom Paris, grande école de l’Institut Mines-Télécom (IMT) et de
l’Institut Polytechnique de Paris, coordinatrice de la Chaire Valeurs et Politiques des
Informations Personnelles 300. Ces séminaires s’adressent en premier lieu à de jeunes
ingénieurs prêts à contribuer au développement des technologies mises en débat.
L’enseignement Informatique et Société ou, si celui-ci ne prend pas place avec cet intitulé,
la formation permettant l’ouverture des sciences et techniques en termes d’enjeux techniques,
sociaux, politiques et culturels, fournit des moyens de développer une posture critique et
analytique, afin de ne pas uniquement se fier aux bonnes pratiques, à l’éthique et au
paradigme législatif, incontournables néanmoins. En effet, la limite des contournements et
tactiques concerne le fait que la négociation est au coeur du renoncement, sans parler des
alternatives qui font l’objet d’une exploitation en faisant valoir le prétendu pouvoir de
consentir 301. Or le consentement ne peut être le seul et unique rempart contre les menaces
liberticides, d’autant plus que l’accès aux services ou contenus exige de céder, donc consentir,
294
Cette alternative (la techplomatie) serait-elle fondée sur la théorie de l’agir communicationnel de Habermas (1987) ?
Notamment si l’on se réfère à la raison communicationnelle permettant de viser consensus, accords, pour sortir de la seule
voie législative et des sanctions, qui ne semblent aucunement modifier les pratiques des géants de l’Internet.
295
Voir : https://home.cern/fr/science/computing/birth-web ; https://www.radiofrance.fr/franceculture/tim-berners-lee-le-
genie-inventeur-du-web-6745840 ; https://web.developpez.com/actu/334636/Tim-Berners-Lee-l-inventeur-du-Web-oubliez-
le-Web3-mon-Internet-decentralise-n-a-pas-besoin-de-blockchain-il-a-declare-que-le-Web3-contraste-avec-ses-plans-pour-
un-nouveau-Web/
296
https://www.w3.org/TR/activitypub/
297
https://www.igf-france.fr/ 2022, à Montréal 2024 https://equalit.ie/fr/fgi-montreal-2024/
298
https://cvpip.wp.imt.fr/category/seminaires/ ; « La Chaire se propose d’aider les entreprises, les citoyens et les pouvoirs
publics dans leurs réflexions sur la collecte, l’utilisation et le partage des informations personnelles, …(leur vie privée, leurs
activités professionnelles, leurs identités numériques, leurs contributions sur les réseaux sociaux, etc.) incluant celles
collectées par les objets communicants qui les entourent (smartphones, compteurs intelligents, etc.). »
299
Claire Levallois-Barth est responsable de l’axe 5 Protection des données personnelles impliquées dans le véhicule
connecté de la Chaire Connected Cars & Cyber Security (C3S) de Télécom Paris. Elle est membre du Comité national pilote
d’éthique du numérique (CNPEN), du Data Privacy Expert Panel d’AXA, du Comité d’éthique sur l’intelligence artificielle
de Pôle Emploi et du Comité éthique de la Data et de l’IA d’Orange. De fait, ces séminaires et conseils sensibilisent des
professionnels au cœur des développements informatiques.
300
https://cvpip.wp.imt.fr/axes-de-recherche/ ; Chaire Valeurs et Politiques des Information Personnelles, Signes de
confiance – l’impact des labels sur la gestion des données personnelles coordonné par Claire Levallois-Barth (dir.), 2018,
Paris, Telecom ParisTech
301
https://www.cnil.fr/fr/les-bases-legales/consentement ; https://www.cnil.fr/fr/respecter-les-droits-des-personnes ; https://
www.cnil.fr/fr/cnil-direct/question/opt-opt-out-ca-veut-dire-quoi
67
sans connaître les algorithmes 302 et les traitements et exploitation des données recueillies 303,
alors que les discours prônent de prétendus choix et libertés, en lieu et place de l’opacité. En
déléguant le pouvoir de décision au calcul algorithmique 304 et avec la régulation par la
technique, « devenue une forme de régulation qui va accompagner, voire même parfois
remplacer ou contourner la régulation juridique » 305, les rapports de pouvoir se déplacent. Par
la technique et la norme, se protéger de la subordination à la technique. Mais la « démocratie
technique » 306 rend la situation confuse (outils, logiciels, applications, réseaux, règles,
normes, lois, institutions, entreprises, CNIL…), qui entraine l’abandon de saisir tous les
enjeux. Dès lors, le renoncement même négocié l’emporte face aux réalités matérielles et
régimes technologiques complexes. Aussi est il nécessaire de poursuivre l’enseignement et les
travaux du champ recherche Informatique et Société face à la complexité de la société
informatisée en ce début de 21ème siècle.
302
Voir l'ouverture du code des algorithmes publics : site de la « concertation en ligne pour co-écrire le projet de loi pour
une République numérique », https://www.republique-numerique.fr/ ; Consultation « Projet de loi pour une République
numérique » : http://www.republique-numerique.fr/projects/projet-de-loi-numerique/consultation/consultation/opinions/
section-1-ouverture-des-donnees-publiques-1/ouverture-du-code-des-algorithmes-publics
303
Le rapport d’information à l’Assemblée Nationale n°4299 enregistré le 29/06/2021 souligne : « l’impératif de la
formation, dans toutes ses dimensions : de l’école à l’université, de la culture générale du numérique à la recherche de pointe,
de l’utilisation des outils du quotidien à la maîtrise des algorithmes »,
https://www.assemblee-nationale.fr/dyn/15/rapports/souvnum/l15b4299-t1_rapport-information
304
Voir : https://www.pointculture.be/magazine/articles/focus/gouvernementalite-algorithmique-3-questions-antoinette-
rouvroy-et-hugues-bersini/
305
Danièle Bourcier, Primavera de Filippi, 2018, « Les algorithmes sont-ils devenus le langage ordinaire de l’administration
? » in Geneviève Koubi, Lucie Cluzel-Métayer, Wafa Tamzini, Lectures critiques du Code des relations Public et
administration, LGDJ, pp.193-210, https://hal.archives-ouvertes.fr/hal-01850928/document, (page 6 en ligne).
306
Michel Callon, Pierre Lascoumes et Yannick Barthes, 2001, Agir dans un monde incertain, Paris, Seuil ; voir aussi « À
propos de « démocratie technique » », 2002, Mouvements, 3, no21-22, pp. 191-193, https://www.cairn.info/revue-
mouvements-2002-3-page-191.htm
68
69
CONCLUSION
Enjeux de recherche et d’enseignement
Informatique et Société
À l’issue de cette recherche durant ce second semestre 2021-2022 pour réaliser un état de l’art
du champ Informatique et Société, un thème transversal émerge : l’ambivalence. Les
analyses d’usages numériques menées avaient déjà permis de relever cette ambivalence, par
l’approche micro-sociologique (Vidal 2010, 2012, 2017, 2018, 2019), et cet état de l’art du
champ Informatique et Société confirme l’ambivalence des technologies informatiques, qui
engage des tensions au niveau macro-social. A partir de ce thème, peuvent se décliner des
sous-thèmes relatifs à l’approche dialectique technique et société : liberté/domination ;
visible/invisible ; omniprésence/fragmentation ; consentement/soumission ;
résistance/acceptabilité. C’est une posture au carrefour de la complexité à laquelle le
chercheur doit se confronter. Pour avancer, il est alors nécessaire d’adopter la démarche
interdisciplinaire. Ainsi, est il possible de poursuivre l’analyse des relations technique et
société et d’approfondir les enjeux épistémologiques que ce champ de recherche stimule.
70
en 1978, ainsi que du « Rapport Nora-Minc » proposant notamment la notion de
« télématique » 307. Les questions relatives aux transformations économiques, sociales,
organisationnelles et culturelles se sont vite posées puisque, sous l’égide du Ministère français
de l’Industrie, Mission à l'informatique, le colloque « Informatique et société » a été organisé
en 1980 pour penser l’« informatisation et changement économique ». De fait le champ
Informatique et Société est mis en place par les chercheurs en informatique quelques temps
après les débuts de l’institutionnalisation de la discipline scientifique Informatique de la fin
des années 1950 et surtout dans les années 1960 (Grossetti, Mounier-Kuhn, 1995), avec un
socle en Mathématiques, Physique et Électronique. Mais la reconnaissance de la discipline
Informatique n’intervient pas avant la fin des années 1960-début 1970 308, en tant que science
appliquée, avec les débuts des ordinateurs et algorithmes tels que nous les connaissons
aujourd’hui, tout en évoluant en tant que discipline scientifique.
307
Nous pourrions mentionner la mise en débat du rapport Nora-Minc par B.Lussato défendant, en 1980, une micro-
informatique face à l’option d’une télématique centralisée. Voir Jean Bounine, Bruno Lussato, 1980, Télématique ou
Privatique? Questions à Simon Nora et Alain Minc, Boulogne, Éditions d'informatique ; le site web de Bruno Lussato :
https://www.brunolussato.com/categories/14-Limposture-informatique
308
Comme nous pouvons le constater aussi pour les Sciences de l’Information et de la Communication à partir des années
1970, répondant à une demande sociale et politique. Voir Robert Boure, 2006, « L'histoire des sciences de l'information et de
la communication. (1) », Questions de communication, 2, n° 10, pp. 277-295, https://www.cairn.info/revue-questions-de-
communication-2006-2-page-277.htm?contenu=article, puis en 2007 n°11 (2) :
https://journals.openedition.org/questionsdecommunication/7358, et en 2008, n°13 (3) :
https://journals.openedition.org/questionsdecommunication/1724 . Egalement un récent exemple d’appel à articles du
1/06/2022, portant sur l’histoire des SIC et le « digital » : https://www.sfsic.org/aac-publication/lhistoire-digitale-et-la-
recherche-en-communication/
309
https://lejournal.cnrs.fr/articles/trois-mille-ans-dinformatique
310
En France, une certaine institutionnalisation des STS est à relever dans les années 1980 avec un comité scientifique doté
de budgets pouvant être attribués à des projets (voir Pandore n°12, février 1981, pp. 44-46, http://science-societe.fr/pandore/,
Pandore étant une revue, « bulletin de liaison », dirigée par Bruno Latour, publiée par la MSH Paris).
71
semble devenir une force épistémologique pour envisager la recherche SHS à partir des objets
d’étude, notamment les technologies. Les problématiques STS s’orientent entre autres sur le
genre (gender studies), l’exclusion, les usages, tout en se différenciant de la sociologie des
usages notamment avec la notion de co-construction au lieu de la « notion d’appropriation »
en sociologie des usages (Latzko-Toth, Millerand, 2012, p. 127), selon une approche
constructiviste, et en s’intéressant à la matérialité des objets techniques « point de départ de
l’approche sur la construction sociale de la technologie » (ibid, p. 135).
Ce rapport permet de cerner la profusion de travaux d’un champ de recherche dont l’intitulé
est moins usité depuis les années 2000, quand le numérique a remplacé le terme informatique
réduisant la culture technique sans prise sur les systèmes d’exploitation des terminaux (ni les
infrastructures, les logiciels devenus des applications), uniquement sur les interfaces de
communication. L’expression « numérique » masque la sophistication technologique fondée
sur l’informatique. L’intitulé Informatique et Société date de l’époque de la critique, des
années 1970, des sciences et techniques, de leur mise en débat, qui aujourd’hui semble se
concentrer sur l’environnement, thème abordé dans les travaux d’Ellul d’ailleurs, tout à fait
crucial et urgent. Ce champ est ainsi une contribution historique et contemporaine à l’analyse
de la complexité de la société informatisée en ce début de 21ème siècle, face aux libertés et
droits de la protection des données personnelles et de la vie privée. Tel est le défi auquel
j’invite les lecteurs, en remerciant pour leur confiance les chercheurs et enseignants, avec leur
expérience d’engagement associatif et institutionnel, et leurs témoignages qui éclairent les
lecteurs d’un texte dense mais mesuré.
311
Profilage incluant le modèle du fichage depuis longtemps mobilisé (Vitalis, Mattelart, 2014), et le modèle contemporain
fondé sur des algorithmes insondables, autrement dit non démocratiques, et des systèmes d’intelligence artificielle.
312
Ambivalence fondée sans doute sur la relation historique entre puissance publique garantissant les libertés dans une
société et milieu économique prenant appui sur le droit privé (Habermas, 1992), sans possibilité pour les individus-citoyens
(pourvoyeurs de données dans l’économie numérique) de rejoindre le pouvoir décisionnel d’Etat, ni intervenir dans la
régulation de la sphère privée.
72
Cet état de l’art Informatique et Société permet aussi de cerner l’engagement pour susciter la
réflexion sur plusieurs enjeux relatifs aux libertés fondamentales, à la mise en débat des
conséquences environnementales 313 et macro-sociales d’un système technique. L’avancée des
technologies informatiques et numériques produites est accompagnée de discours sur la liberté
d’information et de communication, de création de nouveaux marchés. Tandis que les travaux
Informatique et Société permettent de saisir le contrôle social des technologies liberticides.
Les individus se sentent protégés par les lois et les autorités de régulation, mais nous l’avons
abordé, la profusion des cadres en la matière est le symptôme de leur limites, jusqu’à la mise
en place d’une « techplomatie », avec des ambassadeurs auprès des GAFAM. C’est la raison
aussi pour laquelle le droit de l’informatique et l’éthique, incontournables, ne suffisent pas
non plus pour l’enseignement. Former à la complexité de la situation passe par
l’enseignement de l’approche interdisciplinaire et non pas seulement pluridisciplinaire
(informatique et droit, informatique et philosophie, informatique et sociologie).
L’enseignement Informatique et Société engage la transdisciplinarité 314 pour aborder les
problématiques relatives à l’informatisation de la société quelles que soient les formations. En
effet toutes les formations sont concernées par la complexité des problèmes posés par ce
processus, et doivent dépasser l’apprentissage de bonnes pratiques en informatique et avec
l’informatique. Selon le rapport 2021 de la CNIL, qui s’est engagée dans l’étude des EdTech
en 2022 : « Un code de conduite est un outil de redevabilité (accountability en anglais) car il
permet aux adhérents de démontrer leur conformité en justifiant des bonnes pratiques mises
en place. Il prend en compte les exigences du RGPD mais peut éventuellement intégrer des
préconisations qui vont au-delà. Il résulte d’une double démarche volontaire : la décision par
l’organisation représentative du secteur d’élaborer un code et l’adhésion des professionnels
concernés. Le mécanisme de contrôle développé par un code de conduite, qui incombe à un
organisme dédié, ne se confond pas avec les missions de contrôle de la CNIL » (p. 85). Ce
type d’engagement de la part de la CNIL est une réponse à la mission qui lui a été confiée par
la loi pour une République numérique, en organisant des débats publics autour des nouveaux
enjeux du numérique, au croisement d’expertises terrain et scientifiques. La mission éthique
de la CNIL intitule cette démarche « air » pour : avenirs, innovations, révolutions 315.
L’ambition de cet état de l’art est ainsi de montrer qu’il s’agit peut-être d’un rempart à
l’informatisation inexorable de la société, à la profusion et la cadence des innovations
numériques, réduisant l’informatique aux interfaces cliquables (le visible), affaiblissant la
vigilance et brouillant la réflexion (voir témoignage Daniel Naulleau). Un des rôles de la
recherche Informatique et Société est de prendre le temps de voir l’invisible, même si parfois
l’envie de résignation est proche. Après tout en effet, les techniques ont toujours fait partie
des sociétés humaines ; l’anthropologie et l’histoire le démontrent. Mais le foisonnement des
actes de régulation et de réglementation aujourd’hui ne permet pas d’éviter les dangers de
313
Voir https://www.lecreis.org/?p=3060 ; voir également les notions de sobriété numérique et hygiène numérique, qui
conduisent à considérer les coûts énergétiques tout en pensant la protection des données, des identités et la cybersécurité :
https://www.ssi.gouv.fr/guide/guide-dhygiene-informatique/ et
https://www.ssi.gouv.fr/entreprise/precautions-elementaires/dix-regles-de-base/. Le « secteur numérique est responsable de
4% des émissions mondiales de gaz à effet de serre » : source Ademe Agence de la transition écologique :
https://www.ademe.fr/sites/default/files/assets/documents/guide-pratique-face-cachee-numerique.pdf, et « ce chiffre est en
constante augmentation. Près de la moitié de celles-ci sont dues à nos équipements (ordinateur, smartphone, tablettes,
imprimantes, box…) » : https://www.francenum.gouv.fr/comprendre-le-numerique/guide-pour-reduire-les-impacts-du-
numerique-sur-lenvironnement
314
Dès 1992, Felix Paoletti, enseignant-chercheur en Informatique à Paris VI Jussieu, avance qu’avec l’enseignement
informatique et société « des compétences transdisciplinaires pour les enseignants »,
https://www.epi.asso.fr/revue/dossiers/d12p232.htm
315
https://www.cnil.fr/fr/avenirs-innovations-revolutions-la-mission-ethique-de-la-cnil
73
l’informatisation de la société pour les libertés, cependant sans empêcher un contexte
favorable à la décision démocratique.
Cet état de l’art permet en outre une identification de la diversité d’approches pour analyser
l’informatisation de la société. L’approche critique offerte par la dialectique Informatique et
Société est à maintenir, en allant jusqu’à dénoncer la réduction de tous types d’activités des
humains à leurs données sur un marché des données, à aborder la pollution numérique,
l’ambivalence entre la domination des technologies numériques et l’émancipation avec les
mêmes technologies. La recherche interdisciplinaire Informatique et Société concerne la façon
de mener les travaux, non plus seulement sur l’informatique, mais avec et par l’informatique.
Les humanités numériques 316 forment un champ important pour produire de nouvelles
connaissances avec l’informatique, mais les recherches en droit et autres travaux
sociologiques exigeant désormais des codes éthiques 317 pour recueillir des données sur les
réseaux informatiques, provoquent la réflexion sur la science en train de se réaliser par le
prisme de l’informatique, ce qu’elle permet de produire certes, alors que les données sont
orientées par les traitements algorithmiques, pouvant entrainer des biais. L’informatisation de
la société inclut la recherche scientifique aussi faut il s’attarder sur les transformations des
conditions de production des connaissances scientifiques, dans un contexte d’accélération et
de concurrence avec l'accroissement du nombre de chercheurs et de laboratoires, avec des
impératifs de production (financements par projets, appels à projets), de positionnement au
niveau international.
316
Pierre Mounier, 2018, Les humanités numériques, Paris, Éditions de la Maison des sciences de l’homme,
https://books.openedition.org/editionsmsh/12036?lang=fr
317
Guillaume Latzko-Toth, Serge Proulx, 2013, « Chapitre 2 - Enjeux éthiques de la recherche sur le Web », dans : Manuel
d’analyse du web en Sciences Humaines et Sociales, Christine Barats (dir.), Paris, Armand Colin, « Collection U », pp. 32-
52, https://www.cairn.info/--9782200286279-page-32.htm
318
https://www.pointculture.be/magazine/articles/focus/gouvernementalite-algorithmique-3-questions-antoinette-rouvroy-et-
hugues-bersini/
319
https://www.cnil.fr/fr/le-code-de-conduite
320
« Mercredi 10 novembre 2021, la commission des affaires économiques, conjointement avec la commission des lois, a
auditionné Frances Haugen, ancienne cadre de Facebook et lanceuse d’alerte » :
https://www.assemblee-nationale.fr/dyn/actualites-accueil-hub/audition-de-frances-haugen-ancienne-cadre-de-facebook-et-
lanceuse-d-alerte
74
service des systèmes d’intelligence artificielle produisent des données qui servent la
continuité du système, dans un mouvement tautologique (ne se trompant jamais par
ajustements permanents nourris de ce pourquoi le système est fait, et fonctionnant pour sa
propre survie 321). L’injonction concerne des individus qui doivent évoluer selon l’évolution
de la technique (il faut évoluer avec son temps !). Dans ce contexte, une posture critique est
indispensable pour retrouver son libre arbitre, prenant appui sur une culture informatique, et
en particulier pour les informaticiens saisir les enjeux sociaux des développements
informatiques. Dès 1993, dans le bulletin de l’association Enseignement public et
informatique (EPI) 322, l’enseignant-chercheur en Informatique, à Paris VI et membre du
CREIS, Félix Paoletti (1992), avançait le besoin pour l'enseignement de l'informatique, à tous
les niveaux des cursus scolaires et universitaires, du « d'une réflexion critique par la prise en
compte de la dimension sociétale » (pp. 175-182). L’enseignement informatique et société, en
Informatique mais aussi dans d’autres disciplines SHS, vise ainsi à développer les
compétences pour penser la technique et ses enjeux sociaux, politiques, économiques et
culturels.
Maîtriser la technique ou avoir une culture informatique permet le discernement et offre la
possibilité de résister face au consentement avec compromis fragilisant l’autodétermination
informationnelle. Par ailleurs, la créativité informatique est ici importante avec le
développement d’alternatives aux environnements fermés, comme par exemple les logiciels
libres 323, le réseau distribué TOR 324, ainsi que les VPN Virtual Private Network 325, la
blockchain 326, même si certaines de ces alternatives suscitent controverses et critiques 327.
L’agir peut concerner aussi le droit d’auteur dans le contexte de l’informatisation de la société
en réseaux, avec la copyleft 328, les créative commons 329.
D’autres types d’actions dans l’espace public existent pour mettre en débat l’informatisation
de la société comme des pétitions, des communiqués en direction de personnalités publiques,
exigeant des analyses conséquentes330, concernant des lois dénoncées liberticides par des
associations 331, comme la loi sécurité globale, intitulée « pour une sécurité globale préservant
les libertés » du 15 avril 2021332, voire des actions subversives, de hackers et lanceurs
d’alertes. Des tactiques d’usages aux stratégies d’échappement face aux nouvelles contraintes
en ligne, telles sont les dynamiques rejoignant les enjeux Informatique et Société, en dehors
de l’enseignement-recherche. La recherche peut rejoindre les débats dans l’espace public, y
321
Le dispositif IA ne se trompe jamais ; voir « HAL » dans le film « 2001, l’Odyssée de l’espace » de Stanley Kubrick,
1968
322
Depuis les années 1970, l’association Enseignement public et informatique EPI « veut faire de l'informatique, et des
technologies de l'information et de la communication en général, un facteur de progrès et un instrument de démocratisation.
Depuis sa création, elle demande que priorité absolue soit accordée à la formation des maîtres, inséparable des indispensables
recherches pédagogiques et des moyens en matériels et en logiciels »,
https://www.epi.asso.fr/association/epi_presentation.htm
323
Voir les associations : https://aful.org/association/positions ; https://www.april.org/ ; voir également :
https://www.inria.fr/fr/logiciel-libre-chez-inria
324
https://www.torproject.org/fr/
325
Fiche du CECIL : https://www.lecreis.org/creis/wp-content/uploads/F10_anonymat_sur_Internet.pdf
326
https://www.inria.fr/fr/comment-fonctionne-une-blockchain
327
https://www.lecreis.org/?p=2800
328
https://www.gnu.org/licenses/copyleft.fr.html
329
Danièle Bourcier, « Creative Commons et la troisième vague du droit d’auteur », Terminal, 102, 2008, mis en ligne le 29
mars 2019, http://journals.openedition.org/terminal/3817
330
Par exemple la LDH France : https://www.ldh-france.org/wp-content/uploads/2017/10/avis-d%C3%A9taill%C3%A9-
sur-le-projet-loi-s%C3%A9curit%C3%A9-int%C3%A9rieure-et-lutte-contre-terrorisme-juillet-2017-envoy%C3%A9-aux-d
%C3%A9put%C3%A9s-et-s%C3%A9nateurs.pdf
331
https://www.laquadrature.net/2021/04/29/loi-securite-globale-nos-arguments-au-conseil-constitutionnel/
332
https://www.assemblee-nationale.fr/dyn/15/textes/l15t0599_texte-adopte-provisoire.pdf
75
compris en engageant l’analyse issue de la recherche et des publications scientifiques 333. De
fait, les problématiques Informatique et Société dans leur diversité laissent voir une société
sous surveillance par les technologies informatiques de plus en plus sophistiquées, sans
empêcher totalement les libertés numériques et la liberté d’expression et d’associations.
Les usages des réseaux numériques et les droits fondamentaux sous pressions technique,
politique et économique, s’inscrivent dans des tensions entre libertés et contrôle social. Les
régulations et cadres règlementaires protègent et cadrent les abus potentiels sur les territoires
de la surveillance numérique qui ne sont pas neutres : « Previous works suggest that the
system of technological architecture on which the internet relies is not neutral, but can embed
values and for instance facilitate (or threaten) the exercise of human rights online (Zalnieriute
& Milan, 2019)334 » (Perarnaud, Musiani, Castex, Rossi, 2022, p.6). Parallèlement à la
démultiplication des propositions législatives européennes (the digital services act, digital
markets act, artificial intelligence act, NIS 2 Directive (Network and Information System
Security de l'Union européenne) 335), s’instaure une fragmentation d’Internet, les 'splinternets'
336
selon l’expression adoptée dans le rapport de Perarnaud, Musiani, Castex, Rossi, remis au
Parlement Européen en juillet 2022, pouvant perturber le principe d’interopérabilité du réseau
de réseaux. Cependant, selon ces auteurs de l’étude, la « European Declaration on Digital
Rights and Principles for the Digital Decade is therefore a step in the right direction » 337
(Perarnaud, Musiani, Castex et Rossi, 2022, p.55).
En 2021, Pierre-Jean Benghozi, chercheur CNRS professeur d'économie numérique à l’École
polytechnique (IP Paris) et à l’Université de Genève, se demande s’il est possible de réguler
les GAFAM. Sur Internet, ces acteurs économiques, selon ce chercheur, ont fait basculer le
réseau de réseaux ouvert dans un modèle fermé de plateformatisation. Leurs activités
conduisent à réguler toujours plus et avec difficulté, d’autant plus que ce modèle sert une
économie numérique, sur laquelle les espérances des Etats reposent. Cependant la régulation
et la réglementation notamment européenne pour « bénéficie(r) d’un effet de taille »
permettent « d’agir face à ces plateformes à la puissance pourtant hégémonique » (Benghozi,
8 mars 2021). Le chercheur rejoint l’ambivalence et le paradoxe pointés dans ce rapport :
« Le monde évolue simultanément sur deux trajectoires opposées. La première est celle de technologies
ouvertes favorisant l’émergence de toutes sortes d’usages créatifs. Ce futur-là prolonge la capacité qu’ont
eue l’informatique et l’internet de stimuler des plateformes adaptables librement pour concevoir des
applications par et pour toutes sortes d’utilisateurs. A cette voie s’est progressivement opposée et imposée
celle de dispositifs propriétaires fermés qui opèrent un contrôle accru des usages : elle conduit à une
absence de maîtrise des consommateurs sur les applications, les données ou les services, qui peuvent
changer ou disparaître d’un jour à l’autre. Le succès des magasins d’applications tient ainsi à leur capacité
de favoriser l’innovation, mais en l’enserrant dans un cadre circonscrit et contrôlé » 338.
En 2019, pour Antoinette Rouvroy 339 : « le phénomène des « données massives » (Big data)
met les régimes juridiques de protection des données personnelles « en crise », notion
333
Appel à contributions « Critiques et contournements du contrôle et de la surveillance sur Internet », revue Tic et Société :
https://journals.openedition.org/ticetsociete/6204
334
Cité par (Perarnaud, Musiani, Castex, Rossi, 2022) : Zalnieriute, M., & Milan, S., « Internet architecture and human
rights: Beyond the human rights gap », Policy & Internet, 2019.
335
Pour cerner l’évolution de NIS entre 2016 et 2022 : https://www.ssi.gouv.fr/entreprise/reglementation/directive-nis/ et
https://www.europarl.europa.eu/thinktank/fr/document/EPRS_BRI(2021)689333
336
https://cis.cnrs.fr/splinternets-addressing-the-renewed-debate-on-internet-fragmentation/
337
Communiqué du 26/01/2022 : https://ec.europa.eu/commission/presscorner/detail/fr/IP_22_452
338
Pierre-Jean Benghozi le 8 mars 2021 : https://www.polytechnique-insights.com/tribunes/digital/peut-on-vraiment-reguler-
les-gafam/
339
2/12/2019 Magazine Point Culture, Bruxelles, en ligne :
https://www.pointculture.be/magazine/articles/focus/gouvernementalite-algorithmique-3-questions-antoinette-rouvroy-et-
hugues-bersini/
76
« obsolète » pour des professionnels de l’informatique en réseau centrés sur les données
comportementales et les métadonnées à croiser, capables « de ré-identifier les personnes
quand bien même toutes les données auraient été anonymisées ». La prolifération
extrêmement rapide de données numériques et le profilage jusqu’à la personnalisation
bouleversent le régime de protection des données, en dehors de la question des données à
caractère personnel, puisqu’il s’agit de gouverner les comportements à partir de traces
massivement et en permanence recueillies. Les objectifs des secteurs tant public que privé,
sont de prédire à partir des traces, fragmentées, décontextualisées mais pour autant calculées
pour les juxtaposer afin d’en déduire du sens selon les visées des capteurs de données. Aussi,
« la rationalité algorithmique ne peut prendre en compte les « causes » des phénomènes et ne
se focalise que sur leurs « effets » », sans tenir compte des « rapports de force, de domination,
des pratiques discriminatoires », gravement perdus « dans un espace purement métrique »
(2/12/2019, en ligne).
77
aux medias, l’Agence nationale de la sécurité des systèmes d’information, le Centre de la
cybersécurité pour les jeunes, le Contrôleur européen de la protection des données (CEPD), le
Comité National Pilote d’Éthique du Numérique (CNPEN), le groupe IA responsable du
partenariat mondial sur l’IA (gpai/pmia), mais aussi des dispositifs comme la convention 108
344
pour la protection des données à caractère personnel du Conseil de l’Europe, le CIL
correspondant Informatique et Libertés, le DPD ou DPO : délégué à la protection des
données,…
Il y a tant d’informations et de connaissances (presse, sites web, publications scientifiques en
ligne), qui visent à rendre accessible la complexité des situations technique et règlementaire
relatives aux développements de l’informatique. Considéré comme une démarche de
« vulgarisation », l’ouvrage de Laurane Raimondo en 2021 par exemple est préfacé par Jean-
Philippe Walter docteur en Droit, commissaire à la protection des données du Conseil de
l’Europe : « une contribution essentielle qui s’adresse à un public de non spécialiste » tout en
qualifiant le « domaine hautement complexe » en saluant la contribution « à la sensibilisation
en matière de protection des données et à sa promotion dans le grand public » 345. Ce livre en
effet pointe un grand nombre de lois (voir carte de la CNIL en introduction), que les
enseignants-chercheurs en Informatique doivent cerner, et ceux en Droit enseigner. Mais
toutes les disciplines et formations sont désormais concernées par les régulations et cadres
règlementaires de l’informatique et réseaux numériques, pour permettre une prise de
conscience des atouts et risques. Cet enjeu politique, social et culturel de l’enseignement
Informatique et Société doit être complété par celui de permettre une autonomie
d’apprentissage tout au long de la vie, puisque l’ambivalence est complète dans la mesure
où la technique crée les problèmes qu’elle résout.
Pour terminer
Engager un état de l’art relatif au champ de recherche Informatique et Société, dans ce
contexte interdisciplinaire, est à la fois stimulant et considérable. Aussi a-t-il été décidé de
centrer la recherche sur deux axes entrecroisés : objets et problématiques et quatre thèmes,
traversés par l’approche historique et un grand nombre d’acteurs impliqués dans le processus
d’informatisation de la société. En évitant la linéarité, il a été possible de proposer un état de
l’art non exhaustif, pour saisir l’emballement de la situation ; depuis la CNIL de la fin des
années1970, avec les premiers objets tels les fichiers et bases de données, ainsi que la
première démarche interdisciplinaire Informatique et SHS, jusqu’à ce début de 21 ème siècle.
C’est à partir des années 2000 que cela s’est complexifié par l’abondance des approches et des
problématiques en lien avec des objets démultipliés, via le marché des innovations techniques
et la production des connaissances foisonnantes. La recherche critique depuis les années
1980 ne signifie pas technophobie (qui est une trop fréquente accusation pour ceux qui n’ont
pas intérêt à voir l’envers du décor, ou ceux qui ne se donnent pas les moyens de cerner les
enjeux), mais clairvoyance et vigilance, non pas seulement à l’égard des technologies
informatiques mais aussi de sa propre démarche en tant que chercheur et enseignant. En effet,
l’interdisciplinarité en recherche, avec une multiplicité de studies, recoupant les objets
Informatique et Société (surveillance studies, plateform studies, Internet studies, AI studies…
les STS embrassant plus largement les sciences et les technologies), peut apparaître comme
fragmentation des objets de recherche. L’enjeu épistémologique peut s’exprimer en terme de
rupture disciplinaire pour des travaux nécessairement croisés sur des objets complexes telles
les technologies informatiques et numériques, avec rigueur tout en gardant l’engagement
critique pour questionner, mettre en débat, voire contester les modalités du processus
344
https://www.coe.int/fr/web/data-protection/convention108-and-protocol
345
Préface de l’ouvrage de Laurane Raimondo, 2021, La protection des données personnelles. Coll. 100 questions/réponses,
Paris, Ellipses, p.10.
78
d’informatisation de la société . L’enjeu pédagogique concerne la transdisciplinarité en
enseignement, dans la mesure où l’informatisation de la société concerne toutes les activités à
tous moments. Dès lors, les problématiques Informatique et Société traversent toutes les
formations selon les disciplines, et conduisent à apprendre à articuler, non pas à cumuler les
connaissances de différentes disciplines (informatique, droit, sociologie, sciences de la
communication…). Il s’agit de ne pas réduire ces problématiques à des questions d’éthique et
de bonnes pratiques. La transdisciplinarité dépasse le champ disciplinaire marqué « par la
délimitation de ses frontières, le langage qu'elle se constitue, les techniques qu'elle est amenée
à élaborer ou à utiliser, et éventuellement par les théories qui lui sont propres » 346, donc par
un certain hermétisme centré sur un ou des objets d'étude précis, sur une méthodologie à
laquelle se réfère la communauté de chercheurs se réclamant de la discipline. Les
compétences techniques, l’éducation aux médias pour éveiller les esprits, la culture
informatique restent essentielles à enseigner au delà de la discipline Informatique, au premier
plan pour s’ouvrir aussi aux questions relatives à l’informatisation, et avec les SHS pour
poursuivre l’analyse de ce processus.
*****
Cet état de l’art non exhaustif du champ de recherche Informatique et Société a montré la
stabilité de la recherche durant les decennies 1980 et 1990 et depuis les années 2000 une
diversification diluant l’intitulé Informatique et Société, rendant ce champ diffus 347 dans la
mesure où différentes disciplines produisent aussi de riches travaux sur l’informatisation de la
société.
Une des premières raisons de la dilution de l’intitulé (mais non pas du champ de recherche qui
se maintient) est sans doute liée au fait que le terme « numérique » a remplacé celui
d’« informatique », la deuxième liée à l’accélération des innovations numériques, mettant
justement à distance la visibilité des sous-bassements informatiques et donc plus complexes
que les discours sur la société numérique ne veulent bien le dire (de fait une invisibilité de
l’informatique en faveur d’une visibilité numérique sur les réseaux). La troisième raison est
en effet liée au déploiement des réseaux informatiques dits numériques, avec l’Internet des
objets (réseaux pervasifs) et la profusion des algorithmes. Sans technophobie, il s’agit de
souligner la richesse du travail sur les ambivalences des relations entre technique et société.
Cette contribution s’inscrit ainsi dans une dynamique de recherche de niveau macro, avec une
grande experience d’activités scientifiques de niveaux micro et meso sur les usages et enjeux
sociaux et culturels des technologies de l’information et de la communication.
Cet état de l’art confirme la consolidation du tournant engagé pour travailler les enjeux socio-
politiques de niveau macro, puisque c’est à partir de la contradiction qu’il s’agit de trouver
l’équilibre entre émancipation et quasi-aliénation avec les technologies informatiques. Il sert
également les activités d’enseignement, quelles que soient les formations SHS et Sciences et
Techniques pour éclairer le processus d’informatisation intensive de la société.
346
Voir Edgar Morin : Bulletin du Centre International de Recherches et Études transdisciplinaires n° 2 - Juin 1994, en
ligne : https://ciret-transdisciplinarity.org/bulletin/b2c2.php ; « Edgar Morin ou l’éloge de la pensée complexe », 04/09/2018,
CNRS Le Journal : https://lejournal.cnrs.fr/articles/edgar-morin-ou-leloge-de-la-pensee-complexe
347
J’invite, comme je l’ai fait, à tester la chaine de caractères « informatique et société » et la chaine de caractères
« informatisation de la société » dans un moteur de recherche pour constater la variété des résultats, rendant difficile
l’identification des travaux et réflexions relatifs à l’informatisation de la société, de fait confirmant la pertinence de
poursuivre la dynamique enseignement-recherche en Informatique et Société.
79
BIBLIOGRAPHIE & RESSOURCES
Agamben Giorgio, 2007, Qu’est ce qu’un dispositif ?, Paris, Payot & Rivages, coll. Rivages
poche/petite bibliothèque
Agamben Giorgio, 2006, « Théorie des dispositifs », Po&sie, vol.1, n° 115, p. 25-33, https://
www.cairn.info/revue-poesie-2006-1-page-25.htm
Agre Philip E., 1994, « Surveillance and Capture : Two Models of Privacy », The Information
Society, n°10, p. 101-127, https://wtf.tw/ref/agre_1994.pdf
Aïm Olivier, 2020, Les théories de la surveillance. Du panoptique aux Surveillance Studies,
Paris, Armand Colin
Akrich Madeleine, 1987, « Comment décrire les objets techniques ? », Techniques et Culture
n° 9, pp. 49-64. https://halshs.archives-ouvertes.fr/halshs-00005830/document
Aubin France, George Éric et Rueff Julien (dir.), 2022, Perspectives critiques en
communication, tome 2, Québec, Presses Universitaires du Québec,
https://extranet.puq.ca/media/produits/documents/3819_9782760556232.pdf
Austin John, 1962/1991, Quand dire c’est faire, Paris, Seuil, coll. Points essais
Badouard Romain, 2020, Les nouvelles lois du web. Modération et censure, Paris, Seuil, coll.
La république des idées
80
Benghozi Pierre-Jean, 2011, « Économie numérique et industries de contenu : un nouveau
paradigme pour les réseaux », Hermès, La Revue, 1, n° 59, pp. 31-37,
https://www.cairn.info/revue-hermes-la-revue-2011-1-page-31.htm
Benghozi Pierre-Jean, Bureau Sylvain, Massit-Folléa Françoise, 2009, L’Internet des objets,
Paris, Editions de la Maison des sciences de l’homme, coll. praTICs, sur OpenEdition
Books, 19 janvier 2012 : https://books.openedition.org/editionsmsh/78
Benghozi Pierre-Jean et Paris Thomas, 2007, « The economics and business models of
prescription in the Internet », in Brousseau, Eric, Curien, Nicolas [eds.] Internet and Digital
Economics – Principles, Methods and Applications, Cambridge (Mass), Cambridge
University Press, p. 291-310, https://hal.archives-ouvertes.fr/hal-00263198
Berleur Jacques, Poullet Yves, 2002, « Réguler Internet », Études, 11 (Tome 397), p. 463-
475, https://www.cairn.info/revue-etudes-2002-11-page-463.htm
Boltanski Luc, Chiappello Eve, 1999, Le nouvel esprit du capitalisme, Paris, Gallimard
Bourcier Danièle, 1999, « Représenter quelques règles de droit dans un machine », in Savoir
innover en droit. Concepts, outils, systèmes, Paris, La Documentation Française, pp. 119-131
Bourdieu Pierre, 1994, Raisons pratiques. Sur la théorie de l’action, Paris, Seuil
Bourdieu Pierre, 1979, La distinction. Critique sociale du jugement, Paris, Éditions de Minuit
81
Breton Philippe, 2000, Le Culte de l'Internet, Paris, La Découverte
Cardon Dominique, 2015, À quoi rêvent les algorithmes ? Nos vies à l’heure du big data,
Paris, Seuil
Carré Dominique, Vidal Geneviève, Sandré Sarah, 2021, « Recherche sur les objets connectés
en santé (ROCS-SHS) », Rapport de recherche, AP-HP, MSH Paris Nord, LabSIC-USPN,
Centre du sommeil - Service de Physiologie – Explorations Fonctionnelles et Digital Medical
Hub - Hôpital Bichat - Assistance Publique – Hôpitaux de Paris, Investigateur coordonnateur :
Pr Marie-Pia D’Ortho
Carré Dominique, Panico Robert, 2012a, « L’«affichage de soi» comme «puissance d’agir».
Contrôle social et enjeux éthiques à l’heure de l’hyperconnectivité », in Proulx Serge, Millette
Mélanie, Heaton Lorna (dir.), Médias sociaux : enjeux pour la communication, Québec,
Presses de l’université du Québec, p.61-79
Carré Dominique, Panico Robert 2012b, « Du fichage subi, à l’affichage de soi. Eléments
pour une approche communicationnelle du contrôle social », in Proulx Serge, Klein Annabelle
(dir.), Connexions. Communication numérique et lien social, Namur, Presses universitaires de
Namur, pp. 269-283
Casilli Antonio A., 2019, En attendant les robots, Enquête sur le travail du clic, Paris,
Seuil, Coll. La couleur des idées
Casilli Antonio A., 2013, « Contre l’hypothèse de la « fin de la vie privée » la négociation de
la privacy dans les médias sociaux », Revue française des sciences de l’information et de la
communication, n°3
82
Castells Manuel, 1998, La société en réseaux, Paris, Fayard
Castoriadis Cornelius, 1975, L’institution imaginaire de la société, Paris, Seuil, coll. Points
Essais
Certeau Michel (de), 1990, L'invention du quotidien. Tome 1 : Arts de faire, Paris, Gallimard,
coll. Folio/Essais
Chambat Pierre, 1994, « NTIC et représentations des usagers », in Vitalis André (dir.),
Médias et nouvelles technologies de communication. Pour une socio-politique des usages,
Rennes, Apogée, pp 45-59
Deleuze Gilles, Guattari Felix, 1980, Mille plateaux, Paris, Les Éditions de Minuit
Deleuze Gilles, Gattari Felix, 1972, L'Anti-Œdipe de Deleuze et Guattari », Paris, Les
Editions Minuit
DeNardis Laura, 2014, The global war for internet governance, New Haven London, Yale
University Press, Yale Scholarship Online,
https://yale.universitypressscholarship.com/view/10.12987/yale/9780300181357.001.0001/
upso-9780300181357
Dodier Nicolas, Barbot Janine, 2016, « La force des dispositifs », Annales. Histoire, Sciences
Sociales, 2, pp. 421-450, https://www.cairn.info/revue-annales-2016-2-page-421.htm
Durkheim Émile, 1975, Éléments d'une théorie sociale, Textes 1, Paris, Les Éditions de
Minuit, http://classiques.uqac.ca/classiques/Durkheim_emile/durkheim.html
83
Ellul Jacques, 1988 Le Bluff technologique, Paris, Hachette
Ertzscheid Olivier, 2017, L’appétit des géants. Pouvoir des algorithmes, ambitions des
plateformes, Caen, C&F éditions, Blogollection
Feenberg Andrew, 2014, « Vers une théorie critique de l’internet », tic&société, vol.8, n°1-2,
http://journals.openedition.org/ticetsociete/1382
Flichy Patrice, 2001, « La place de l'imaginaire dans l'action technique. Le cas de l'internet »,
Réseaux, vol. 5, n°109, pp. 52-73
Foucault Michel, 1982, « Le sujet et le pouvoir », in Dits et Ecrits, tome II, Paris, Edition
Quarto Gallimard, pp.1041-1062
Fraser Nancy, 2007, « Transnationalizing the Public Sphere », Theory, Culture & Society,
vol.24, n°4, pp.7-30
Fraser Nancy, 1990, « Rethinking the Public Sphere: A Contribution to the Critique of
Actually Existing Democracy », Social Text, n°25/26, p.56-80,
https://fswg.files.wordpress.com/2013/08/fraser-rethinking-the-public-sphere.pdf
Friedmann Georges, 1966, Sept études sur l’homme et la technique, Paris, Gonthier
84
Ganascia Jean-Gabriel, 2017, L’intelligence artificielle. Vers une domination programmée ?,
Paris, Le Cavalier Bleu Editions
Gaulejac Vincent (de), Hanique Fabienne, 2015, Le Capitalisme paradoxant. Un système qui
rend fou, Paris, Seuil
George Éric, 2021, « La réception des médias au prisme des Cultural Studies », chapitre 12,
dans Perspectives critiques en communication. Aubin France et Rueff Julien (dir.), Québec,
Presses Universitaires du Québec, pp. 253-272, https://puq.ca/catalogue/livres/perspectives-
critiques-communication-2784.html
George Éric (dir.), 2019, Numérisation de la société et enjeux sociopolitiques, Londres, ISTE.
George Éric, 2010, « L’étude des usages des TIC au prisme de la recherche critique en
communication », in Vidal Geneviève (dir.), La sociologie des usages : continuités et
transformations, London, Hermes Science Publishing, pp. 25-62
Goffman Erving, 1991, Les cadres de l’expérience, Paris, Les Éditions de Minuit, coll. Le
sens commun
Grossetti Michel, Mounier-Kuhn Pierre-Eric, 1995, « Les débuts de l'informatique dans les
universités. Un moment de la différenciation géographique des pôles scientifiques français »,
Revue française de sociologie n°36-2 pp. 295-324, https://www.persee.fr/doc/rfsoc_0035-
2969_1995_num_36_2_4404
Habermas Jürgen, 1992, « "L'espace public", 30 ans après », Quaderni n°18, pp. 161-191,
https://www.persee.fr/doc/quad_0987-1381_1992_num_18_1_977
85
Hall Stuart, 2007/2008, Identités et cultures. Politiques des Cultural Studies, Paris, Editions
Amsterdam
Jenkins Henry, 2006, Convergence Culture: Where Old and New Media Collide, New York,
NYU Press
Jouët Josiane, 2000, « Retour critique sur la sociologie des usages », Réseaux, vol. 18 n° 100,
2000, pp. 487-521
Katz Elihu, 1989/2009, « Lire la réception à travers le modèle des effets limités. Actualité de
Lazarsfeld », Les Essentiels d’Hermès, « La réception », Méadel Cécile (coord), pp. 47-67
Kessous Emmanuel, 2012, L'attention au monde. Sociologie des données personnelles à l'ère
numérique, Paris, Armand Colin
Kessous Emmanuel, Rey Bénédicte, 2009, « Économie numérique et vie privée », Hermès, La
Revue, vol. 53, n° 1, pp. 49-54, https://www.cairn.info/revue-hermes-la-revue-2009-1-page-
49.htm
Latour Bruno, Callon Michel, Akrich Madeleine, 2006, Sociologie de la traduction, Paris,
Presses de l’Ecole des Mines
Latzko-Thot Guillaume, Millerand Florence, 2012, « Sociologie des usages et Science &
Technology Studies ; un dialogue à poursuivre », chapitre 4, in La sociologie des usages,
Vidal Geneviève (dir.), London-Paris, Hermes Science publications, Lavoisier, pp. 119-150
86
Le Crosnier Hervé, 2018, « Une introduction aux communs de la connaissance », tic&société,
vol. 12, n° 1, http://journals.openedition.org/ticetsociete/2481
Le Crosnier Hervé, 2014, « Internet et numérique », Hermès, La Revue, vol.3, n° 70, pp. 25-
33, https://www.cairn.info/revue-hermes-la-revue-2014-3-page-25.htm
Lefebvre Henri, 1980, « Aliénation et société », Raison présente, n°55, pp. 101-103,
https://www.persee.fr/doc/raipr_0033-9075_1980_num_55_1_2089
Loveluck Benjamin, 2015, « Internet, une société contre l’État ? », Réseaux, 192, pp.235-270,
https://www.cairn.info/revue-reseaux-2015-4-page-235.htm
87
Mattelart Armand, 2007, La globalisation de la surveillance. Aux origines de l’ordre
sécuritaire, Paris, La Découverte
Matos Alves (de) Artur, 2022, La philosophie critique de la technique d’Andrew Feenberg, in
Aubin France et Rueff Julien (dir.), Québec, Presses Universitaires du Québec, chapitre 13,
pp. 338-355, https://extranet.puq.ca/media/produits/documents/3819_9782760556232.pdf
Merton Robert, 1983, Éléments de théorie et de méthode sociologique, Paris, Éditions Plon
Mosco Vincent, 2016, « Après l’Internet : le Cloud, les big data et l’Internet des objets », Les
Enjeux de l'information et de la communication, n° 17/2, pp. 253-264, https://www.cairn.info/
revue-les-enjeux-de-l-information-et-de-la-communication-2016-2-page-253.htm
Mounier Pierre, 2002, Les maîtres du réseau : les enjeux politiques d’Internet, Paris, La
Découverte
88
Morceaux choisis, n°11, printemps 2014, pp. 26-24,
https://sniadecki.files.wordpress.com/2012/04/mumford_ums.pdf
Mumford Lewis, 1934/1950, Technique et civilisation, Paris, Seuil (édité en 2016 aux éditions
Parenthèses, collection Eupalinos/A+U)
Musiani Francesca, 2015, Nains sans géants - Architecture décentralisée et services Internet,
Paris, Presses des Mines, https://books.openedition.org/pressesmines/1853?lang=fr
Musiani Francesca, 2015, « Edward Snowden, l’« homme-controverse » de la vie privée sur
les réseaux », Hermes, La Revue, n° 73, 3, pp.209-215, https://www.cairn.info/revue-hermes-
la-revue-2015-3-page-209.htm
O’Reilly Tim, 2007, «What Is Web 2.0: Design Patterns and Business Models for the Next
Generation of Software », https://www.oreilly.com/pub/a/web2/archive/what-is-web-20.html
Panico Robert, Carré Dominique, 2012, « Du fichage subi, à l’affichage de soi. Eléments pour
une approche communicationnelle du contrôle social », in Proulx Serge, Klein Annabelle,
2012, Connexions, émancipation numérique et lien social, Namur, Presses Universitaires de
Namur, pp.269-283
Paoletti Félix, 1992, « Informatique et Société : des compétences transdisciplinaires pour les
enseignants », in L'intégration de l'informatique dans l'enseignement et la formation des
enseignants, Actes du colloque des 28-29-30 janvier 1992 au CREPS de Châtenay-Malabry,
édités par Georges-Louis Baron et Jacques Baudé ; coédition INRP-EPI, pp. 232-237, Bulletin
de l'EPI, https://www.epi.asso.fr/revue/dossiers/d12p232.htm
89
Peeters Hugues, Charlier Philippe, 1999, « Introduction. Contributions à une théorie du
dispositif », Hermès n°25, pp. 15-23
Perarnaud Clément, Musiani Francesca, Castex Lucien et Rossi Julien, 2022, « ‘Splinternets’ :
Addressing the renewed debate on internet fragmentation », Study, Panel for the Future of
Science and Technology, EPRS, European Parliamentary Research Service, juillet 2022,
https://www.europarl.europa.eu/RegData/etudes/STUD/2022/729530/EPRS_STU(2022)7295
30_EN.pdf
Poirier Nicolas, 2009, « Espace public et émancipation chez Castoriadis », Revue du MAUSS,
2, n° 34, pp. 368-384, https://www.cairn.info/revue-du-mauss-2009-2-page-368.htm
Richert Fabien, 2019, « Le Big Data comme dispositif de décodage généralisé du champ
social », in George Éric (dir.), Numérisation de la société et enjeux sociopolitiques, Tome1,
chapitre 2, London, ISTE Editions, pp. 31-42
Rochelandet Fabrice, 2010, Économie des données personnelles et de la vie privée, Paris,
Découverte.
Rossi Julien, Musiani Francesca, Castex Lucien, 2022, « La gouvernance d’Internet, entre
infrastructures et espaces socio-politiques : apports de la recherche », Terminal, 132-133,
http://journals.openedition.org/terminal/8210
90
Rossi Julien, 2020, « Protection des données personnelles et droit à la vie privée : enquête sur
la notion controversée de “ donnée à caractère personnel ” », Université de Technologie de
Compiègne, thèse soutenue le 2 juillet 2020,
https://tel.archives-ouvertes.fr/tel-03155480/document
Sadin Eric, 2015, La vie algorithmique : Critique de la raison numérique Paris, L’Échappée,
coll. « Pour en finir avec »
Vatin François, 2004 , « Mauss et la technologie », Revue du MAUSS, 2004, no 23, p. 418-
433, https://www.cairn.info/revue-du-mauss-2004-1-page-418.htm
91
Perrineau Pascal Le désenchantement démocratique (dir.), La Tour d’Aigues, Editions de
l’Aube, pp. 243-266
Vedel Thierry, 1994, « Introduction à une socio-politique des usages », in Vitalis André (dir.),
Médias et nouvelles technologies de communication. Pour une socio-politique des usages,
Rennes, Apogée, pp. 13-35
Vidal Geneviève, 2017, « Prendre la mesure du renoncement négocié », Multitudes n°68, pp.
54-59, https://www.cairn.info/revue-multitudes-2017-3-page-54.htm
Vidal Geneviève, 2010, Le renoncement négocié. Pour une analyse dialectique des usages
des technologies interactives, mémoire d’habilitation à diriger des recherches en sciences de
l’information et de la communication, Garant : Professeur André Vitalis, Université
Bordeaux 3
Vidal Geneviève, Mabillot Vincent, 2004, « Transmission par la bande : modes de transferts
de savoir, savoir-faire et connaissances entre les utilisateurs de réseaux d’échange de
fichiers », in Le partage des savoirs. Logiques, contraintes et crises. Recherches en sciences
de l'information et de la communication, Metzger Jean-Paul (dir.), Paris, L’Harmattan, coll.
Communication et Civilisation, pp. 201-217
92
Vitalis André, 2016, « Big Data et autodétermination informationnelle des individus », Études
digitales, 2, n° 2, pp. 41-49, https://classiques-garnier.com/export/pdf/etudes-digitales-2016-
2-n-2-le-gouvernement-des-donnees-big-data-et-autodetermination-informationnelle-des-
individus.html?displaymode=full
Vitalis André, 2009, « « Informatique et libertés » : une histoire de trente ans », Hermès, La
Revue, 53, pp.137-143, https://www.cairn.info/revue-hermes-la-revue-2009-1-page-137.htm
Vitalis André, 2007, « Actualité de Jacques Ellul : la communication dans le contexte d'une
société technicienne », Hermès, La Revue, vol. 2, n°48, 2007, pp. 163-170,
https://www.cairn.info/revue-hermes-la-revue-2007-2-page-163.htm
Vitalis André, 1999, « Le déni du politique », in Vitalis André et Proulx Serge (dir), Vers une
citoyenneté simulée. Médias, réseaux et mondialisation, Rennes, Editions Apogée, pp. 35-55
Vitalis André (dir.), 1994a, Médias et nouvelles technologies de communication. Pour une
socio-politique des usages, Rennes, Apogée
Vitalis André, 1988, Informatique, pouvoir et libertés, préface de J. Ellul, Paris, Economica,
https://gallica.bnf.fr/ark:/12148/bpt6k3334793f.texteImage
Vitalis André, Armand Mattelart, 2014, Le profilage des populations Du livret ouvrier au
cybercontrôle, Paris, La Découverte
Von Hippel Eric, 2007, « Horizontal Innovation Networks by and for Users », Industrial and
Corporate Change, vol. 16, Issue 2, pp. 293-315
Weber Max, 1956/1995, Economie et Société. Les catégories de la sociologie, Paris, Plon,
Pocket
Wiener Norbert, 1952/1971, Cybernétique et société, Paris, Éditions des Deux Rives, coll.
« 10/18 »
93
Wright Mills Charles, 1959/2006, L'imagination sociologique, Paris, La Découverte
94
RESSOURCES*
Documents historiques
Décret n° 46-2 du 3 janvier 1946 portant création à la présidence du Gouvernement d'un
conseil du plan de modernisation et d’équipement et fixant les attributions du commissaire
général du plan : commissariat général au Plan créé le 3 janvier 1946,
https://www.strategie.gouv.fr/actualites/premier-plan-de-modernisation-dequipement
Loi « informatique, fichiers et libertés », 1978, loi no 78-17 du 6 janvier 1978 relative à
l'informatique, aux fichiers et aux libertés,
https://www.legifrance.gouv.fr/loda/id/JORFTEXT000000886460/
95
Simon Jean-Claude, 1980, « L’éducation et l’informatisation de la société », Rapport remis au
Président de la République, Paris, La Documentation Française (1981)
Extrait : https://www.epi.asso.fr/revue/histo/h80simon2.htm
Convention pour la protection des personnes à l'égard du traitement automatisé des données à
caractère personnel du 28 janvier 1981 (Convention 108 du Conseil de l’Europe),
https://www.coe.int/fr/web/data-protection/convention108-and-protocol
Joinet Louis, 1983, « Study of the relevant guidelines in the field of computerized personnel
files », 30 June 1983, ONU, Conseil économique et social, Commission des Droits de
l’Homme, https://digitallibrary.un.org/record/54917?ln=fr
*****
CNIL
Archives : https://www.cnil.fr/fr/archives
Loi Informatique et Libertés : https://www.cnil.fr/fr/la-loi-informatique-et-libertes
Article 1 de la Loi Informatique et Libertés : https://www.cnil.fr/fr/la-loi-informatique-et-
libertes#article1
1er rapport CNIL :
https://www.cnil.fr/sites/default/files/atoms/files/20171116_rapport_annuel_cnil_-
_1er_rapport_dactivite_1978-1980_vd.pdf
CNIL, Vitalis André, Paoletti Félix, Delahaie Henri, 1988, Dix ans d'informatique et libertés,
Paris, Économica
96
CNIL « Opt-in, opt-out, ça veut dire quoi ? » : https://www.cnil.fr/fr/cnil-direct/question/opt-
opt-out-ca-veut-dire-quoi
17/11/2016, « Ce que change la loi pour une République numérique pour la protection des
données personnelles » : https://www.cnil.fr/fr/ce-que-change-la-loi-pour-une-republique-
numerique-pour-la-protection-des-donnees-personnelles
15/12/2017, Synthèse du débat public de la CNIL sur les enjeux éthiques des algorithmes et
de l’intelligence artificielle : https://www.cnil.fr/fr/comment-permettre-lhomme-de-garder-la-
main-rapport-sur-les-enjeux-ethiques-des-algorithmes-et-de
Décembre 2017, « Comment permettre à l’homme de garder la main ? Les enjeux éthiques
des algorithmes et de l’intelligence artificielle », synthèse de débat : https://www.cnil.fr/sites/
default/files/atoms/files/cnil_rapport_garder_la_main_web.pdf
3/08/2018, « Comprendre le RGPD > Les bases légales > Conformité RGPD : comment
recueillir le consentement des personnes ? » :
https://www.cnil.fr/fr/les-bases-legales/consentement
juillet 2020, Arrêt de la Cour de justice de l’Union européenne (CJUE), dit « Schrems II »
invalidant le régime de transferts de données entre l’Union européenne et les États-Unis
(Privacy shield) : https://www.cnil.fr/fr/invalidation-du-privacy-shield-les-suites-de-larret-de-
la-cjue
97
Avril 2021, « Nouvelles règles pour les cookies et autres traceurs : bilan de
l’accompagnement de la CNIL et actions à venir » : https://www.cnil.fr/fr/nouvelles-regles-
cookies-et-autres-traceurs-bilan-accompagnement-cnil-actions-a-venir
17/09/2021, « Premier G7 des autorités de protection des données : un débat international sur
la coopération dans la régulation du numérique », en particulier « les enjeux internationaux
de la protection des données » : https://www.cnil.fr/fr/premier-g7-des-autorites-de-protection-
des-donnees
2/11/2021, « Les CNIL mondiales prennent position sur les grands débats internationaux en
matière de protection des données personnelles » : https://www.cnil.fr/fr/les-cnil-mondiales-
prennent-position-sur-les-grands-debats-internationaux-en-matiere-de-protection
28/01/2022, « Cookies : le Conseil d’État valide la sanction de 2020 prononcée par la CNIL
contre Google LLC et Google Ireland Limited » : https://www.cnil.fr/fr/cookies-le-conseil-
detat-valide-la-sanction-de-2020-prononcee-par-la-cnil-contre-google
98
CNIL, LINC, « Les données sociales sont des données de santé comme les autres », du
17/05/2021 : https://linc.cnil.fr/en/node/121106
*****
Conseil d’Etat, 2014, « Le numérique et les droits fondamentaux », Etude annuelle du Conseil
d’Etat, https://www.conseil-etat.fr/publications-colloques/etudes/le-numerique-et-les-droits-
fondamentaux ; https://www.conseil-etat.fr/actualites/discours-et-interventions/le-numerique-
et-les-droits-fondamentaux
99
consultation/opinions/section-1-ouverture-des-donnees-publiques-1/ouverture-du-code-des-
algorithmes-publics ; site de la concertation en ligne pour co-écrire le projet de loi pour une
République numérique : https://www.republique-numerique.fr/
Avril 2020, Décision n° 2020-834 QPC du 3 avril 2020, « « le Conseil constitutionnel juge
que chaque établissement d'enseignement supérieur doit rendre compte des critères en
fonction desquels ont été examinées les candidatures dans le cadre de Parcoursup » :
https://www.conseil-constitutionnel.fr/actualites/communique/decision-n-2020-834-qpc-du-3-
avril-2020-communique-de-presse
15/04/2021, « Proposition de loi pour une sécurité globale préservant les libertés » :
https://www.assemblee-nationale.fr/dyn/15/textes/l15t0599_texte-adopte-provisoire.pdf
JORF n°0091 du 17 avril 2022 Texte n° 99, « Avis relatif à l'impact de l'intelligence
artificielle sur les droits fondamentaux (A - 2022 - 6) »,
https://www.legifrance.gouv.fr/jorf/id/JORFTEXT000045593731
100
7/12/2020, « L'intelligence artificielle (IA) dans les décisions de justice : une révolution en
cours » : https://www.vie-publique.fr/eclairage/277098-lintelligence-artificielle-ia-dans-les-
decisions-de-justice
101
16/12/2020, Ministère de l’Economie française, « Grandes plateformes du numérique : vers le
Digital Services Act et Digital Markets Act » : https://www.economie.gouv.fr/digital-
services-act-et-digital-markets-act
Juin 2015, « Ambition numérique. Pour une politique française et européenne de la transition
numérique », Rapport remis au Premier Ministre :
https://cnnumerique.fr/files/2017-10/CNNum--rapport-ambition-numerique.pdf
Janvier 2022, Dossier « Votre attention s’il vous plait ! Quels leviers face à l’économie de
l’attention », Conseil National du Numérique :
https://cnnumerique.fr/files/uploads/2022/Dossier%20Attention/CNNum_Votre_attention_s
_il_vous_plait_!_Dossier_VF.pdf
102
la-directive-nis-une-opportunite-pour-renforcer-le-niveau-de-cybersecurite-au-sein-de-lue/
« Guide d’hygiène informatique », septembre 2017, version 2 : https://www.ssi.gouv.fr/guide/
guide-dhygiene-informatique/
Révision de la directive NIS : une opportunité pour renforcer le niveau de cybersécurité au
sein de l’UE, octobre 2021 : https://www.ssi.gouv.fr/actualite/revision-de-la-directive-nis-une-
opportunite-pour-renforcer-le-niveau-de-cybersecurite-au-sein-de-lue/ ; https://digital-
strategy.ec.europa.eu/fr/node/10361
Site web du Groupement d’Intérêt Public (GIP) Action contre la Cybermalveillance issu de la
Stratégie numérique du Gouvernement présentée le 18 juin 2015, dont les objectifs détaillés
dans la Stratégie nationale pour la sécurité du numérique publiée le 16 octobre 2015 : https://
www.cybermalveillance.gouv.fr/tous-nos-contenus/a-propos/qui-sommes-nous
*****
coe.int
Site web de la Protection des Données du Conseil de l’Europe :
https://www.coe.int/fr/web/data-protection/home
Conseil de l’Europe « Rapport sur l’application des principes de protection des données aux
réseaux mondiaux de télécommunications », « l’autodétermination informationnelle à l’ère de
l’Internet » , « Eléments de réflexion sur la Convention n°108 destinés au travail futur du
Comité consultatif (T-PD) » du 18 novembre 2004 : https://rm.coe.int/16806ae51f
ec.europa.eu
Competition Policy, Information and Communication Technologies (ICTs) :
https://ec.europa.eu/competition-policy/sectors/ict_en
Data Protection, All Article 29 Working Party documents between 1997 and November 2016
: https://ec.europa.eu/justice/article-29/documentation/other-document/index_en.htm
19/02/2020, Livre Blanc « Intelligence artificielle. Une approche européenne axée sur
l'excellence et la confiance » : https://ec.europa.eu/info/sites/default/files/commission-white-
paper-artificial-intelligence-feb2020_fr.pdf
103
21/04/2021, « Une Europe adaptée à l'ère du numérique: Intelligence artificielle »,
https://ec.europa.eu/commission/presscorner/detail/fr/ip_21_1682
europarl.europa.eu
The Committee on Civil Liberties, Justice and Home Affairs (LIBE), Commission des libertés
civiles, de la justice et des affaires intérieures, du Parlement européen :
https://www.europarl.europa.eu/committees/fr/libe/about
Juillet 2022, Think Tank European Parliament : rapport d’étude de Clément Perarnaud,
Francesca Musiani, Lucien Castex et Julien Rossi, remis au Parlement Européen
« ‘Splinternets’ : Adressing the renewed debate on internet fragmentation »
https://www.europarl.europa.eu/thinktank/en/document/EPRS_STU(2022)729530
Accord politique provisoire sur la législation sur les marchés numériques (DMA), 11 mai
2022 : https://www.consilium.europa.eu/fr/press/press-releases/2022/03/25/council-and-
european-parliament-reach-agreement-on-the-digital-markets-act/
eur-lex.europa.eu
24/06/2013, « Règlement (UE) n ° 611/2013 de la Commission du 24 juin 2013 concernant
les mesures relatives à la notification des violations de données à caractère personnel en vertu
de la directive 2002/58/CE du Parlement européen et du Conseil sur la vie privée et les
communications électroniques » : https://eur-lex.europa.eu/legal-content/FR/TXT/?
uri=uriserv:OJ.L_.2013.173.01.0002.01.FRA
104
concernant des mesures destinées à assurer un niveau élevé commun de sécurité des réseaux
et des systèmes d'information dans l'Union » : https://eur-
lex.europa.eu/legal-content/FR/TXT/?uri=CELEX%3A32016L1148
Depuis 1979, « Global Privacy Assembly est un lieu d’échanges à l’échelle mondiale qui
réunit plus de 80 pays sur des sujets d’intérêt commun en lien avec la protection de la vie
privée » : https://globalprivacyassembly.org/
IFIP international federation for information processing fondée en 1959 sous l’égide de
l’UNESCO : https://hal.inria.fr/IFIP
OCDE, 1974, Questions d’ordre politique soulevées par la protection des données et des
libertés individuelles, principes et perspectives. Compte-rendu du séminaire 24-26 juin 1974,
Paris, OCDE (Etudes d’informatique)
OCDE, 1980, Lignes directrices régissant la protection de la vie privée et les flux
transfrontières de données de caractère personnel,
https://www.oecd.org/fr/sti/ieconomie/lignesdirectricesregissantlaprotectiondelaviepriveeetles
fluxtransfrontieresdedonneesdecaracterepersonnel.htm
RFC 1087 IETF Internet Activities Board, Janvier 1989 Ethics and the Internet
https://datatracker.ietf.org/doc/html/rfc1087
RFC 1855 Netiquette : https://www.rfc-editor.org/info/rfc1855
105
Netiquette Guidelines, 1995 : https://www.rfc-editor.org/info/rfc1855
RFC 3693 IETF J. Cuellar, J. Morris, D. Mulligan, J. Peterson and J.Polk, Février 2004
Geopriv Requirements, https://datatracker.ietf.org/doc/html/rfc3693
RFC 6973 IET FA. Cooper, H. Tschofenig, B. Aboba, J. Peterson, M. Hansen et R. Smith,
Juillet 2013 Privacy Considerations for Internet Protocols,
https://datatracker.ietf.org/doc/html/rfc6973
RFC 8280 IETF Octobre 2017 Research into Human Rights Protocol Considerations,
https://datatracker.ietf.org/doc/rfc8280/
Actes de l’IETF depuis 1986 (en 2022 : le 113ème meeting IETF) : https://www.ietf.org/how/
meetings/past/
Cerf Vinton, 2013, «Internet of Things Workshop», Federal Trade Commission, 19 novembre
2013, pp.118-153, https://www.ftc.gov/news-events/events/2013/11/internet-things-privacy-
security-connected-world ;
https://www.ftc.gov/sites/default/files/documents/public_events/Internet%20of%20Things
%20-%20Privacy%20and%20Security%20in%20a%20Connected%20World/bios.pdf
FTC Staff, janvier 2015, « Internet of Things »,
https://www.ftc.gov/system/files/documents/reports/federal-trade-commission-staff-report-
november-2013-workshop-entitled-internet-things-privacy/150127iotrpt.pdf
*****
106
CREIS et LIANA (laboratoire d’informatique appliquée de l’Université de Nantes), avec la participation
du Centre d’information et d’initiative sur l’informatisation (CIII), et de la CNIL, « Informatique et
Libertés : nouvelles menaces, nouvelles solutions ? », Actes du colloque 1990, Nantes, novembre 1991
5-7/07/1995, « Responsabilités sociales et formations des acteurs de l’informatisation. Informaticiens,
utilisateurs, décideurs », (extrait numérisé et mis en ligne) : http://real.mtak.hu/106931/1/Z.Karvalics-
Szekely_Informatics%20and%20informaticians_1995.pdf
13/06/2003, Journée d’étude « La biométrie entre sécurité et contrôle », https://www.lecreis.org/?p=145
6/07/2004, « Société de l’information, Société du contrôle ? Evolution de la critique de
l’informatisation » : https://www.lecreis.org/?p=188
Discours 2004 de Colette Hoffsaes, co-fondatrice du CREIS : https://www.lecreis.org/colloques%20creis/
2004/colette%20Hoffsaes.htm
1/12/2006, Journée d’étude « La démocratie électronique », https://www.lecreis.org/?p=543
06/2006, Journée d’étude « Les données personnelles et les nouveaux outils d’échanges (Blogs, Wikis,
messageries instantanées, Peer-to-Peer, fils RSS, …) », https://www.lecreis.org/?p=706
14/06/2007, « De l’insécurité numérique à la vulnérabilité de la société » : https://www.lecreis.org/?
p=186
30/11/2007, Journée d’étude « RFID : Quelle société? », https://www.lecreis.org/?p=164
23/05/2008, Journée d’étude « Identité numérique et libertés individuelles à l’heure des réseaux sociaux
et du Web 2.0 », https://www.lecreis.org/?p=694
11/12/2009,
« La gouvernance d’Internet », https://www.lecreis.org/?p=170
1/06/2010, « Les libertés à l’épreuve de l’informatique. Fichage et contrôle social » :
https://www.lecreis.org/?p=180
28/03/2011, « Téléservices publics Usages et citoyenneté Public », https://www.lecreis.org/creis/?
paged=48
16/06/2011, « Le rôle de l’informatique et des TIC dans les transformations des conditions de travail des
salariés » : https://www.lecreis.org/?p=175
5/12/2012 , Journée d’étude « Cloud Computing », https://www.lecreis.org/?p=1658
2/05/2014, « Données collectées, disséminées, cachées – Quels traitements ? Quelles conséquences ? » :
https://www.lecreis.org/?p=2065
6/11/2015 , Journée d’étude « Les objets connectés : quels enjeux? », https://www.lecreis.org/?p=2274
4/11/2016, « La transformation numérique de l’entreprise du futur » : https://www.lecreis.org/?p=2415
16/10/2017, « Vivre dans un monde sous algorithmes », https://www.lecreis.org/?p=2473
17/01/2019, « Les données de santé au risque du numérique », https://www.lecreis.org/?p=2670
13/11/2019, « Justice et numérique », https://www.lecreis.org/?p=2765
20/02/2021, Journée d’étude Blockchain, https://www.lecreis.org/?p=2800
9/01/2022, Débat CREIS-Terminal, « Le télétravail en post-pandémie » :: https://www.lecreis.org/?
p=3051
9/06/2022, « Interconnexions entre transitions numérique et écologique », https://www.lecreis.org/?
p=3060
Autres CREIS :
107
Stefano Rodota, 1999, La démocratie électronique, Rennes, Apogée
Stefano Rodata, 1998, Group of Experts on Information Security and Privacy, « Privacy
protection in a global networked society », OECD, Paris, 16-17 February 1998,
https://www.oecd.org/officialdocuments/publicdisplaydocumentpdf/?cote=DSTI/ICCP/
REG(98)5/FINAL&docLanguage=En (page 28)
Partenaire :
CECIL Centre d'Études sur la Citoyenneté, l'Informatisation et les Libertés
« Guide de survie des aventuriers d’Internet », en ligne :
https://journals.openedition.org/terminal/2291 ; https://www.lecreis.org/?p=2815
21/04/2020, Fiche CECIL, « L’anonymat sur Internet » : https://www.lecreis.org/creis/wp-
content/uploads/F10_anonymat_sur_Internet.pdf
Co-fondateur :
OLN Observatoire des libertés et du numérique
Cecil, Creis-Terminal, Ligue des droits de l’Homme, Syndicat des avocats de France et
Syndicat de la magistrature, rejoints par La Quadarature du Net et Amnesty International
28/01/2014, « Création de l’observatoire des libertés et du numérique (OLN) » :
https://www.ldh-france.org/Creation-de-l-Observatoire-des/
https://www.lecreis.org/?s=OLN ; https://www.lecreis.org/?p=1921
28/01/2018 « Journée protection des données de OLN » : https://www.lecreis.org/?
paged=2&tag=fichiers
8/06/2018, Conférence OLN « Le RGPD… et après ? » :
https://www.ldh-france.org/conference-rgpd/
108
Contributions bibliographies des témoins :
Danièle Bourcier, Eric George, Anne-France Kogan, Hervé Le Crosnier, Francesca Musiani,
Daniel Naulleau, François Pellegrini, Valérie Schafer, André Vitalis
Danièle Bourcier, 1986, Présentation, Cahier S.T.S n°12, « Ordre juridique et ordre
technologique », https://science-societe.fr/cahier-s-t-s-12-ordre-juridique-et-ordre-
technologique/
Danièle Bourcier, 1998, « L'informatisation du droit : réflexions sur l'évolution des techniques
d'écriture de l'État », European Journal of Law, Philosophy and Computer Science, vol. 1-2,
pp. 233-252
Danièle Bourcier, Louise Cadoux (dir.), 1999, Savoir innover en droit. Concepts, outils,
systèmes, Paris, La Documentation Française
Danièle Bourcier, 2006, « Comment s’accorder sur les normes? Le Droit et la Gouvernance
face à Internet », Lex Electronica, vol.10, n°3,
https://www.lex-electronica.org/files/sites/103/10-3_bourcier.pdf
Primavera De Filippi, Danièle Bourcier (dir.), 2016, Open Data & Big Data. Nouveaux défis
pour la vie privée, Mare & Martin, Collection Droit & science politique
Danièle Bourcier, Primavera de Filippi, 2018, « Les algorithmes sont-ils devenus le langage
ordinaire de l’administration ? », in Geneviève Koubi, Lucie Cluzel-Métayer, Wafa Tamzini.
Lectures critiques du Code des relations Public et administration, LGDJ, pp 193-210, https://
hal.archives-ouvertes.fr/hal-01850928/document
Géraldine Aïdan, Danièle Bourcier (dir.), 2021, Humain Non-Humain. Repenser l'intériorité
du sujet de droit, Paris, LGDJ, Lextenso éditions, coll. « Droit et société », MSH, volume 60,
https://www.nxtbook.fr/lextenso-editions/LGDJ/978-2-275-09074-0/index.php?ap=1
Éric George, Geneviève Vidal, 1997, « Où mènent les autoroutes ? », Réseaux, vol. 15, n°84,
pp. 149-162, https://www.persee.fr/doc/reso_0751-7971_1997_num_15_84_3096
Éric George, 1999, « Internet au Québec. Les fournisseurs d'accès et les portails », Réseaux,
vol 17, n°97, pp. 263-278, https://www.persee.fr/doc/reso_0751-
7971_1999_num_17_97_2173
Éric George, Michael Tötschnig, 2001, « Vingt ans de CMO : dialogue sur l’histoire d’un
concept et d’un champ de recherche », in La communication médiatisée par ordinateur : un
carrefour de problématiques, Actes du colloque international dans le cadre du 69 e Congrès
de l’Association canadienne-française pour l’avancement des sciences (ACFAS), Université
de Sherbrooke, Sherbrooke, les 15 et 16 mai 2001
Éric George 2004, « La « fracture numérique » en question », dans Mesures de l’Internet, Éric
Guichard (dir.), Paris, éditions des Canadiens en Europe, pp. 152-165.
Éric George 2004, « Les dessous des discours sur la « fracture numérique » », inTICs et
Inégalités : les Fractures Numériques. Colloque international, Ministère de la Recherche,
Paris, les 18 et 19 novembre 2004.
Éric George, Fabien Granjon (dir.), 2008, Critiques de la « société de l’information », Paris,
L’Harmattan, coll. Questions contemporaines
Éric George, 2009, « Les « nouveaux » médias : un rôle de renforcement des communautés et
de la mobilité ? », inMédias09, entre communautés et mobilité, Conférence d’ouverture,
colloque international, Aix-en-Provence, les 16 et 17 décembre 2009.
Éric George, 2009, « Les classes sociales sont-elles solubles dans Internet ? », Actes du 3e
colloque du GT 13 sociologie de la communication dans le cadre du Congrès de l’Association
internationale des sociologues de langue française (AISLF), Istanbul, du 7 au 11 juillet 2008.
110
transformations du lien et nouveaux lieux sociaux, Conférence séance plénière, colloque des
CR 29 et 33 de l’AISLF, Namur, les 19 et 20 mai 2010
France Aubin, Éric George, Julien Rueff (dir.), 2022, Perspectives critiques en
communication, tome 2, Québec, Presses Universitaires du Québec,
https://extranet.puq.ca/media/produits/documents/3819_9782760556232.pdf
Francesca Musiani, Valérie Schafer, Hervé Le Crosnier, 2012, « Net Neutrality as an Internet
Governance Issue: The Globalization of an American-Born Debate », Revue française
d’études américaines, 4, n° 134, pp. 47-63, https://www.cairn.info/revue-francaise-d-etudes-
americaines-2012-4-page-47.htm
Valérie Schafer, Hervé Le Crosnier, 2012, « Steve Jobs, Dennis Ritchie et John McCarthy. De
l'idée au marché : inventions et innovations dans l'informatique », Hermès, La Revue, 1, n°
62, pp. 179-184, https://www.cairn.info/revue-hermes-la-revue-2012-1-page-179.htm
Hervé Le Crosnier, 2014, « Internet et numérique », Hermès, La Revue, 3, n° 70, pp. 25-33,
https://www.cairn.info/revue-hermes-la-revue-2014-3-page-25.htm
111
Hervé Le Crosnier, 2016, « Affrontements politiques au sein de l’écosystème numérique »,
EcoRev', 1, n° 43, pp. 61-71, https://www.cairn.info/revue-ecorev-2016-1-page-61.htm
Hervé Le Crosnier, 2017, « La connaissance au risque des enclosures », dans : Lionel Dujol
éd., Communs du savoir et bibliothèques. Paris, Éditions du Cercle de la Librairie,
« Bibliothèques », pp. 27-33, https://www.cairn.info/--9782765415305-page-27.htm
Hervé Le Crosnier, 2017, « Tentative de délimitation de la culture numérique pour son usage
dans l’institution scolaire », Hermès, La Revue, 2, n° 78, pp. 159-166, https://www.cairn.info/
revue-hermes-la-revue-2017-2-page-159.htm
112
- Johnson, D., and D. Post. (1997). And how shall the net be governed? A meditation on the
relative virtues of decentralized, emergent law. In Coordinating the Internet, edited by B.
Kahin and J. H. Keller, 62–91. Cambridge, MA: MIT Press.
- Klein, H. (2002). ICANN and Internet governance: Leveraging technical coordination to
realize global public policy. The Information Society, 18(3), 193–207.
- Kleinwächter, W. (2000). ICANN between technical mandate and political challenges.
Telecommunications Policy, 24(6–7), 553–563.
- Lakel, A., & Massit-Folléa, F. (2007). Société civile et gouvernance de l'internet: la
construction d'une légitimité ambiguë. Hermès, La Revue, (1), 167-176.
- Lessig, L. (1999). Code and other laws of cyberspace. New York, NY: Basic Books.
- Litvinenko, A. (2020). “Re-Defining Borders Online: Russian Concept of Internet
Sovereignty in the Context of Global Internet Governance”. Media and Communication.
- MacKinnon, R. (2011). Consent of the networked: The world-wide struggle for Internet
freedom. New York, NY: Basic Books.
- Malcolm, J. (2008). Multi-stakeholder governance and the Internet Governance Forum.
Wembley: Terminus Press.
- Massit-Folléa, F. (2012). La gouvernance de l'Internet. Une internationalisation
inachevée. Le Temps des medias, (1), 29-40.
- Massit-Folléa, F. (2002). De la régulation à la gouvernance de l'internet. Les Cahiers du
numérique, 3(2), 239-263.
- Mathiason, J. (2008). Internet governance: The new frontier of global institutions. New
York, NY: Routledge.
- Mueller, M. (2010). Networks and States: The Global Politics of Internet Governance.
Cambridge, MA: The MIT Press.
- Mueller, M. (2002). Ruling the root: Internet governance and the taming of cyberspace.
Cambridge, MA: MIT Press.
- Mueller, M., and F. Badiei (2020). “Inventing Internet Governance: The Historical
Trajectory of the Phenomenon and the Field”. In Researching Internet Governance: Methods,
Frameworks, Futures, edited by L. DeNardis, D. Cogburn, N. S.
- Levinson and F. Musiani. Cambridge MA: MIT Press
- Musiani, F. (2013). Dangerous liaisons? Governments, companies and Internet governance.
Internet Policy Review 2(1).
- Musiani, F. (2015). “Practice, Plurality, Performativity and Plumbing: Internet Governance
Research Meets Science and Technology Studies”. Science, Technology and Human Values
40 (2): 272–86.
- Musiani, F., Cogburn, D., DeNardis, L., & Levinson, N. S. (Eds.). (2016). The turn to
infrastructure in Internet governance. New York, NY: Palgrave MacMillan.
- Negro, G. (2017). Internet in China. London: Palgrave Macmillan.
- Paré, D. (2003). Internet governance in transition. Lanham, MD: Rowman & Littlefield.
- Pohle, J., and L. Van Audenhove (2017). “Post-Snowden Internet Policy: Between Public
Outrage, Resistance and Policy Change”. Media and Communication 5, 1: 1–6.
- Raymond, M., and L. DeNardis (2015). “Multistakeholderism: Anatomy of an inchoate
global institution”, International Theory 7, 3: 572–616.
- Weber, R. (2010). Shaping Internet Governance: Regulatory Challenges. New York:
Springer.
- Weinberg, J. (2011). Governments, privatization, and privatization: ICANN and the GAC.
Michigan Telecommunications and Technology Law Review 18, 1
- Working Group on Internet Governance (WGIG, 2005). Report of the Working Group on
Internet Governance. Château de - Bossey, June 2005. Available at
http://www.wgig.org/docs/WGIGREPORT.pdf
113
- Wu, T. (1997). “Cyberspace sovereignty? The Internet and the international system”.
Harvard Journal of Law and Technology, 10 (3): 647–66.
« Guide de survie des aventuriers d’Internet ou comment protéger ses libertés en milieu
numérique hostile », en ligne : https://journals.openedition.org/terminal/2291 ;
https://www.lecreis.org/?p=2815
François Pellegrini et Sébastien Canevet, 2013, Droit des logiciels - logiciels privatifs et
logiciels libres, Paris, PUF
François Pellegrini, 2018, « La portabilité des données et des services », Revue française
d'administration publique, 3, n° 167, pp. 513-523, https://www.cairn.info/revue-francaise-d-
administration-publique-2018-3-page-513.htm
114
https://pedagotec.u-bordeaux.fr/informatique_et_societe/Modules-de-formation ;
https://pedagotec.u-bordeaux.fr/informatique_et_societe/public/modules/co/
module_Info_societe.html
Herbert Maisl, André Vitalis, 1985, « Les libertés : enjeu d'une société informatisée », Études,
4, pp. 471-482, https://gallica.bnf.fr/ark:/12148/bpt6k442013s.image.r=j
%C3%A9sus.f41.pagination.langFR
CNIL, André Vitalis, Félix Paoletti, Henri Delahaie, 1988, Dix ans d'informatique et libertés,
Paris, Économica
André Vitalis, Pierre Carrier, Colette Hoffsaes, Martin Blanchet, Suzanne Assie, Rémy Hudo,
1988, L'ordinateur et après, 16 thématiques sur l’informatisation de la société Gaëtan Morin,
Edition ESKA
André Vitalis, 1991, « La fausse transparence du réseau », Réseaux, 3, n° 48, pp. 51-58,
https://www.cairn.info/revue-reseaux1-1991-3-page-51.htm
115
André Vitalis, 1994, « Informatisation et autonomie de la technique », in Sur Jacques Ellul,
Patrick Troude-Chastenet (dir.) Bordeaux, L’Esprit du temps, coll. Philosophie, pp. 151-164,
https://www.cairn.info/sur-jacques-ellul--2908206412.htm
André Vitalis, 2001, « L’exercice d’un pouvoir de régulation informatique et libertés et ses
difficultés » in Les libertés à l’épreuve des nouvelles technologies de l’information, Lyon,
Presses universitaires de Lyon, pp. 147-153
André Vitalis, 2014, « Ellul contre l’idolâtrie technicienne », Le Monde Diplomatique, p. 26,
https://www.monde-diplomatique.fr/2014/04/VITALIS/50326
116
Témoignages Informatique et Société
présentation et audio : https://www.lecreis.org/?p=3164
Danièle Bourcier, Eric George, Anne-France Kogan, Hervé Le Crosnier, Francesca Musiani,
Daniel Naulleau, François Pellegrini, Valérie Schafer, André Vitalis
Entre le 3 janvier 2022 et le 19 mars 2022, le recueil de neuf témoignages courts a été
entrepris (par enregistrement direct ou visio/téléphonique, ou par les témoins eux-mêmes).
Ces neuf témoignages, de jeunes chercheurs à professeurs émérites, permettent de brosser un
tableau francophone (France, Luxembourg, Montréal, malheureusement impossible de
recueillir le témoignage depuis le Sénégal, comme initialement prévu) du champ Informatique
et Société.
Les profils de témoins sont universitaires et chercheurs, en informatique, sciences juridiques,
histoire, science politique, sciences de l’information et de la communication, socio-économie
de l’innovation, et présentent une diversité de parcours institutionnel, associatif, entreprise.
Ces témoignages s’appuient sur une trame thématique relative aux relations technique et
société, fondations de la posture critique relevant du champ informatique et société,
perspectives de l’informatisation de la société, en termes de risques et opportunités, pour la
recherche, la société civile, les institutions et organisations, d’autres points qui paraissent
essentiels aux témoins, sur le processus d’informatisation sociale.
Avec mes sincères remerciements aux témoins et à Michaël Vidal et Maurice Liscouët
117
Résumé
118