#1 Comprendre le numérique - Louis Derrac

Aujourd’hui, nous possédons presque toutes et tous un petit ordinateur dans notre proche, connecté à internet et qui nous permet de savoir presque tout, partout, tout le temps. À l’image de ce téléphone intelligent, le numérique régit aujourd’hui presque tout, partout, tout le temps. Mais finalement, savez-vous vraiment ce qu’est « le » numérique, ce terme fourre-tout qui peut autant désigner un ordinateur, Facebook, une imprimante 3D, Wikipédia, le mail, la blockchain, ou encore les intelligences artificielles et ChatGPT ? Plus intrigant encore : savez-vous comment on en est arrivé là ?

Je vous propose qu’on commence dès maintenant, car on a beaucoup de choses à se dire. S’il y a quelque chose de certain sur ce cycle de conférences, c’est que c’est assez ambitieux et chaque conférence mérite bien une heure. Le cycle sera bien sûr enregistré, donc sera repartagé.

Bienvenue tout le monde, bienvenue à toutes et bienvenue à tous.

Très rapidement en introduction, c’est un cycle auquel je pensais depuis quelque temps déjà. Finalement je me suis dit qu’à un moment il fallait se lancer.

Ce cycle découle de deux convictions qui constituent mon engagement professionnel et personnel d’ailleurs : d’une part, le numérique n’est aujourd’hui pas compris comme l’objet politique qu’il est et dont il faut, selon moi, beaucoup plus débattre ; d’autre part, je considère que le numérique tel qu’il domine actuellement d’un point de vue économique, tel qu’il est massifié et tel qu’il est encouragé politiquement n’est pas acceptable. C’est une notion sur laquelle j’ai commencé un peu à réfléchir. Il n’est pas acceptable, dans le sens où, d’une part il n’est pas soutenable environnementalement et humainement ; il n’est pas acceptable parce qu’il est aujourd’hui très largement subi et beaucoup trop peu choisi, ce qui revient à la question politique ; il n’est pas acceptable parce que, encore une fois, le numérique tel qu’il est dominant actuellement n’est pas assez émancipateur et beaucoup trop aliénant. Ce qui, on le verra, constitue un des nombreux paradoxes quand on voit l’origine du numérique.

À partir du moment où le numérique actuel, tel qu’il domine actuellement, n’est pas acceptable, cela veut dire qu’il faut transformer ce numérique, c’est ma conviction. Pour transformer le numérique et aller vers autre chose, il faut pouvoir le critiquer, il faut se mettre d’accord sur une critique du numérique, sur une critique positive, une critique négative, une critique assez complète et, pour critiquer le numérique, il faut le comprendre. D’où le triptyque de ce cycle de conférences qui est le triptyque de mon engagement et sur lequel je voudrais créditer Bernard Stiegler [1], puisque c’était ce qu’il proposait au sujet des techniques : « Comprendre les techniques pour pouvoir les critiquer et les transformer ».

Je vais me lancer assez rapidement parce qu’on a beaucoup de choses à se dire et trop peu de temps. Je vais juste vous prévenir sur le fait que vous sortirez frustré de cette conférence, parce que le format fait qu’il est beaucoup trop descendant, parce qu’on va voir les choses beaucoup trop rapidement, parce qu’on ne va pas voir des choses qui étaient pourtant indispensables, parce qu’on va voir des choses qui vous semblaient évidentes. Voyez cette conférence comme une sorte d’apéritif avant le banquet que le sujet mérite. Voyez cette conférence comme une invitation à la curiosité, à la sérendipité, cette manière de sauter de lien en lien qui est justement permise par le Web. Par ailleurs, sachez que cette conférence sera suivie d’un cycle de débats qui commencera en juillet et qui continuera peut-être en septembre, à la rentrée, si on voit qu’il y a de l’intérêt.

Pour commencer, on en est là aujourd’hui. Quand je vois un petit peu les sujets du numérique, c’est vrai que c’est vertigineux de voir à quel point on est sur cette prévision d’Arthur Clarke, cet écrivain de science-fiction qui disait que toute technologie suffisamment avancée finissait par être indiscernable de la magie. Le numérique est devenu magique, il est devenu invisible aussi. Allons-y pour essayer de remettre un petit peu de concret, d’histoire, de culture, de matérialité dans ce numérique.

Vous retrouverez la rediffusion de cette conférence ainsi que pas mal de ressources sur mon site, j’y reviendrai à la fin, vous le retrouverez facilement. C’est une conférence qui est partagée sous licence libre Creative Commons BY-SA.

Qui suis-je ?

De mon côté, qui suis-je ? Je suis un acteur indépendant et militant de l’éducation au numérique, d’une part, c’est donc vraiment l’objet de ce cycle. Quand je dis éduquer au numérique, c’est vraiment former les citoyens d’une société numérique à un sujet qui, comme je le disais, est aujourd’hui beaucoup trop mal compris et pas du tout assez politisé, d’autre part, de la transformation alter numérique des organisations. C’est justement pour poursuivre ce raisonnement disant que si le numérique actuel n’est pas satisfaisant, qu’il faut aller vers autre chose, il faut donc que les organisations se questionnent. Si vous voulez creuser, il y aura plus d’informations sur mon site.

Avertissements

Quelques avertissements, enfin.
Cette conférence est un exercice de vulgarisation, ce n’est pas un travail d’expertise. Je ne suis moi-même pas un expert, je ne suis pas un conférencier professionnel. Je ne prétends pas à cette expertise. En revanche, c’est un exercice d’analyse, il est forcément critiquable sur le fond et sur la forme. Et enfin, j’assume un propos engagé, donc forcément biaisé. Là aussi, c’est critiquable, c’est débattable et on aura l’occasion d’en débattre par la suite.

Un cycle en trois conférences

Le cycle est en trois conférences : la première aujourd’hui pour comprendre le numérique, dans deux semaines pour le critiquer, dans un mois pour le transformer, suivies de débats dont j’ai parlé.

Ces conférences sont à chaque fois des rencontres tout public. J’ai vu dans les inscriptions qu’il y avait beaucoup de gens qui, à mon avis, doivent déjà savoir beaucoup de choses.
Ce sont des rencontres qui sont partagées sous licence libre. Je ferai vraiment le maximum pour que ces matériaux permettent à d’autres de se les réapproprier sur le principe des licences libres.
Et ce sont trois rencontres qui sont proposées à prix libre. Même si rien ne vous est demandé financièrement pour y assister, ce sont évidemment des conférences qui ne sont pas gratuites pour moi, puisque ça me prend un temps très important pour les préparer. Si vous voulez soutenir ce travail bénévole, n’hésitez pas. Je repartagerai un lien et il se trouve aussi facilement sur le site.

Lançons-nous. C’est parti.

Une histoire sociotechnique et politique

Comprendre le numérique. Commençons par une très rapide histoire sociotechnique et politique.

Pourquoi sociotechnique ? Parce que c’est une histoire qui est à la fois sociale, elle est technique et elle est politique.

L’ordinateur pour calculer

Commençons par l’ordinateur. L’ordinateur, c’était l’outil pour calculer. Pour calculer parce que, en gros, dès que l’humain a commencé à se sédentariser et que la population a augmenté, il a fallu calculer plein de choses. Souvent ce sont les impôts, les stocks de récolte, ce sont les calculs pour comprendre les crues du Nil, les Égyptiens avaient déjà des papyrus où ils notaient des calculs. Les besoins de calculs ont augmenté au fur et à mesure que les civilisations se sont complexifiées, les États-nations se sont constitués. On a donc eu les premières machines à calculer mécaniques au XVIIᵉ siècle, à la Renaissance. On pense par exemple à la pascaline. Il y a donc une longue histoire de ces machines à calculer.

Notre histoire du numérique commence avec les ordinateurs qui, eux, se sont développés autour de la Seconde Guerre mondiale pour répondre à des besoins de calcul, à nouveau. Calculer, notamment faire des calculs pour des besoins militaires, tout ce qui était balistique, faire marcher des canons, faire marcher des navires, comprendre un certain nombre de calculs pour cibler, etc. C’était de la recherche militaire, recherche appliquée, et c’était des besoins de décryptage. On pensera notamment au film Imitation Game qui raconte l’histoire d’Alan Turing [2], un des pères fondateurs de l’informatique.

À la base c’était donc ce besoin de calcul, et un ordinateur, ça ressemblait à ça, c’était un énorme superordinateur qui n’avait que pour fonction de calculer.
Ici on voit Grace Hopper [3], qui a créé le langage Cobol, qui fait partie des premières informatrices et programmatrices et qui travaille sur un des premiers ordinateurs. Vous voyez l’ambiance, années 50/60, de très gros ordinateurs qui ne servaient qu’à calculer, qui étaient réservés aux militaires, aux universités et aux labos de recherche.

On a eu ensuite, d’un point de vue technique, une très rapide miniaturisation avec la fameuse loi de Moore [4], loi auto-réalisatrice ou Moore prédisait qu’on allait réussir, en fait, à miniaturiser petit à petit une partie centrale de l’ordinateur, l’endroit où se font les calculs, justement. On est donc passé de ces énormes tubes sur la gauche au transistor, puis aux circuits intégrés, puis au microprocesseur, avec des parties de plus en plus petites. Ça a permis des baisses de coûts, ça a permis de miniaturiser la chose. Donc, dans les années 60, on a déjà des unités centrales beaucoup plus petites, qui permettent des nouveaux usages dans les entreprises, ce qu’on appelait à l’époque le time sharing, le partage de temps. On pouvait donc avoir plusieurs employés qui bénéficiaient de la même unité de calcul et qui commençaient à se familiariser avec le fait d’utiliser, comme ça, un ordinateur.

Fin des années 70, on a un autre événement social, sociétal et culturel. C’est la contre-culture aux États-Unis, c’est mai 68 en France. On a ce moment très important de contestation de l’ordre établi, de remise en question des structures de la société, des institutions, du taylorisme, des formes d’organisation des entreprises. On a donc cette contre-culture, les mouvements hippies, les hackers, les makers et tout qui se mettent à voir dans l’ordinateur qui, on le rappelle, était vraiment une machine à calculer, un outil d’émancipation, en fait un outil d’augmentation de l’humain. On voit, dans cette image, Douglas Engelbart [5] qui anime ce qu’on appelle la mère de toutes les démos et qui, en 1968, présente, pour une des premières fois, un ordinateur avec une interface graphique alors qu’avant il n’y avait que des lignes de code qu’il fallait taper sur un clavier. Il présente une des premières souris. Il présente, pour la première fois, des liens hypertextes. Il présente un système de visioconférence qui marchait à peine, mais c’était révolutionnaire pour l’époque, c’était incroyablement en anticipation de toutes les inventions qui allaient ensuite se faire. On reviendra à ce Douglas Engelbart, parce qu’à cette époque il imaginait l’ordinateur et ce qui allait devenir le numérique comme un moyen, fondamentalement, d’augmenter l’humain. On y reviendra parce que c’est important pour comprendre le numérique.

Donc les mouvements makers. Là on voit un jeune homme d’un de ces clubs d’informatique, donc de bricoleurs, de hackers, qui voulaient utiliser ces ordinateurs personnels pour en faire des outils de bidouille, d’émancipation.

De fil en aiguille, on commence à avoir des ordinateurs qui se commercialisent pour le grand public, années 80, qui se miniaturisent aussi, on l’a vu.

Et je fais un saut dans le temps, jusqu’à l’iPhone, présenté en 2007 qui, pour le coup, est la révolution en termes d’appareil qui permet de démocratiser et même de massifier l’ordinateur et de faire en sorte qu’aujourd’hui il est dans presque toutes les poches.

Internet pour communiquer

Ensuite, on a Internet. Internet pour communiquer.
Internet, c’est une histoire qui commence, là aussi, dans les années 70 aux États-Unis, mais pas que. On a eu des réseaux semblables, par exemple en France, le réseau Cyclades [6].
Internet est venu, là encore, des besoins des militaires et des scientifiques qui étaient les seuls, à l’époque, à avoir des ordinateurs et ils voulaient un réseau de télécommunications, simplement pour partager de la puissance de calcul, pour pouvoir communiquer des informations
Ils ont donc mis au point ce système qui présentait plusieurs originalités pour l’époque : il était décentralisé là où le système de téléphones était centralisé, il y avait un central qui dispatchait et qui maîtrisait, finalement, tout le réseau de communication, alors que là le réseau permettait à chaque ordinateur d’être branché aux autres de manière décentralisée. C’est donc un réseau qui s’est peu à peu propagé. On voit ici les débuts du réseau Arpanet [7], un des ancêtres d’Internet. Je suis obligé d’aller très vite.

Aujourd’hui, Internet est un réseau qui est devenu évidemment mondial, qui passe très largement sous les mers avec énormément de câbles sous-marins, sur lesquels j’aurai l’occasion de revenir. Internet, c’est vraiment un réseau d’ordinateurs, ce sont vraiment des câbles qui, concrètement, branchent des ordinateurs entre eux et qui leur permettent de se partager des informations.

Le Web pour partager

Et enfin le Web pour partager. Le Web qui n’est pas la même chose qu’Internet, c’est une des applications d’Internet. Le mail est un autre exemple d’application d’Internet, d’ailleurs le mail a été inventé avant le Web. Donc le Web c’est cette invention de Tim Berners-Lee [8] qui a été lancée en 1991, qui est composé globalement de trois notions :

  1. un langage, le langage HTML, qui permet de coder une page web ;
  2. un protocole, le protocole HTTP, qui permet de donner une adresse permettant de se rendre sur une page web. Par exemple, si je vous dis d’aller sur louisderrac.com, ça vous permettra de vous connecter à ma page web, sur laquelle est codée une page dans ce fameux langage HTML ;
  3. et enfin, les navigateurs web, ces outils qu’on utilise tous les jours aujourd’hui, que ce soit Google Chrome, Mozilla Firefox, Safari, Microsoft Edge, qui nous permettent d’accéder à ces pages web et de les décoder.

Le Web, pour le coup, c’est le carton, c’est la démocratisation d’Internet, puisque, dès 1995, on a des premiers sites privés et commerciaux qui se lancent, avec Amazon par exemple. Et très rapidement, on a ce Web social qui se met en place, avec peu à peu Myspace, Facebook, YouTube. On parlera de Web 2.0 ou de Web social, pour parler de ce Web qui permet à chacun de se créer un compte très facilement et, finalement, de partager et de contribuer à ce web.

C’est très rapide, mais ça nous permet de comprendre comment on se retrouve aujourd’hui finalement connectés les uns aux autres sur ce format. C’est vraiment l’évolution de ces trois ensembles de technologies : d’un côté l’ordinateur qui s’est miniaturisé, de l’autre Internet et enfin le Web qui a permis de simplifier les usages et de permettre énormément de choses qu’on fait aujourd’hui sans même y penser.

Évolution de l’ordinateur

Quand on voit l’évolution de l’ordinateur, c’est intéressant parce qu’on a l’impression d’un cycle. On est passé de ces machines à calculer des années 50 à des machines à tout faire des années 80, vraiment cette volonté d’augmenter l’humain et lui permettre de créer, de lui permettre de partager, ce qui s’est ensuite popularisé dans les années 2000, l’arrivée d’Internet et du Web, mais aussi du fameux smartphone, qui a vraiment permis de démocratiser le numérique. Et enfin, aujourd’hui, on constate qu’on est un peu revenu vers cette machine à calculer, on en reparlera. Quand on pense à toutes ces questions d’intelligence artificielle, quand on pense au numérique qui permet de faire des calculs météorologiques très compliqués, qui permet de suivre le réchauffement climatique. On voit qu’on est, d’une certaine manière, revenu ou, en tout cas, qu’on n’a jamais quitté la réalité que le numérique et l’ordinateur c’est, quand même et avant tout, une machine à calculer.

Ce que dit l’histoire des sciences et des techniques

Il est important de se rappeler ce que dit l’histoire des sciences et des techniques, qui est qu’une invention technique ne s’explique pas uniquement par la technique. Ce n’est pas la technique qui s’impose à la société, c’est bien l’inverse, c’est la société qui explique et qui influe, en fait, les évolutions techniques. Donc, d’une certaine manière, si le numérique est ce qu’il est aujourd’hui et la manière dont l’ordinateur, Internet et le Web se sont créés, ça a vraiment été lié à la société telle qu’elle était en train de changer et qui est encore en train de changer, c’est quelque chose qu’il ne faut pas oublier. Il y a eu des évolutions qui n’étaient pas directement liées au numérique, mais qui se sont faites en même temps.

Une société qui a changé avec le numérique

D’abord une augmentation massive de la population. Il ne faut pas oublier que nous étions deux milliards en 1927, trois en 1960, quatre en 1974, avec un milliard de plus quasiment tous les 14 ou 15 ans. C’est un petit en train de baisser et ça va certainement stagner, mais on a eu une augmentation massive de la population qui était liée notamment à des questions d’hygiène, de santé, d’alimentation.

On a eu une massification de l’éducation, d’abord dans les pays riches et maintenant de plus en plus dans le monde, ce qui fait qu’on avait cette jeunesse de la contre-culture, justement, qui s’est mobilisée parce que, d’une certaine manière, elle remettait en question l’ordre existant, un anti-autoritarisme, une remise en cause des institutions, du patriarcat, des religions, etc., marquée par la contre-culture aux États-Unis, symbolisée aussi en France par mai 68 – même si ce mouvement est dépassé et je n’en suis absolument pas spécialiste –, mais on a vraiment cette société qui a aussi été coresponsable des inventions techniques, donc de l’évolution du numérique.

Aujourd’hui, l’humanité connectée

On peut voir aujourd’hui que l’humanité est connectée. Plus de cinq milliards de smartphones, donc à peu près le même nombre d’internautes, ce qui est à peu près le même nombre de gens sur les réseaux sociaux, c’est quasiment tout le temps cinq milliards. Ce qui fait qu’aujourd’hui, en gros, être équipé c’est être connecté, et être connecté, c’est être sociabilisé sur les réseaux sociaux. Vous pouvez voir qu’une minute sur Internet en 2021, c’est juste incroyable. C’est vraiment une nouvelle époque où l’humanité est résolument connectée.

Une histoire de définitions

La définition, les termes sont très importants.
À la base, le mot numérique était bien un adjectif qui permettait de qualifier tout objet, toute chose qui relevait des nombres. C’est pour cela qu’on parlait volontiers de calcul numérique, parce que les calculs sont représentés en nombres. On parlait de supériorité numérique parce qu’on avait plus de personnes d’un côté que de l’autre, c’était donc ça qui était qualifié de numérique.
Ensuite, l’adjectif numérique est devenu technique et a fini par qualifier des objets techniques qui diffusaient de l’information sous forme de nombres.
Ensuite, cet adjectif s’est étendu pour parler de beaucoup plus de choses : d’économie, de société, de transformation. On voit que cet adjectif a dépassé les questions techniques.
Et enfin, c’est un des phénomènes marquants, en tout cas en langue française, cet adjectif s’est substantivé, c’est-à-dire qu’il est devenu le propre sujet. On parle maintenant « du numérique » et on voit bien que c’est très compliqué de dire « le numérique » quand on parle de choses aussi différentes qu’un réseau social comme Facebook, qu’une plateforme comme Wikipédia, qu’un ordinateur, qu’une intelligence artificielle, qu’une Game Boy, etc., Game Boy est peut-être un mauvais exemple, mais ous ces objets techniques qui transmettent de l’information sous forme numérique.

Le numérique vu par le monde

Au-delà de cette définition et du fait que le terme numérique est devenu très polysémique, avec plusieurs sens, comment est vu le numérique par le monde ? Il est vu comme une révolution, voire plusieurs. Il est vu comme un ensemble de techniques et de technologies, comme du matériel, du logiciel, des informations, une économie et une industrie, des cultures et des imaginaires, des idées et des paradoxes. On va essayer de parcourir un peu tout ça, en allant très vite.

Le numérique vu par les sciences humaines

Vu par les sciences humaines, et je trouve ça intéressant de marquer ça, le numérique est un « phénomène pervasif », d’après Dominique Boullier [9], sociologue. C’est un phénomène pervasif parce que le numérique pénètre toutes nos activités, y compris les plus intimes. C’est vrai que c’est fascinant de voir à quel point le numérique est présent dans nos moments de séduction, il est présent dans notre rapport à la santé, il est présent à tous les moments de notre vie. On parle aussi de « fait social total » en citant Marcel Mauss [10], un anthropologue qui étudiait ces choses. On peut parler de fait social total au sens où, de la même manière, le numérique régit finalement aujourd’hui toutes nos activités, qu’elles soient économiques, juridiques, financières, sociales, etc.

Révolution(s) ?

Commençons à plonger dans ces différentes notions du numérique. L’aspect révolution d’abord.

Révolution industrielle

Quand on parle de révolution numérique, souvent on parle de troisième ou de quatrième révolution industrielle, qui suivrait donc la première révolution industrielle avec l’invention de la machine à vapeur, la deuxième qui a vu arriver l’ère du pétrole et de l’électricité, on serait donc à cette troisième révolution industrielle de l’informatisation qui produit de la destruction créatrice telle que théorisée par l’économiste Schumpeter avec des disruptions profondes de l’économie, etc.
C’est une forme de révolution.

Révolution cognitive

Il y en a une autre qui est qui est aussi intéressante, c’est le fait de considérer le numérique comme une révolution cognitive au sens que nous avons des supports de stockage, des supports de mémoire, des traces écrites, à notre rapport à l’écriture, à la lecture, au partage d’informations. Et là, on peut avoir une autre vision avec l’invention de l’écriture bien avant notre ère, bien avant Jésus-Christ, puisque c’était autour de - 3300. Une invention, d’ailleurs, qui s’est faite à plein d’endroits dans le monde, comme souvent avec les inventions techniques.
L’écriture a donc été une des premières manières qu’on a eues d’extérioriser la mémoire qu’on a en nous, la mémoire de notre cerveau, notre mémoire cognitive et de la déporter vers des supports extérieurs.
L’imprimerie a été une autre révolution cognitive dans le sens où elle a permis de populariser massivement la connaissance et l’information. Là aussi, c’est intéressant de faire des parallèles et de voir à quel point l’imprimerie a eu de l’influence sur la propagation de la Réforme, sur le libéralisme économique et le libéralisme des idées avec le protestantisme, de voir qu’il avait un lien, à l’époque, entre, justement, ce bouillonnement sociétal et, en même temps, cette invention qui est venue, d’une certaine manière, répondre à cette demande et à ce bouillonnement.
Aujourd’hui, dans les années 2000, le numérique : Internet, l’ordinateur, cette capacité de partager, de publier, d’échanger, etc.
J’aime beaucoup cette citation qu’on attribue à Benjamin Bayart [11] : « L’imprimerie a permis au peuple de lire et Internet va lui permettre d’écrire. »

Révolution(s), synthèse

Si on veut rester dans le champ des « révolutions », entre guillemets, c’est vraiment un ensemble de révolutions avec une augmentation puissante du pouvoir d’agir individuel, cet accès illimité, ce côté partout, tout le temps, d’accès à l’information, cette capacité à publier et à partager très largement, cette capacité aussi à s’organiser collectivement sans limites spatio-temporelles.

Voilà pour le côté révolutionnaire.

Maintenant, on passe sur le côté technique et technologie.

Techniques et technologies

Les télécommunications

On va commencer très vite sur les deux premières, puisque j’en ai déjà parlé. Il faut se dire qu’aujourd’hui le numérique est un enchevêtrement de trois ensembles de technologies, notamment les télécommunications, puisque, finalement, le numérique est quand même très lié à Internet. Imaginez vos ordinateurs, votre smartphone : si vous n’avez pas accès à Internet, finalement vous n’avez plus autant d’usages qu’avec. Le numérique repose beaucoup sur ces télécommunications qui ont répondu aux besoins humains depuis très longtemps avec le télégraphe, puis le téléphone et maintenant Internet, pour communiquer, transmettre des informations.

L’informatique

Ensuite, il y a eu l’informatique. On en a parlé aussi. L’informatique, c’est vraiment un des deux cœurs du numérique, puisque l’ordinateur c’est notre outil d’accès, en fait.

L’intelligence artificielle

Enfin, je voudrais faire un petit focus sur l’intelligence artificielle, puisque, aujourd’hui, beaucoup du numérique qu’on utilise repose, de près ou de loin sur, entre guillemets, ces « intelligences artificielles ». Il faut rappeler, d’abord, que les intelligences artificielles ne sont pas à proprement parler des technologies, c’est plutôt un ensemble de théories et de techniques. C’est un ensemble de concepts, aussi, qui visent à réaliser des machines capables de simuler l’intelligence humaine.

On va y revenir. L’intelligence artificielle est un concept qui est né dès les années 50. C’est très vieux. Il y a eu beaucoup de moments de ce qu’on appelle les hivers de l’intelligence artificielle, où les avancées ont été très lentes et puis là, en ce moment, on est dans une période de très grande accélération.
On peut mentionner deux éléments de l’intelligence artificielle, sans trop s’y perdre, parce que ça devient vite technique et, du coup, je me perdrais moi-même.

D’un côté, il y a l’apprentissage machine qui est arrivé à partir des années 80 et qui a commencé à se populariser avec le Web. C’était cette question de programmer des algorithmes pour analyser des données, essayer d’apprendre de ces données et ensuite d’appliquer. On parle souvent de ces apprentissages machine pour essayer de comprendre quelle photo est un chat, quelle photo est un chien. On programme des algorithmes, on entraîne ces algorithmes et ensuite l’algorithme finit par comprendre, en tout cas appliquer des règles pour comprendre que tel animal est un chat et que tel animal est un chien. Pour moi, l’exemple le plus marquant d’apprentissage machine, auquel nous avons tous et toutes contribué, ce sont les Google captcha où, finalement gratuitement, nous avons entraîné les machines de Google. C’était très certainement lié à leur projet de machine de voitures autonomes, puisqu’on voit ici que, souvent, les images qu’on a à traiter relèvent de la voirie, relèvent de repérer des piétons, repérer des feux, repérer des bornes à incendie, etc. Là, finalement, nous entraînons la machine humainement et c’est vraiment le cœur de du fonctionnement de beaucoup de méthodes d’apprentissage machine.

Ensuite, on a depuis peu, ce qu’on appelle l’apprentissage profond. Pour ne pas rentrer dans le détail, puisque c’est très technique, l’apprentissage profond, c’est une nouvelle méthode qui bénéficie des deux grandes innovations des dernières années, en tout cas des deux grandes réalités des deux dernières années.
D’une part, on a des puissances de calcul qui, aujourd’hui, sont énormes comparées à ce qu’il y avait au début des années 50 quand ces concepts se sont formés. C’est difficile de donner des ordres de grandeur, mais, par exemple, les smartphones qu’on a aujourd’hui dans nos poches, et même ceux qu’on avait déjà il y a cinq ans, sont largement plus puissants que les plus gros superordinateurs qu’on a vus dans les années 50. On a vraiment eu une multiplication exponentielle des puissances de calcul.
Par ailleurs, il y a ce qu’on appelle les big data, ces données qui sont massivement créées sur Internet et qui permettent d’entraîner à une toute autre échelle des programmes d’intelligence artificielle.

Je trouve que c’est très parlant de passer sur cet exemple de la traduction. Longtemps la traduction automatique a été très mauvaise parce que, justement, on essayait de donner des règles empiriques pour essayer d’expliquer algorithmiquement et entraîner des machines : leur expliquer comment fonctionne une langue, comment traduire tel ou tel mot, etc. On voyait qu’il y avait tout le temps des couacs, parce que c’est très complexe, il y a beaucoup d’exceptions, il y a beaucoup de contexte. Ça demandait des typologies de règles et un nombre d’entraînements assez massif jusqu’à, finalement, cette nouvelle technique d’apprentissage profond où, en fait, l’approche a été changée. Ils sont partis, d’une part, de cette puissance de calcul renouvelée, bien plus massive qu’auparavant, et, d’autre part, sur le fait qu’il existait maintenant des données, en l’occurrence des données textuelles dans différentes langues, de manière massive. Ils sont passés chez DeepL [12], c’est en tout cas l’histoire romancée que j’en ai eu, sur les documents fournis par la Commission européenne. La Commission européenne produit énormément de textes liés aux débats, liés aux travaux de la Commission, et ces textes sont publiés dans plus de 20 langues, puisque ce sont les langues reconnues de l’Union européenne. DeepL fournissait ces textes à ces machines en lui disant « essaye de comprendre la logique qu’il y a entre ce texte qui est en français, ce texte qui est en anglais et ce texte en allemand, etc. Et débrouille-toi ». Ils ont donné des milliers et des milliers de textes, la machine a mouliné, mouliné et, à un moment, elle a dit : « OK, c’est bon, j’ai compris ». Sauf que nous, nous ne comprenons pas comment elle a compris. C’est ça, pour simplifier, l’apprentissage profond.
Ça pose des questions, puisque on a du mal à expliquer le fonctionnement de ces machines une fois qu’elles ont compris.

Deux rapports à l’humain

Ça nous fait passer au fait que pour comprendre le numérique, il faut comprendre qu’il y a au moins deux rapports à l’humain.

Le premier, c’est le prolongement de ce que disait, de ce que promouvait Douglas Engelbart, souvenez-vous, dans sa mère de toutes les démos et qui voulait que l’ordinateur augmente l’humain. Il imaginait vraiment un ordinateur qui soit avec une souris, qui soit avec une interface graphique, il avait vraiment en tête que des humains l’utilisent pour créer, pour collaborer, pour partager des informations, etc.
Et ça a été vraiment dans ce prolongement que se sont insérés des gens comme Steve Jobs avec Apple, mais aussi Bill Gates avec Microsoft dans l’épopée de l’ordinateur personnel. C’était vraiment se dire que l’ordinateur devait être « une bicyclette pour l’esprit , et cette métaphore est effectivement très puissante. On sait que Steve Jobs était un excellent marketeur et un homme avec de très bonnes formules, mais celle-ci, il faut le reconnaître ! La bicyclette permet d’aller beaucoup plus vite en mobilité et l’ordinateur allait être cette bicyclette pour notre esprit.
C’était une vision, un rapport à l’humain, l’ordinateur et la machine pour augmenter l’humain.

De l’autre côté, dès les années 60, et c’est vraiment le côté de l’intelligence artificielle, des personnes, là j’ai voulu citer Irving John Good, un statisticien qui disait : « Mettons qu’une machine supra-intelligente soit une machine capable de grandement surpasser un humain, aussi brillant soit-il, alors l’intelligence humaine serait très vite dépassée. »
C’est intéressant parce que, dès les années 50/60, dès les débuts de l’informatique, il y a eu finalement deux types d’équipe : ceux qui travaillaient sur le numérique qui allait augmenter l’humain et d’autres qui travaillaient sur le numérique qui allait potentiellement remplacer l’humain. Ça a amené à plein de mouvements, qui existent, les mouvements transhumanistes qui disent que de toute de façon, c’est inéluctable, une machine va remplacer l’humain, donc il faut soit s’augmenter soi-même — là on arrive dans toutes les questions transhumanistes des cyborgs, se connecter soi-même à la machine, à Internet, etc. — ou alors de doper nos capacités cognitives, pour garder le rythme.
Bien sûr, on n’en est pas du tout là et ce genre de théorie est battu en brèche par les experts actuels. C’est pour montrer qu’il y a une tension entre ces deux rapports à l’humain.

Enfin, je vous laisse sur cette question, peut-être qu’on pourra en parler après : est-ce que ChatGPT [13] peut être considéré comme une bicyclette de l’esprit ou est-ce que c’est une volonté de dépasser et de remplacer l’humain ?

Matériel, logiciel, informations

Continuons toujours comprendre le numérique.
Le numérique, c’est du matériel, du logiciel, des informations.

Matériel

Déjà, d’un point de vue matériel, c’est très important de se dire que le numérique c’est plein d’objets. Si on prend les objets, qu’on regarde un peu en pourcentage de ce que ça représente, si on prenait le total de ce que ça représente, presque une sorte de poids du numérique, ce sont nos terminaux à 76 %, c’est donc le numérique qu’on a chez nous : nos smartphones, nos tablettes, nos enceintes connectées, notre routeur wifi, notre télé connectée, etc. C’est 76 % des ressources.
Ensuite ce sont les infrastructures réseau : ce sont les câbles, les antennes qui nous permettent de nous connecter en 4G, 5G, ce sont les câbles sous-marins, ce sont des espaces, des lieux physiques que je vous montrerai après, où sont branchés les réseaux internet, etc. C’est toute cette question d’infrastructure qui fait qu’en gros, à la fin, tous nos ordinateurs sont connectés les uns aux autres, quasiment.
Et enfin, les centres informatiques, les centres de données, ça représente à peu près 8 % de la masse, et c’est là où sont stockées, finalement, toutes les données auxquelles on accède à distance, d’une certaine manière. D’où cet adage, ce dicton populaire, qui est que le cloud n’existe pas, que le cloud, c’est l’ordinateur de quelqu’un d’autre. On le voit avec pas mal de stickers sur certains ordinateurs. C’est très important de le rappeler. Quand on dit que nos données sont hébergées sur un cloud, en fait elles sont hébergées quelque part dans un centre de données.
Un centre de données, ça ressemble à ça : concrètement, ce sont plein d’ordinateurs les uns sur les autres. Ce ne sont pas des ordinateurs qui ressemblent exactement aux nôtres, parce qu’ils n’ont pas besoin d’écran, ils n’ont pas besoin de clavier, mais ça reste des ordinateurs avec des puissances de calcul, du stockage, beaucoup de stockage pour le coup. C’est là que sont stockées les photos de vacances que vous stockez sur votre cloud personnel, c’est là que sont stockées les vidéos que vous regardez sur Netflix, etc.

Où sont ces datacenters, ces centres de données ?, parce que c’est ça aussi : le numérique, c’est géographique, c’est matériel. On voit qu’ils sont très largement dans les pays du nord. Ils sont très largement aux États-Unis, là j’ai pris les GAFAM [Google, Apple, Facebook, Amazon, Microsoft] aussi, ces cinq boîtes américaines, on voit qu’ils sont quand même beaucoup aux États-Unis. Ensuite, ils sont un peu en Europe et un tout petit peu ailleurs. Mais, en ordre de grandeur, il y en a quand même beaucoup aux États-Unis, c’est important de le rappeler.
En Europe, ils sont majoritairement en Irlande, parce que c’est là que sont la plupart des sièges, parce que l’Irlande est un pays ami en termes d’imposition et de réglementation. Ensuite, ils sont en général dans des pays du nord, parce que les centres de données sont des endroits où ça chauffe beaucoup, les serveurs ça chauffe, il faut les refroidir, donc ils aiment bien les pays froids. Ça aussi, c’est matériel.

En France, on n’a aucun centre de données. [Il y a de nombreux datacenters en France, autour de 230,entre colocations, datacenters privés et autres. La carte de datacentermap.rs est incomplète et peu mise à jour. Les grand hubs européens c’est Amsterdam, Francfort, Londres, Paris, Dublin, Marseille, Stockholm, etc. Avoir un climat froid pour refroidir les salles n’est pas spécialement un facteur important. Note de l’intervenant]. Quand on dit que les centres de données, en France, ne consomment pas de carbone parce que nous avons le nucléaire, en fait, ils ne sont pas en France, ils sont ailleurs et ils sont dans des pays majoritairement carbonés. C’est important de se le rappeler.

Et ces centres de données, on l’imagine, sont hyper-stratégiques en cas de conflit. Imaginez un pays qui n’a pas Google, qui n’a pas Facebook, il est très vite embêté.

Ça c’est ce à quoi ressemble un boîtier dans un centre de raccordement à Internet. Je suis chez Orange, vous êtes chez Free, je vous envoie un message, je communique avec vous. À un moment, il faut que nos réseaux se croisent et ça se passe dans des endroits comme celui-là. Donc, là encore, c’est matériel, et enfin c’est très matériel par ces fameux câbles sous-marins dont je vous ai déjà parlé.

Logiciel

Ensuite, il y a le logiciel.

Il y a les systèmes d’exploitation qui permettent de faire tourner un ordinateur. C’est très majoritairement Windows qui est utilisé, 70 %. Ensuite c’est Mac, 15 %, et Linux, un logiciel libre qui est un peu la troisième voie ; j’aurai l’occasion d’en reparler, surtout dans les prochaines conférences, pour parler du logiciel libre et en quoi c’est une des solutions pour un autre numérique.

Quand on a allumé son ordinateur et qu’on est soit sur Windows, soit sur Mac, soit sur Linux on a des logiciels. Souvent c’est la messagerie, c’est Word, c’est LibreOffice, c’est Photoshop, etc., mais, en réalité aujourd’hui, la plupart de nos usages sont sur le navigateur.

Il y a quelques navigateurs. C’est Google Chrome qui est en situation hégémonique et ça questionne parce que ça donne lui beaucoup de pouvoir. D’ailleurs, Google Chrome a un modèle basé sur la publicité donc le tracking des utilisateurs, ce sont des choses qu’on va questionner là aussi.
Ensuite, via ces navigateurs, on a accès à plein de sites web ; certains, et de plus en plus de ces sites web, sont ce qu’on appelle maintenant des web applications, des logiciels web. En fait, en gros, tout ce qu’on fait de toute façon sur un ordinateur, c’est bien avec logiciel.

Je voudrais vous partager quelques notions sur ce logiciel.
D’abord que « le code fait la loi », c’est très important. Lawrence Lessig [14] a partagé un texte très important en 2000 : au-delà des règlements, des instances de régulation que sont la loi promulguée par des États, que sont les normes sociales qui est le marché qui fait loi, en fait le code s’est rajouté. Aujourd’hui, quand vous utilisez un logiciel, quand vous êtes sur une plateforme, en fait vous êtes soumis à la loi de la manière dont cette plateforme est programmée.
Pour vous donner un exemple, aujourd’hui, votre vision du monde dépend en grande partie de Google et de la manière dont l’algorithme de Google, de la manière dont ce code est programmé et fonctionne. C’est pareil sur Facebook : votre vision, votre fil d’actualité est totalement régi par un code qui fait loi sur la manière dont Facebook fonctionne. D’ailleurs Facebook ne tolère pas, par exemple, des photos représentant de la nudité féminine donc les censures, ce qui est totalement extra-loi, c’est vraiment lié à la manière dont la plateforme est codée. Donc, en l’occurrence, des algorithmes détectent automatiquement ça et décident que ce n’est pas acceptable sur la plateforme.
Le message de Lawrence Lessig, c’est qu’il faut vraiment questionner le contrôle démocratique des gens qui font le code, donc les programmeurs, parce que ce sont eux qui, aujourd’hui, font la loi. On y reviendra.

Une autre citation que j’aime beaucoup, de Antonio Casilli [15], c’est qu’« il n’y a pas d’algorithme ». De la même manière que « le cloud c’est l’ordinateur de quelqu’un d’autre », l’algorithme « c’est la décision de quelqu’un d’autre ». Par exemple, quand les responsables de YouTube disent : « Ça n’est pas notre faute si l’algorithme de YouTube met des vidéos complotistes ou favorise Donald Trump par rapport à Hillary Clinton pour les élections, c’est l’algorithme. Vous savez, nous, on ne le contrôle pas ! ». En fait, si ! L’algorithme, c’est la décision de quelqu’un d’autre, c’est la décision des programmeurs qui l’ont développé et la manière dont il a été pensé.

Une autre citation que j’aime beaucoup c’est « l’ordinateur est fatal », notamment le logiciel est fatal. Benjamin Bayart [16] disait ça dans une vidéo que je mettrai sur le site, qui n’est pas mal. En gros, quand on traite aujourd’hui avec une machine, on n’a pas du tout la même interface de négociation qu’avec un humain, parce que la machine est binaire, parce que la machine comprend ce pourquoi elle a été programmée. Si, par exemple, dans une démarche administrative, on vous demande si vous êtes bleu ou rouge et que vous êtes vert, que la machine a été programmée pour accepter que vous êtes bleu ou rouge, en fait elle ne pourra pas gérer votre cas si vous êtes vert. Là, on se retrouve face à un des nœuds de la numérisation des services publics puisque la bureaucratie est de fait une négociation, puisqu’on négocie avec le système en permanence quand on rentre parfaitement dans ses cases. Cette citation est assez puissante. Et là, on est toujours sur la question du logiciel.

Enfin, je voudrais citer Richard Stallman [17], qui voulait parler de la philosophie du logiciel libre, à l’inverse du logiciel propriétaire, il exprimait le logiciel libre en trois mots : liberté, égalité, fraternité pour dire, en reprenant notre devise, que le logiciel libre veut donner des libertés à ses utilisateurs. Ça fait écho à Code is Law, « le code fait la loi » de Lawrence Lessig. À partir du moment où les logiciels qu’on utilise façonnent autant notre vision du monde, ça paraît aujourd’hui impensable qu’on n’ait pas plus de liberté sur ce code : la liberté de le lire, donc de le comprendre, pas forcément nous. Et c’est là où on arrive sur les questions de fraternité de Richard Stallman. Ce n’est pas forcément nous qui allons regarder le code, mais d’autres, des développeurs, des programmeurs, des gens de la communauté, vont pouvoir regarder du code et dire : « OK, là, clairement, je vois bien que l’algorithme de YouTube est déficient parce que j’ai repéré ça, etc. »

Informations

Enfin l’information.
Je vais continuer à citer quelques personnes clés de l’histoire du numérique.
« L’information veut être libre », c’est signé Stewart Brand [18], un personnage de la contre-culture américaine qui a été dans beaucoup de communautés, qui a fait l’objet d’un ouvrage magistral de Fred Turner. Je vous invite à creuser. Il représentait la pensée de ce libéralisme informationnel qui voulait que l’information soit libre, sans droit d’auteur, sans contrainte, etc.

Là c’est une citation de Jimmy Wales [19], cofondateur de Wikipédia, qui parlait déjà d’imaginer un monde informationnel dans lequel chacun pourrait avoir accès à la somme de toutes les connaissances humaines. C’est ce qu’on est en train de faire, ce côté où l’information peut être librement partagée et accessible sur Internet.

Pour conclure sur cette information numérique, ce qui est notable, c’est qu’elle est copiable, stockable, archivable, entre guillemets, en théorie, « à l’infini », sauf quand le datacenter brûle physiquement, quand il est attaqué ou quand il est en panne, etc., ce sont des choses qui peuvent arriver.
L’information numérique qui peut être déplacée et échangée. Ça crée une tension, parce qu’il y a d’un côté la volonté de partage, « l’information veut être libre », de Steward Brand et de la philosophie, par exemple, des hackers qui veulent que l’information soit libre, et, de l’autre côté, le respect des droits d’auteur. Évidemment, vous imaginez bien qu’aujourd’hui, les ayants droit ont resserré les vis, ont fait respecter les droits d’auteur et on en reparlera.

Il y a cette notion de bien non rival, qui est très importante sur l’information numérique.
Pour y revenir, en deux secondes : si j’ai un livre, physique, que je vous le passe, je perds possession du livre et vous en prenez possession, alors que si je vous passe un livre numérique, en fait je garde le livre numérique que je viens de vous partager.
On est vraiment sur une dimension très importante du numérique. On voit bien que cette information n’est pas en quantité limitée, c’est un bien non rival. Ce qui pose justement plein de questions économiques qui remettent une peu en question les droits d’auteur ou la propriété intellectuelle, tels qu’ils sont actuellement présents, ce qui est encore un objet de lutte et de réflexion politique, mais clairement, aujourd’hui, la propriété intellectuelle et les droits d’auteurs ont gagné.

Économie

Je vois que le temps avance, je vais devoir commencer à accélérer un petit peu. C’est un peu un test et j’ai eu quelques bugs.

Côté économie, j’ai des cours sur l’économie numérique et je pense qu’il y a beaucoup de choses sur mon site et sur Internet, n’hésitez pas à compléter.

Le numérique et l’économie

En gros, le numérique a créé une nouvelle économie. Il y a plein d’industries qui ont été créées ad hoc pour servir ce monde : toute l’industrie du hardware qui fabrique des ordinateurs, qui fabrique des serveurs, etc., qui fabrique des consoles de jeux et j’en passe. Toute l’industrie du software, du logiciel, avec quelques monopoles, quelques très gros acteurs : Microsoft en premier, Adobe, etc. Des industries autour des contenus et des médias.

On a une ancienne économie qui a été bouleversée, avec beaucoup de désintermédiation notamment, ça a été le cas, ce qu’on a un peu symbolisé par l’ubérisation, cette manière qu’avait l’économie numérique de créer des plateformes qui mettaient directement en relation l’offre et la demande, qui court-circuitaient un petit peu les marchés existants. Les exemples mythiques, c’est Uber qui rapproche des chauffeurs et des gens qui cherchent des courses, et qui, du coup, concurrence les taxis ; Airbnb qui rapproche des gens qui ont un appartement et d’autres qui cherchent à louer un appartement, et qui mettent en péril l’industrie hôtelière. Dans un cas comme dans l’autre, Uber n’a aucun salarié et aucune voiture alors qu’il est dans le business des taxis et Airbnb a très peu de salariés et aucun bâtiment dans son patrimoine immobilier alors qu’il est dans le business de l’hôtellerie.
C’est vraiment ce côté désintermédiation qui a beaucoup bouleversé l’économie et qui continue de la bouleverser, d’où une transformation numérique des organisations en cours.

Il y a des modèles économiques nouveaux qui ont été suscités par le numérique : l’économie collaborative ou du partage. On peut penser à Le Bon Coin, au fameux Airbnb, à toutes ces plateformes qui sont parties de cette économie du partage : j’ai un bien, je n’en profite pas tout le temps, je peux le louer, je peux le revendre d’occasion, etc.
Les modèles ce qu’on appelle les Wikinomics, puisque Wikipédia est le principal acteur qui a fait fonctionner ce modèle, c’est-à-dire à la fois une plateforme qui est massivement alimentée par sa communauté, d’où le terme crowdsourcing, la foule qui contribue, et l’économie du don.
Il y a aussi des modèles économiques de crowdfunding où la masse peut, par exemple, contribuer à financer et tout cela a suscité plein d’utopies sur la fin des banques, la fin des modèles économiques traditionnels, beaucoup d’utopies qui ont été un petit peu douchées depuis et on y reviendra, qui ont été suscitées par ce nouveau paradigme numérique.

Et enfin, un phénomène de concentration monopolistique, lié à plusieurs caractéristiques du numérique.
L’effet réseau, le fait que plus on est nombreux sur un réseau, plus ce réseau est utile et plus il est dur de le quitter. Pensons à Facebook aujourd’hui, trois milliards d’internautes, donc quitter Facebook, c’est quitter ces trois milliards d’internautes. Et si vous passez sur un réseau alternatif, vous perdez tout ça et vous devez repartir de zéro.
Pareil rendement croissant : plus vous avez de gens qui utilisent votre service, plus vous avez données sur ces gens et plus votre service s’améliore. Pensons à Google où chacune de nos recherches, finalement, contribue à alimenter Google. Plus nous sommes nombreux à utiliser Google, plus Google s’améliore, puisqu’on fait plein de liens entre nos recherches, donc Google s’alimente de toutes ces informations.
Ce qui mène à cette terminologie : les GAFAM aux États-Unis, les BATX — Baidu, Alibaba, Tencent et Xiaomi— en Chine, qui sont des acteurs hégémoniques et qui contribuent à ce numérique « dominant », entre guillemets, que je m’appliquerai à critiquer sur le la prochaine conférence.

Culture

Côté culture, là aussi je vais devoir passer assez vite.

Un pop culture propre au Web

Une énorme pop culture était propre au Web et s’est quand même « mainstreamisée », entre guillemets, on peut le constater. Mais, à la base, le Web a été un formidable vivier de créativité, un immense aplatissement des rapports entre créateurs et consommateurs de contenu. C’est difficile de se dire qu’avant le Web très peu de gens pouvaient créer du contenu et avoir accès à une audience. Le Web a été cette incroyable opportunité pour énormément de créateurs de contenu, que ce soit dans la musique, dans la vidéo, dans les fanfictions, donc dans l’écriture, dans les blogs, etc.

De fait, il y a eu une incroyable augmentation de l’offre culturelle. On a aussi une population qui a augmenté, qui s’est enrichie, qui s’est éduquée, c’est donc normal que l’offre culturelle ait suivie ; il y a des liens avec le Web.

On a toute une pop culture qui est représentée par les challenges qu’il y a eus, les défis, les mèmes, la culture des mèmes, la culture de tous ces moments viraux qui se sont partagés sur des communautés, sur des forums, sur des communautés de sous-titres, des créateurs qui se sont vraiment créés sur Internet et qui ont acquis une certaine notoriété sur Internet, les mèmes et les gifs, les remix et les mashups. Remix, c’est le fait de reprendre un produit culturel et de le remixer, ça s’est beaucoup fait, ça se fait beaucoup dans la musique. Ça se fait moins aujourd’hui parce que les ayants-droit, hop !, ont verrouillé le truc et maintenant YouTube, par exemple, détecte automatiquement les musiques que vous reprenez donc verrouille votre vidéo, ce qui change totalement cette pop culture que j’estime être en perte de vitesse.

Pour finir, je citerai Dominique Boulier : : « Favorable à l’innovation et à la créativité à l’origine, le copyright – donc les droits d’auteur – s’est aujourd’hui transformé en outil de préservation juridique et commerciale de la rente des ayants-droit ». Pareil, je ne peux pas commenter trop longuement, mais c’est à méditer.

Idées, utopies et paradoxes

Je vais finir sur les idées, utopies et paradoxes. Et là, je vais devoir commencer mon marathon et je prédis que j’aurai sans doute au moins cinq minutes de retard et je m’en excuse.

Le numérique c’est beaucoup d’idées, beaucoup d’utopies et beaucoup de paradoxes et, pour moi, c’est presque le plus important. C’est pour ça qu’il va falloir aussi le critiquer et le transformer. On a eu des utopies et des contre-utopies.

Des idées d’acteurs nombreux et parfois emmêlés

Ces idées proviennent de plein de gens qui ont contribué, qui ont fait le numérique, qui ont fait le Web, qui ont fait Internet, qui ont fait l’ordinateur : les scientifiques et les chercheurs, les militaires, même s’ils ont été très discrets, qu’ils ont beaucoup financé, ils n’ont jamais été totalement loin de cette infrastructure, notamment aux États-Unis, et on y reviendra. Les écosystèmes de geeks, les hippies et les acteurs de la contre-culture, les hackers, les makers, les entrepreneurs et les startupeurs, les États.

Autant d’acteurs du numérique qui ont des idées, parfois emmêlées, souvent en contradiction.
Je vais en citer quelques-uns.

J’aime beaucoup celle-là, j’ai découvert que c’est de Grace Hopper, cette informaticienne et inventrice du langage Cobol. Occasion aussi de rappeler que l’histoire du numérique, c’était des femmes avant que l’histoire ne les éjecte un peu trop rapidement et j’y reviendrai aussi dans la critique du numérique. Grace Hopper disait : « Il est plus facile de demander le pardon après que la permission avant », ce que je trouve assez fascinant d’une femme qui a travaillé longtemps dans la marine. Comme quoi on voit qu’on est dans cette tension clairement culturelle entre, d’un côté, l’ordre établi et cette contradiction, cette opposition à l’ordre. Ça m’a fait penser au film Eragon où il y avait cette citation, « mieux vaut demander pardon que permission ». Message reçu cinq sur cinq par Facebook et beaucoup d’acteurs de la Silicon Valley qui avaient ce moto move fast and break things, « aller vite et casser des choses », demander pardon après. Mark Zuckerberg est connu pour savoir le demander quand il le faut, donc, là aussi, culture web oblige. Ça a donné évidemment tous les mèmes, c’est-à-dire cette reprise donc d’une image avec une variante, le principe des mèmes.

Aaron Swartz [20], programmeur et activiste, militant des libertés numériques et martyr de cette cause, puisqu’il s’est suicidé suite à son procès, après avoir rendu public de la connaissance scientifique. C’est vraiment une invitation à lire ce qu’a écrit ce jeune qui est décédé, de mémoire, à 27 ans. Ce qu’il a écrit est impressionnant et à quel point, lui aussi, a été visionnaire. Il a écrit à peu près en 2012 : « Désormais tout le monde a un droit de parole – c’est formidable –, il s’agit de savoir qui est entendu. ». Je trouve que c’est fascinant quand on voit ce que devient, par exemple, Twitter aujourd’hui, c’est-à-dire que dans la vision libertarienne de Elon Musk, de beaucoup d’acteurs de la Silicon Valley, la liberté d’expression doit être absolue. Sauf que ce que dit Aaron Swartzok c’est : « OK, tout le monde a droit à la parole, mais qui doit être entendu ? Est-ce tout le monde mérite d’être entendu de la même façon ? », et là, on revient à ce que disait Lawrence Lessig, « le code fait la loi », comment on programme des interfaces, qui donne la parole, à qui et en fonction de quoi ? On en reparlera dans la critique du numérique, mais on voit bien que la plupart des plateformes sociales, aujourd’hui, n’ont pas pour but de donner la parole à des personnes qui ont des choses intéressantes à dire, des choses pertinentes, des choses drôles, mais à des personnes qui disent des choses qui viralisent la plateforme et qui augmentent le chiffre d’affaires de la plateforme, et ça se questionne.

« La technologie n’est ni bonne, ni mauvaise, ni neutre », Melvin Kranzberg, historien des techniques. C’est aujourd’hui beaucoup repris dans les réflexions sur le numérique : le numérique n’est pas neutre, il faut sortir de ça, il est peut-être ni bon ni mauvais, mais il n’est pas neutre non plus. En fait, il est quand même programmé avec une certaine intention par ses programmeurs. J’y viens après, mais il n’est pas neutre et c’est vraiment un message clé.

Julian Assange [21], je l’ai laissé en anglais parce que ça sonne vraiment mieux : People should have privacy. Governments shoud have transparency, « le peuple devrait avoir droit à sa vie privée, les gouvernements devraient, en revanche, être tenus à une forme de transparence ». C’est le fondateur de Wikileaks et c’est puissant parce qu’on voit qu’il y a une totale disproportion, aujourd’hui, entre ces deux droits, en tout cas, ces deux appels qu’il a, donc des tensions. C’est pour cela que je parle d’idées, d’utopies de tension. J’ouvre un peu sur ça.

J’aime beaucoup cette phrase qu’a prononcée Spideralex, une cybermilitante féministe, sur une émission de France Inter, j’ai mis la référence sur la page de la conférence : « Manifester sur un réseau social, c’est comme manifester dans un centre commercial, on peut le faire, mais on n’est pas chez soi, on ne maîtrise pas l’espace, on n’est pas dans un espace public ». Ce n’est pas un espace public, encore une fois, qui est régi par des lois et des normes sur lesquelles la démocratie s’exerce. On est sur un espace privé sur lequel le code fait la loi. C’est essentiel et je pense que c’est important de garder ça en tête.

« Les personnes qui développent sont essentiellement des hommes blancs de milieux socioprofessionnels favorisés, donc, logiquement, ils ont développé un numérique non inclusif » Isabelle Collet. C’est totalement lié à ce que disait Melvin Kranzberg et ça a été repris vraiment par beaucoup de philosophes des techniques. Comme ce sont des hommes blancs, CSP+, qui ont codé, notamment dans la Silicon Valley, je rajouterai que ce sont souvent des Américains, avec un système de valeurs américain, forcément. Le numérique qu’ils ont développé n’est pas inclusif, il est biaisé par leur vécu, par leur sexe, par leur rapport au monde, etc., ce n’est donc pas du tout un numérique qui convient à l’entièreté de la population.

Un autre message, de John Perry Barlow [22] en 1996, donc autre époque, autre moment. Vous voyez un homme blanc, américain, plutôt favorisé, qui disait : « Nous créons un monde où tous peuvent entrer sans privilège ni préjugé dicté par la race, le pouvoir économique, la puissance militaire ou le lieu de naissance ». C’est vraiment l’utopie des pionniers, le fait de dire : « Nous allons créer un monde, le monde numérique, Internet, le Web, où il n’y aura pas de préjugé, il n’y aura pas de racisme, il aura pas de privilèges ». Des sociologues comme Dominique Boullier ou Dominique Cardon [23] le disent très bien : en France, c’était très naïf de croire que cette révolution technique allait changer, allait créer des révolutions sociales. En fait, ce n’est pas du tout comme ça que ça s’est passé, évidemment. Le numérique n’a pas changé les rapports sociaux, n’a pas changé les notions de capital social, de capital économique, de capital culturel, tel que c’était théorisé par Bourdieu. On y reviendra.

Au contraire, ce que dit Félix Tréguer, militant des libertés numériques, on constate que « l’information accentue les rapports de pouvoir plus qu’elle n’égalise les rapports de force ». Félix Tréguer a écrit L’utopie déchue - Une contre-histoire d’Internet. Il constate qu’il y a même eu un retournement contre les militants d’Internet avec, aujourd’hui, un numérique, un Internet qui est tellement au service des États, de plus en plus contrôlé, qui sert de plus en plus à la surveillance – on en parlera aussi abondamment dans deux semaines – ce qu’on appelle le capitalisme de surveillance et la surveillance de masse opérée par les États.
L’informatique qui était vraiment partie comme une utopie d’émancipation, d’augmentation de l’humain, de l’individu, d’augmentation des libertés individuelles, se retourne finalement contre ses créateurs et contre ceux qui ont cru dans cette utopie.

Je finis par un horrible tableau pour un peu les lister.

Il y avait ces utopies : Internet va donner accès à la connaissance pour toutes et tous, une méritocratie ascendante par le peuple et pour le peuple. La réalité, c’est que la démocratisation d’Internet s’est opérée sous des formes ségrégatives. C’est ce que dit notamment Dominique Pasquier quand elle étudie l’Internet des familles populaires.

Le numérique accroît les inégalités sociales et économiques existantes. On le voit quand on fait de la numérisation des services publics. Les personnes les plus touchées sont les personnes qui étaient déjà les plus précaires.

Le numérique va permettre l’émancipation des individus et renforcer les libertés. Il l’a fait, mais, d’un autre côté, le numérique renforce aussi certaines formes d’aliénation, quand on pense à la manière dont les réseaux sociaux, aujourd’hui, sont programmés pour capter l’attention, pour limiter certains contenus, etc.

Il limite certaines libertés aussi par le contrôle, la censure, la surveillance de masse. Ça dépend aussi des pays dont on parle, mais c’est une réalité.

Il y avait aussi cette utopie que le numérique et Internet allaient être un nouvel espace, une nouvelle frontière. Il y avait vraiment cette comparaison avec la conquête de l’Ouest, cette nouvelle frontière où il n’y aurait plus de règles, chacun pourrait créer, s’exprimer librement, avoir du pouvoir. C’était un espace de grande liberté, d’originalité créatrice, mais Internet est en train, peu à peu, d’être régulé et canalisé par l’État et les marchés, notamment les GAFAM et les ayants-droit, on y reviendra.

Pareil le numérique, que ce soit l’ordinateur personnel et Internet, devaient décentraliser le pouvoir vers le citoyen. C’était l’originalité des technologies numériques : l’ordinateur peut être chez nous, ce n’est pas une technologie centralisée, Internet est un réseau décentralisé. On peut très bien fonctionner avec un réseau citoyen à une échelle municipale, à une échelle locale, à une échelle de quartier, c’est théoriquement et techniquement tout à fait possible.
Mais on voit que le numérique, aujourd’hui recentralise le pouvoir vers quelques puissants, par exemple les GAFAM. Aujourd’hui, 90 % des internautes utilisent Google comme moteur de recherche. Que peuvent faire ces 90 %, dont on fait partie du coup, s’il n’y a plus Google pour accéder au Web ? On voit bien que le web s’est fortement centralisé autour de Google puisque, pour beaucoup de gens, aller sur le Web c’est passer par Google.
Il s’est resserré autour de certains influenceurs et de certains États.

Utopie et idéologie. L’idéologie libertarienne, qui est très puissante dans la Silicon Valley, partait du principe que l’État est nul, inutile, dépassé. Les startups, le numérique, ces nouveaux outils techniques vont permettre de se passer de ces États, parce qu’on n’en aura plus besoin. On va créer une monnaie numérique qui fera qu’on n’aura plus besoin des banques ; on va créer des instances d’échange, de communication, qui feront qu’on aura plus besoin des États, etc.
C’est vraiment un ensemble de croyances très propres à la Silicon Valley, dont on pourrait parler pendant des heures, mais la réalité, c’est qu’en contre-utopie et en contre-idée de ce libertarianisme affiché, la Silicon Valley est profondément liée au complexe militaro-industriel américain et dépend largement de la commande publique.
Pour les experts, c’est toujours amusant de voir Elon Musk afficher des idéologies libertariennes, tout en sachant que la plupart de ses entreprises n’existent ou ne fonctionnent encore aujourd’hui que parce qu’il est quasiment sous perfusion de la commande publique, quand on pense à SpaceX, aux usines Tesla, etc.

Transhumanisme. L’intelligence artificielle va résoudre les problèmes de l’humanité en dépassant notre propre intelligence humaine limitée. La réalité, ce que disent des chercheuses comme Timnit Gebru, qui s’est fait licencier récemment de Google, c’est que l’intelligence artificielle, aujourd’hui, pose déjà des problèmes réels concrets et qu’il ne faut pas fantasmer sur une intelligence artificielle forte un jour, dont il faut se préoccuper. La réalité, c’est qu’il faut déjà réguler l’existant, les multiples problèmes causés par le fait que ces machines, dont j’ai essayé de vous expliquer des rudiments, fonctionnent aujourd’hui sur des données d’apprentissage qui sont biaisées, puisque ce sont données d’Internet où les données statistiques sont biaisées : Internet n’est pas du tout une représentation parfaite du monde, ce qui amène à du racisme, à des fausses informations, etc.

Conclusion

On a fait une petite épopée sur cette première conférence.

Le numérique est le fruit d’une histoire sociotechnique riche, complexe, passionnante, fulgurante et aussi très paradoxale, je trouve. Avec vraiment beaucoup d’utopies, de croyances, d’idéologies qui, aujourd’hui, sont percutées au mur des réalités, au mur de la sociologie, au mur du réel, des États, de la complexité du monde, du fait aussi que l’humain étant ultra-complexe et ultra-diverse, avec, par exemple, beaucoup d’humains qui font des choses mauvaises, cela est évidemment arrivé dans le monde numérique. Les pionniers qui espéraient un monde idéal, évidemment, ne se rendaient pas compte qu’au début ils étaient entre eux, entre pionniers, entre blancs, CSP+, qu’ils n’avaient pas trop de problèmes, etc. Il n’y avait donc pas beaucoup de problèmes au tout début d’Internet. Mais, évidemment, Internet s’est développé et s’est démocratisé, maintenant il a vraiment un peu toutes les tares de l’humanité, parce que l’humanité est très complexe.

C’est une somme d’inventions techniques qui sont le fruit de leur époque. C’est très matériel !!, j’ai mis deux points d’exclamation, le numérique est très matériel et ça a plein d’impacts dont on parlera dans deux semaines, des impacts environnementaux notamment, mais aussi des impacts géopolitiques, politiques, etc. Le numérique est un objet politique, il n’est certainement pas neutre, on le développera à partir de la prochaine conférence.

Et enfin, c’est parce qu’il est porteur de nombreux enjeux politiques, économiques, sociaux et philosophiques que le message clé, c’est qu’il faut continuer à le comprendre, le critiquer, le transformer pour, au final, je l’espère, avoir beaucoup plus de débats citoyens, de débats politiques dans nos différentes échéances politiques nationales et internationales. Surtout en lien avec les enjeux de notre époque, des enjeux d’urgence environnementale où, je le dirais, le numérique a un impact vraiment non négligeable, les enjeux de justice sociale où, là encore, le numérique a un enjeu vraiment non négligeable.

Ma conclusion est qu’au-delà de ce cycle de conférences, n’hésitez pas à être curieux et continuez de creuser ces sujets.

Merci beaucoup pour votre attention.
Pour rappel, une page est dédiée à cette conférence et permettra d’aller plus loin, de partager cette vidéo, de mettre plein de ressources, j’y travaille. Si vous avez des choses à rajouter, des critiques, des compléments, je les intégrerai évidemment.
N’hésitez pas aussi, si vous le souhaitez, à soutenir ce travail. Ce n’est pas du tout une obligation, mais c’est un travail bénévole et militant. Et, en gros, c’est aussi une manière de voir si ce genre de format peut fonctionner en étant non pas financé par des clients parce que je suis indépendant, mais par le public.
Merci beaucoup.