Les Newsletters Interstices
Simulation de mobilité sur Lyon © Inria / Photo C. Morel
    Niveau intermédiaire
    Niveau 2 : Intermédiaire

    Lire & Voir : Sciences du numérique et impact sur la société

    Culture & Société
    Quelques références pour réfléchir aux enjeux des sciences et technologies de l'information et de la communication pour notre société.

    Comment être élu à tous les coups ?

    Jean-Baptiste Aubin, Antoine Rolland (Éditions EDP Sciences, Collection : Le monde des données, mars 2022)

    Malgré son titre, ce livre ne vous garantit pas de savoir comment organiser des élections pour être élu ou élue à coup sûr, à moins de présenter l’unique candidature en lice. Ce livre est cependant l’occasion de nous rendre compte que le choix du mode de scrutin influe plus souvent que nous l’imaginons sur le résultat de l’élection. Et son sous-titre, « Petit guide mathématique des modes de scrutin », est plus révélateur du contenu de l’ouvrage.

    La première partie est une discussion autour des propriétés souhaitables d’un mode de scrutin, telles que l’indépendance du résultat par rapport aux votants, ou le fait que s’il existe une candidature préférée par l’ensemble des votants et votantes, alors cette personne est élue. Rapidement, les auteurs mentionnent le théorème d’Arrow, qui met en évidence les limitations fondamentales de tout processus de vote. Je vous laisse découvrir son énoncé complet et correct.

    Le livre décortique ensuite les scrutins uninominaux tel que la présidence de la République, à un et deux tours, avec différentes variantes pour en corriger les défauts. Les autres modes de scrutin sont alors abordés, tout d’abord ceux basés sur des évaluations, c’est-à-dire des classements des candidatures par ordre de préférence ou des notes attribuées à chaque candidature. Viennent ensuite les scrutins de listes, c’est-à-dire les élections où on élit une liste composée en « panachant » des personnes présentes sur les différentes listes candidates.

    J’ai aimé, tout au long du livre, la discussion éclairante sur les implications d’un mode de scrutin et l’importance de choisir les aspects que l’on souhaite privilégier, par exemple avantager des candidatures clivantes ou au contraire de compromis. J’ai été étonnée par les exemples illustrant le fait que certaines propriétés souhaitables peuvent ne pas être vérifiées : il y a certes des exemples « jouets » mais aussi, de façon plus surprenante, des exemples historiques. J’ai apprécié la réflexion sur le délicat équilibre à trouver entre le « mieux » (d’un point de vue mathématique, sur le nombre de propriétés vérifiées simultanément) qui pourrait être l’ennemi du « bien » (le fait qu’un électorat non spécialiste de ces questions puisse comprendre le mode de scrutin choisi et se l’approprier).

    Même si les mathématiques sont bien présentes, elles sont restreintes au strict minimum et facilement identifiables grâce à leurs encadrés grisés, pour les réfractaires. Les personnes friandes de mathématiques verront quant à elles leur curiosité assouvie grâce au chapitre supplémentaire en fin d’ouvrage. Enfin, j’ai été plus que surprise par la complexité du mode de scrutin législatif, complexité telle que je serais bien en peine de vous le résumer en quelques lignes.

    Bref, ce livre m’a marquée et j’ai beaucoup appris. Je vous en recommande la lecture et je vous propose un exercice pour vérifier vos connaissances : si je vous informe que les élections européennes (que n’ont pas mentionnées Jean-Baptiste Aubin et Antoine Rolland) s’effectuent selon les règles de la représentation proportionnelle, au scrutin de liste à la plus forte moyenne, êtes-vous capable d’expliquer en quoi il consiste ?

    Nathalie Revol

    L’empire des algorithmes

    Stéphane Grumbach (Éditions Armand Colin, coll. Objectif Monde, mai 2022)

    Ce livre traite de la révolution numérique, que l’on peut dater environ du début des années 2000. L’auteur propose une analyse très pertinente et remarquable des impacts du numérique dans la société.

    L’informatique est apparue vers la deuxième moitié du vingtième siècle, et a permis des avancées considérables dans de nombreux domaines, par exemple en calcul ou en gestion. Mais un changement majeur du traitement de l’information est apparu. En effet, l’information est massivement collectée de nos jours et est traitée par de nombreux algorithmes. L’auteur propose alors un nouveau concept, qu’il appelle la datasphère, qui est en quelque sorte la collection de toutes les informations, quelles qu’elles soient. Un point important est que l’information contenue dans les données peut être séparée de son support matériel ; par exemple, le génome d’un être vivant peut être séquencé puis manipulé numériquement, hors de son origine biologique. Ce riche concept de datasphère sous-tend l’argumentaire du livre.

    Les algorithmes sont bien sûr au cœur de ces traitements. L’histoire des algorithmes, que retrace magistralement l’auteur, est marquée par de nombreuses évolutions. Pour traiter les volumes importants de données, sont nés les réseaux de communication et surtout les plateformes qui facilitent les échanges entre les acteurs. Ainsi des consommateurs peuvent facilement et rapidement faire appel à des services proposés sur une plateforme. D’après l’auteur, ces intermédiations, rendues possibles par des algorithmes, sont une véritable révolution dans toutes les strates de la société. De nombreux exemples concrets viennent appuyer avec force cette théorie très intéressante. La transition numérique induit une nouvelle vision du cyberespace, où les flux d’information deviennent plus importants que leurs supports physiques.

    La datasphère se développe dans un contexte particulier, où le monde est de plus en plus complexe, et où les perspectives de bouleversement climatique sont parfois angoissantes. L’auteur analyse comment, dans ce contexte, la transition numérique remet en questions l’acquisition et la transmission du savoir. Les canaux d’information se transforment et les fake news induisent doutes et rejets, le savoir scientifique laisse place au scepticisme, voire au complotisme. Ces propos sont à la fois captivants et inquiétants. L’auteur discute aussi comment les conditions de l’exercice du pouvoir sont radicalement modifiées. Les frontières n’existent quasiment plus dans la sphère numérique, une nouvelle forme de gouvernance émerge, partagée entre les États et les plateformes d’intermédiation. Cet éclairage insolite ouvre de nouvelles perspectives. Par exemple, l’Estonie est un pays où la transformation numérique a été amenée très loin et a repoussé virtuellement les frontières géographiques. Par exemple, un étranger peut bénéficier d’un statut de e-résident, qui lui donne accès aux services en ligne de l’Estonie, et facilite une création d’entreprise. Par ailleurs, le pays a choisi de stocker les informations sensibles de l’État dans des centres de données hors frontières. Ainsi, d’après l’auteur, le numérique est indissociable des changements politiques à venir, eux-mêmes fatalement influencés par les évolutions de l’environnement.

    Jocelyne Erhel

    Matheuses – Les filles, avenir des mathématiques

    Clémence Perronnet, Claire Marc et Olga Paris-Romaskevitch (CNRS Éditions, janvier 2024)

    Le titre a de quoi surprendre et provoquer la curiosité. La forme aussi est inhabituelle, largement illustrée et colorée, avec des textes brefs et une large part laissée à l’expression des personnages. Le fond est néanmoins riche et solidement construit.

    Le point de départ est le stage de mathématiques Les Cigales, à destination de lycéennes et organisé, deux fois par an, depuis cinq ans à Marseille. Deux sociologues ont profité de ces stages pour observer et interroger les participantes. Ce livre rapporte leurs résultats, les explique et fournit les ressources qui permettent d’approfondir et d’étayer les phénomènes observés. Les personnages du livre sont des condensés de lycéennes et permettent d’illustrer les différents profils présents.

    On retrouve l’expérience, commune à toutes les participantes, du sexisme, en mathématiques en particulier : comme ce sexisme n’est pas brutal ni frontal, les lycéennes ressentent un malaise diffus et difficile à expliquer… et finissent par s’en attribuer l’entière responsabilité : « mon seul mérite, c’est de travailler. J’ai pas d’intelligence, pas de talent, rien. », « j’ai des problèmes de confiance en moi, je suis très très angoissée », « j’ai beaucoup tendance à me rabaisser moi-même ». Le chapitre intitulé « Pourquoi les filles ont-elles moins confiance en leurs capacités en maths que les garçons ? » explique clairement les mécanismes à l’œuvre et permet de soulager le poids de ce malaise. Mais c’est mon sentiment de colère contre l’injustice qui s’éveille alors.

    Le livre met en lumière les autres formes de discrimination présentes dans la société en général et dans la société mathématique en particulier : discrimination de classes sociales et racisme. Sans complaisance, il illustre aussi le fait que ces discriminations, inconscientes, sont exercées par les participantes entre elles.

    La lecture de ce livre est donc salutaire pour toutes les filles et les femmes qui pourront prendre conscience des inégalités dont elles sont victimes, afin de pouvoir les combattre. Car même le milieu de la recherche, que l’on pourrait — naïvement — espérer être plus éduqué et plus affranchi de ces problèmes, n’en est pas exempt, loin de là : si 30 % des femmes françaises actives déclarent avoir été harcelées sexuellement (sondage IFOP 2019), ce pourcentage monte à 49 % pour les chercheuses, soit une sur deux !

    Cette lecture est également salutaire pour tous les garçons et les hommes qui souhaitent un monde plus juste, elle les aidera à prendre conscience de ce que vivent et ressentent les femmes et à comprendre quels comportements, souvent présentés comme « des blagues », sont néfastes en particulier par leur répétition. Quant à ceux qui ne souhaitent pas remettre en cause leur position dominante, leur confort pourrait bien être de courte durée : « Claque dans ta tête, tu verras si j’ai pas de force ! », c’est ce que leur réserve l’une des lycéennes présentées.

    Enfin, pour toutes celles et tous ceux qui souhaitent allier cette réflexion à la réflexion mathématique, chaque chapitre se clôt par un thème mathématique à explorer, par des défis qui sont des questions ouvertes.

    Bravo aux autrices pour ce livre grâce auquel j’ai beaucoup appris et compris ce qui se joue en mathématiques entre les humains qui les pratiquent.

    Nathalie Revol

    Bienvenue dans la nouvelle révolution quantique

    Julien Bobroff (Éditions Flammarion, octobre 2022)

    En lisant « Bienvenue dans la nouvelle révolution quantique », on découvre l’informatique quantique autrement, cela va sans dire.
    Dans son livre, Julien Bobroff, physicien et vulgarisateur scientifique hors pair, à l’origine du groupe de recherche « La physique autrement », cherche à nous faire comprendre les enjeux, les recherches, les avancées et les blocages en informatique quantique.

    Tout d’abord, l’auteur nous raconte, en adoptant le style d’un roman d’aventure avec des rebondissements (qui prennent chacun une dizaine d’années : il s’agit de science et pas de science-fiction), comment on a réussi à piéger un seul atome. Cet exploit a ensuite ouvert la porte, grâce au savoir-faire acquis en route, à la manipulation d’objets extrêmement petits : ions, photons… qui sont candidats à servir de « qbit » ou bit quantique, c’est-à-dire les briques de base de l’informatique quantique. (On en trouvera un aperçu ici.) Chacun de ces candidats a droit à son épopée en un chapitre.

    Tout comme l’informatique ne se résume pas à l’ordinateur, l’informatique quantique ne se résume pas à l’ordinateur quantique. Julien Bobroff nous donne ainsi des éléments pour comprendre comment utiliser ces ordinateurs quantiques. En particulier de nombreuses erreurs se produisent et il faut en tenir compte. À cela, deux remèdes : une redondance des calculs assortie de multiples gendarmes — quantiques eux aussi — postés en cours de route pour contrôler que les calculs redondants donnent bien les mêmes résultats. Cela entraîne que, pour un qbit logique, on a besoin de milliers de qbits physiques. Or le passage à l’échelle, de quelques qbits à quelques milliers voire millions de qbits, n’est pas encore à notre portée. Cela permet de toucher du doigt la difficulté à envisager un ordinateur quantique dans un avenir proche.

    Enfin, le physicien présente dans son livre quelques applications, en chimie pour trouver des molécules qui piègent le CO2, en cryptographie, ou encore pour mettre au point des radars qui permettent de voir derrière des obstacles (et dont on imagine aisément les usages militaires)… L’importance de ces applications, si elles sont prochainement rendues possibles par l’informatique quantique, justifie les énormes investissements des géants de l’informatique tels que Google et IBM, mais aussi des nations ; il s’agit d’un pari risqué mais on ne peut pas se permettre d’être à la traîne si jamais de gros ordinateurs quantiques deviennent disponibles. 

    Julien Bobroff nous rend accessibles, dans un style plus proche du roman que du livre de science, les tenants et les aboutissants de l’informatique quantique, de l’ordinateur à proprement parler jusqu’aux applications. J’ai aussi apprécié la prudence avec laquelle, dans l’épilogue, l’auteur nous met en garde contre les espoirs démesurés : l’informatique quantique ne permettra de résoudre ni le problème de la crise climatique ni d’autres problèmes majeurs du monde actuel. Il reste réservé quant aux prévisions concernant cette informatique, il dit en avoir récolté autant que d’expertes et experts rencontrés. Au passage, j’ai aussi été sensible à la proportion significative d’expertes citées (dont Mélissa Rossi au sujet de la cryptographique post-quantique).

    Nathalie Revol

    Un nouvel âge de ténèbres

    Couverture livre "Un nouvel âge des ténèbres" de James BridleJames Bridle (Éditions Allia, traduit de l’anglais par Benjamin Saltel, février 2022)

    Ce livre est une réflexion sur la variété de prises en main par notre société de ce nouvel outil technologique qu’est le monde numérique et surtout le réseau. Il y a des digressions sur les préoccupations écologiques. Et bien que les avis soient très partagés sur ce livre, je l’ai apprécié.

    Pour nous mettre dans l’ambiance du moment de stupeur initial de ce nouvel âge des ténèbres, je propose de lire cet extrait de Tunnel du collectif Fauve en imaginant que le foyer évoqué est numérique :

    « Notre foyer lui-même nous semble hostile, comme si tous les talismans qui définissaient notre identité s’étaient retournés contre nous. On se sent déchiré, mis en pièces et en morceaux. On comprend alors avec terreur que si on ne peut pas s’asseoir pour réunir ces morceaux et les assembler à nouveau, on va devenir fou. »

    L’ambition de James Bridle est justement de penser pour s’approprier ce monde numérique, et non y prouver des faits, ce qui explique peut-être pourquoi dans ma librairie de quartier, son livre est classé en philosophie. Une des originalités selon moi est que l’auteur, qui se présente comme un artiste écrivain me semble technophile car il annonce un master en informatique, un autre en cognitique et il publie régulièrement des articles dans le magazine Wired consacré à la technologie. Il me semble en effet sensible à la compréhension des éléments de science dans de nombreux domaines. Dans son livre, la plupart des faits et anecdotes me semblent exposés de manière convaincante en s’appuyant souvent sur des articles de presse ou de la littérature scientifique. Il utilise ces faits de culture scientifique pour essayer d’organiser et souligner sa pensée et finalement articuler ses opinions sur le monde numérique. Il est parfois taquin.

    Le monde numérique se présente souvent à nous sous la forme d’un  « c’est comme ci, c’est comme ça » que nous pouvons avoir envie de fredonner sur un air de Dutronc père. Pour sortir et discuter de
    cette acceptation tranquille, James Bridle veut faire un pas de côté et prendre du recul pour penser ce monde qui nous est proposé. Un de ses buts est d’arriver à dégager de nouveaux mythes pour ce qu’il nomme un hyper-objet, une entité trop globale pour être perçue en totalité à partir de ses morceaux. Le diviser pour régner ne pourrait pas tout ? Ces mythes nous aideraient à mieux saisir cet hyper-objet au-delà de la simple connaissance pratique de son fonctionnement. Comme toutes les opinions, celles présentées sont discutables, j’en partage certaines mais pas toutes, et surtout je trouve l’effort stimulant.

    Pour ce qui est des sujets abordés, il parle des promesses de l’application du calcul par ordinateur durant le XXe siècle. Il évoque aussi des conséquences de l’automatisation couplée à la confiance ou la déresponsabilisation humaine. Le déluge d’informations amène certains à prédire la fin de la démarche théorique, allant jusqu’à une semi-automatisation de la recherche pour le pire mais aussi pour le meilleur car bien que critique, ce n’est pas qu’un livre à charge contre notre société. Il s’interroge également sur les limites des possibilités d’observation par la multiplication de capteurs, tout cela sans pouvoir autant interagir. En fin de livre, il glisse vers les possibilités de manipulation dans ce monde numérique, par les États ou bien les communautés en ligne à la dérive dans leurs bulles de croyances. Plus particulièrement, il tente de faire la part des choses sur les chemtrails, des traînées nuageuses d’origine humaine, les vidéos en ligne pour les enfants et les manipulations politiques. Puisqu’il veut penser, il affine ses observations pour essayer d’arbitrer entre les complotistes convaincus et les partisans du confortable « Circulez, il n’y a rien à voir ».

    C’est une pensée (philosophique ?), pas une démonstration (sociologique ou mathématique) et encore moins une preuve formelle. Si certains lecteurs et lectrices ne partagent pas la plupart de ses opinions, il me semble qu’ils sont quand même récompensés par la somme des faits épars qu’ils pourraient vouloir assembler autrement. Concluons par l’extrait maintenant sexiste de Virginia Woolf cité dans le livre qui résume bien la démarche de l’auteur :

    « Nous devons penser. […] Où, en somme, la procession des fils des hommes éduqués nous mène-t-elle ? »

    Yvan Le Borgne

    Chien 51

    Laurent Gaudé (Éditions Actes Sud, août 2022)

    Dans « Chien 51 », roman dystopique de Laurent Gaudé, on suit le personnage principal, Zem Sparak, dans son enquête avec Salia Malberg, la supérieure qui lui a été imposée.
    Le roman se déroule dans un futur proche. La Grèce, en faillite, a été rachetée par le consortium GoldTex qui a réorganisé la société en trois classes, réparties en trois zones dans la ville de Magnapole. La zone 1 est réservée à l’élite et les personnages n’y feront que de rares incursions. La zone 2 héberge les classes supérieures, diplômées, privilégiées. Ces deux zones sont protégées des aléas météorologiques par un dôme climatique. La troisième zone, entre l’habitat insalubre, le bidonville et le terrain vague, regroupe tous les autres, les sans grade, les miséreux, qui subissent de plein fouet le changement climatique, qui se traduit par des variations très soudaines du temps et par des pluies acides. Salia Malberg est une résidente de la zone 2, Zem Sparak est un « chien », un policier déclassé de la zone 3. On retrouve la plume de Laurent Gaudé et ses personnages, tout en nuances, en subtilités et d’une grande humanité.

    Même si le numérique n’est pas le sujet principal de ce polar, il est présent en toile de fond et me donne un prétexte pour avoir le plaisir de vous conseiller cette histoire.
    Dès le début du roman, on sait que cette civilisation numérique ne constitue pas un progrès pour autant : le personnage principal est réveillé par une livraison intempestive de lait, son réfrigérateur connecté étant déréglé et demandant un approvisionnement disproportionné par rapport à ses besoins. Cependant, l’omniprésence et la puissance des bases de données, toutes interconnectées, allant des caméras de surveillance avec reconnaissance faciale jusqu’aux bases de données médicales, sont un moteur essentiel à la progression de l’intrigue. De façon un peu surprenante néanmoins, les « fake news », les phénomènes de désinformation continuent à se produire via des interactions humaines directes. Enfin, la question de la mémoire, de la faillibilité de la mémoire humaine à sa malléabilité et son contrôle par des dispositifs externes, apparaît comme un fil rouge de ce roman, et cela dès l’exergue.

    En lisant ce roman, vous pourrez donc vous interroger sur l’impact du numérique sur nos sociétés tout comme sur notre individualité, mais surtout prendre du plaisir à suivre cette enquête et à retrouver Laurent Gaudé dans un genre nouveau pour lui, le polar d’anticipation.

    Nathalie Revol

    Le vote électronique. Les défis du secret et de la transparence

    Véronique Cortier, Pierrick Gaudry (Éditions Odile Jacob, préface de Gérard Berry, mai 2022)

    En ces temps où l’on parle de plus en plus de démocratie digitale, un ouvrage sur le vote électronique était indispensable : le voici !

    Le chapitre 1 introduit de façon informelle les propriétés d’un système de vote électronique qui seront développées dans le reste du livre, en montrant ce que signifient ces propriétés dans le cadre du vote classique (bulletins papier, isoloir, urne). Les auteurs en profitent pour tordre le cou à quelques idées reçues ! Le chapitre 2 fait le point sur les grandes façons de voter existantes, les deux paramètres cruciaux étant : dans quel lieu le bulletin est déposé (dans le bureau de vote ou à distance) et sur quel support (papier ou machine). Il existe donc quatre modes de vote : le vote classique à l’urne (papier, bureau de vote), le vote papier par correspondance (papier, à distance), les machines à voter (machine, bureau de vote), et enfin, le vote par Internet (machine, à distance). Comme le montrent les auteurs, aucun de ces quatre modes n’est parfait, chacun est sujet à des problèmes qui lui sont spécifiques.

    Introduit par une admirable citation de l’humoriste français Pierre Desproges, le chapitre 3 passe en revue les attaquants potentiels du système (personnes proches de l’électeur, hackeurs, fournisseur d’accès, GAFAM, État…) et les types d’attaques qui leur correspondent.

    Quant au chapitre 4, il aborde le secret du vote, l’une des sources les plus fréquentes de la suspicion à l’encontre du vote électronique : si le secret du vote n’est pas garanti, les électeurs peuvent être forcés à exprimer un vote donné, sous la menace ou sous la promesse de rétribution… C’est là que la cryptographie entre en jeu ; les auteurs donnent alors des explications claires et imagées de notions complexes, notamment les clés de déchiffrement réparties.

    Pour vous laisser le plaisir de la découverte de cet ouvrage, disons simplement que les chapitres suivants abordent d’autres aspects importants du vote électronique, qu’il s’agisse des propriétés souhaitables (vérifiabilité…), de questions pratiques (ergonomie, accessibilité, etc.) ou de recommandations de la CNIL en la matière. Signalons également une partie qui traite en profondeur les protocoles cryptographiques déjà mentionnés ; cette partie est la plus difficile à lire par des non-informaticiens, mais ceux qui s’accrocheront seront bien récompensés.

    Mettons aussi l’accent sur le chapitre 10 qui, après les outils théoriques, est une visite guidée du système Belenios, conçu par les auteurs et un de leurs collaborateurs. Spécification publique, code open source, forte paramétrabilité, une utilisation massive dans le monde académique francophone (certains des lecteurs et lectrices d’Interstices l’auront sans doute déjà utilisé !) et de plus en plus, au-delà du monde académique, et au-delà de l’espace francophone. Comme Belenios met en œuvre de nombreux outils déjà mentionnés, ce chapitre est l’occasion pour le lecteur de réviser ce qu’il a appris aux chapitres précédents. Bien entendu, Belenios a des limites, dont les auteurs parlent en toute transparence. 

    Ces limites mènent à une transition avec le chapitre 11, qui décrit d’autres systèmes, satisfaisant d’autres propriétés… Les auteurs nous font ainsi faire un détour par la Suisse (le paradis de la démocratie directe) et l’Estonie (le paradis de la démocratie électronique) et en profitent pour tordre le cou à l’idée, assez répandue, que la blockchain résoudrait tous les problèmes. Je ne peux m’empêcher de citer ce passage (page 193) : « à chaque problème sa solution (…) malheureusement il n’existe à l’heure actuelle aucun système qui résolve tous les problèmes simultanément », qui pourrait servir de conclusion à l’ouvrage.

    Le dernier chapitre revient sur la grande question de ce livre : pour ou contre le vote électronique ? Bien entendu, le lecteur arrivé jusque-là a compris que ce n’est pas la bonne question… On peut toutefois comprendre ce chapitre sans avoir lu le reste du livre ! (Il ne faudrait peut-être pas écrire cela !). Les arguments courants, plus ou moins naïfs, pour ou contre le vote électronique, sont passés en revue et commentés. On retient que ce qui compte avant tout, c’est de se poser les bonnes questions sur les propriétés qu’il est important de garantir.

    La cerise sur la gâteau est un glossaire des termes techniques les plus importants du livre.

    Ce livre devrait être lu par toute personne qui pense avoir une idée sur le vote électronique… ainsi que par toute personne qui n’en n’a pas !

    Jérôme Lang

    L’enfer numérique, voyage au bout d’un like

    Guillaume Pitron (Éditions Les Liens Qui Libèrent, septembre 2021)

    L’enfer numérique, voyage au bout d’un like n’est pas un livre de vulgarisation des « sciences du numérique » mais une enquête journalistique sur l’industrie du numérique. Nous avons tendance à plonger nos esprits dans le monde numérique virtuel en pensant nous détacher de certaines réalités physiques. C’est oublier le talent de l’informatique pour maîtriser la complexité en la masquant le plus possible couche par couche. Les commandes de l’utilisateur passent encore souvent par ses doigts, puis l’interface, les logiciels, les langages, les systèmes d’exploitation, les compilateurs, le cloud

    Le sujet principal du livre se concentre justement sur ces trois petits points de la phrase précédente : au-delà du logiciel il y a beaucoup de matériel… et même, au-delà de ce matériel, des processus industriels de fabrication, d’installation et d’alimentation d’une importance souvent mal estimée.

    Ce monde virtuel a bien un corps fortement ancré dans notre planète. Décrire ce support matériel de l’industrie du numérique nous permet de reprendre contact avec la réalité physique de la mise en œuvre de cette simulation d’un monde pas si virtuelle. Il aboutit au questionnement légitime et bien classique : « un esprit sain dans un corps sain ? », le livre insistant principalement sur le corps.

    N’étant pas expert scientifique sur le sujet, j’ai lu ce livre presque comme l’homme de la rue, d’autant que le format d’enquête invite à se poser plus de questions qu’il ne donne de réponses. L’auteur, journaliste de métier et non expert rappelons-le, interroge l’industrie du numérique elle-même en partie inspirée par la recherche. De fait, sur un domaine aussi vaste, il en découle inévitablement de possibles approximations scientifiques, notamment sur certains aspects prospectifs. En revanche, le journaliste est à même d’être très factuel sur les évolutions industrielles et essaie d’interpréter les motivations de ces évolutions qui ne sont en général pas toutes explicitées par les acteurs industriels. Pour étayer son enquête, Guillaume Pitron mène des entretiens avec des acteurs aussi bien industriels, qu’académiques ou membres d’ONG. Il se rend aussi sur place pour des enquêtes de voisinage des sites industriels et je suis parfois frustré, comme lui sans doute, lorsqu’il n’y a pas accès. Ce livre est donc la synthèse de ses deux années de travaux préparatoires réalisés en collaboration avec de jeunes enquêtrices pour la documentation. 

    Si le livre se concentre sur les aspects négatifs de l’industrie du numérique, il n’oublie pas pour autant de citer brièvement certains de ses mérites, sans s’y appesantir. Guillaume Pitron s’intéresse volontairement à la part d’ombre de cette industrie. D’une part, il discute de l’emprise sociale croissante du numérique, notamment en citant l’exemple des expérimentations instructives de villes intelligentes (smart cities) donnant parfois une illusion de contrôle écologique. Il évoque aussi un état presque tout-numérique comme l’Estonie, la 5G, l’internet des objets (IOT), les possibilités de déresponsabilisation via le numérique (en finance, les investissements passifs et le trading haute fréquence) et plus incongru, les trottinettes en libre-service… Un autre aspect négatif de l’industrie du numérique est son empreinte écologique. Il prend pour exemple les raisons du moratoire sur l’installation de datacenters de la métropole d’Amsterdam, leur développement en Suède ou aux États-unis pour la NSA notamment. Au-delà des coûts d’utilisation, il s’interroge également sur leur coût de fabrication qui est encore moins visible, donnant un autre sens que « [M]icroprocessor without [I]nterlocked [P]ipeline [S]tages » à l’acronyme MIPS. Il n’oublie pas d’évoquer les besoins en matériaux avec l’exemple des mines de graphite en Chine. Enfin, il aborde un aspect géopolitique en discutant notamment des câbles transocéaniques reliant les continents. 

    De nombreuses questions me semblent honnêtement posées dans ce livre malgré des approximations mineures qui ne trahissent pas le questionnement selon moi. La balle est peut-être désormais dans le camp des industriels et scientifiques pour répondre de façon accessible à ces interrogations réactualisées. 

    Yvan Le Borgne

    • Anne-Cécile Orgerie fait partie des personnes interrogées par l’auteur et elle regroupe sur sa page personnelle ses interventions de vulgarisation de ses travaux, en particulier son interview par la revue 1024 à l’occasion de sa médaille de bronze du CNRS. Elle est aussi responsable du GDS EcoInfo qui illustre que la communauté scientifique n’a pas attendu pour s’emparer de ces questions la sortie de ce livre ayant le mérite de les mettre sur une place un peu plus publique.
    • Pour la santé de l’esprit de cette création numérique, on peut lire « La fabrique du crétin digital. Les dangers des écrans pour nos enfants » de Michel Desmurget, sachant que seuls nos enfants sont bien sûr concernés.
    • Pour un travail de journaliste comparable sur un aspect du numérique, le livre Flash Boys de Michael Lewis sur le trading haute fréquence paru en 2014. Il avait déclenché des réactions de l’industrie (financière) concernée (en anglais). Un tel livre, très documenté mais parfois si bien écrit qu’il est peut-être à la frontière du roman, a l’intérêt d’ouvrir la discussion à partir d’une lecture justement discutable du fonctionnement d’une industrie. Cette dernière est ainsi incitée à expliciter ses choix dans le débat public. Dans l’autre sens, on peut remarquer que dans son dernier livre Anéantir, Michel Houellebecq encourage à nourrir le roman avec de telles documentations.

    La fabrique des souvenirs

    Clélia Renucci (Albin Michel, août 2021)

    Gabriel achète un souvenir vieux de 70 ans, d’un spectateur de la première représentation de Phèdre en 1942 avec la comédienne Marie Bell dans le rôle titre. En revivant ce souvenir, il tombe amoureux d’une inconnue assise devant lui, de son épaule nue et de sa nuque. Il n’a de cesse de retrouver d’autres souvenirs afin d’en apprendre plus sur elle. L’inconnue s’appelait Oriane Devancière et était une violoniste virtuose.

    Même si j’ai mis un peu de temps à me plonger dans ce roman, je l’ai finalement lu d’une traite, happée par cette histoire d’amitié et d’amour. L’intrigue se déroule à notre époque : un nouveau marché a pris place, le marché des souvenirs d’autrui, que l’on peut acheter et revivre à volonté. Les personnages principaux sont bien campés et attachants, même si certains personnages secondaires comme l’oncle Georges et Adélaïde sont traités avec moins de finesse psychologique. 

    La question du marché des souvenirs qui sous-tend le roman, cette nouvelle application de technologies numériques, m’a beaucoup intéressée. Le roman n’a aucune prétention technologique et ne précise pas comment sont enregistrés les souvenirs (« avec des électrodes sur les tempes » ou, plus modernes, via des « lentilles à souvenirs ») ni comment ils sont stockés (sur puce, de façon immatérielle mais aussi sur cartes perforées car pendant longtemps cette technologie aurait été gardée secrète par l’armée, puis popularisée dans les années quatre-vingt-dix). Il ne précise guère non plus par quelles prouesses technologiques les souvenirs sont vécus par leurs acquéreurs : par un casque auditif et visuel, par l’addition de sensations liées au toucher et à l’odorat pour les plus récents.

    En revanche le roman aborde, avec une grande légèreté puisque ce n’est pas le thème central, certains usages mais aussi certaines dérives possibles de cette technologie.
    On y trouve des usages bénéfiques, comme l’anecdotique (mais romanesque) guérison d’une amnésie, en faisant revivre à l’amnésique des souvenirs semblables à ceux qu’il a oubliés.
    Un autre usage thérapeutique concerne le sevrage des addictions : « Pour compenser le manque, il a changé d’addiction. Il s’immerge dans des souvenirs mis en vente par de célèbres toxicomanes, qui lui procurent, je crois, le même type de sensation. », ces sensations pouvant même avoir un effet physique : « Gabriel […] se rendormit, sous l’effet apaisant et sophistiqué des volutes d’opium émanant du souvenir. »
    Plus important, le « devoir de mémoire » est permis de façon efficace par la technologie, comme l’illustre la plongée du héros dans des souvenirs de déportation :
    « Une section entière était réservée à la Seconde Guerre mondiale sur MnemoFlix, qui avait réussi à convaincre les fondations et musées de la déportation de mettre à disposition sur une plate-forme dédiée les souvenirs des rescapés.
    […]
    Gabriel ressentait dans sa chair ces injures, dans son dos les impacts des coups de matraque. Il ôta son casque à souvenirs, la douleur était trop vive. Il le remit bien vite, sentant qu’il avait un devoir à accomplir : être à son tour le témoin de cette déportation.
    […]
    Tant qu’il n’avait pas d’image, pas de son, pas d’odeurs associées, tant que c’était simplement inscrit dans un registre du château de Vincennes, entre les tours médiévales, cela relevait de l’Histoire. Désormais, sa mémoire était marquée et cette immersion dans les souvenirs de cette Jacqueline Beraud lui bloquait la respiration. »

    D’autres usages ont moins d’impact sur la société, tels ces « lentilles à souvenirs » que certains portent pour assister, contre rémunération, à des concerts afin de transmettre le spectacle à leurs riches employeurs qui ne prennent plus la peine de se déplacer. Une autre façon de renflouer ses finances est la vente de souvenirs à laquelle s’adonne l’un des personnages, reporter photographe qui a sillonné le monde : « Il met ses souvenirs aux enchères comme les héros d’Eugène Sue leurs chemises à jabot « chez ma tante » ».
    Dans l’industrie du tourisme aussi, les boutiques de « souvenirs » ont modifié leur offre.

    Les usages plus problématiques sont furtivement évoqués au détour d’une phrase (il s’agit d’un roman, faut-il le rappeler, non d’un essai), citons la vente de souvenirs coloniaux : « Une partie de l’histoire de France qui sentait le soufre se négociait dans cette petite salle », le manque de législation concernant les souvenirs des défunts, et surtout l’inexistence de l’application MnemoPorn et avec elle de toutes les implications non mentionnées sur le droit à l’image et à l’intimité, inexistence évacuée via un extrait du règlement de l’unique société capable de gérer l’enregistrement de souvenirs : « MemoryProject se réserve le droit de refuser un souvenir jugé choquant. » La question de l’authenticité des souvenirs est rapidement évacuée elle aussi : « Les maisons de vente aux enchères furent considérées comme un bon canal de distribution et d’échange marchand, les commissaires-priseurs engageant leur réputation pour éviter les faussaires et certifier la qualité des lots. »

    La thématique principale du roman reste le rapport au passé, « cette forme d’idéalisation du passé que revêt notre époque », et la difficulté du personnage principal à s’en détacher pour revenir au présent.

    Ce roman a fait écho en moi à la réflexion de Michel Serres sur l’externalisation de notre mémoire, qui selon lui doit nous conduire à développer de nouvelles formes d’utilisation de notre cerveau, ce qu’il exprimait ainsi : « nous sommes condamnés à devenir inventifs, à devenir intelligents ». Dans La fabrique des souvenirs, cette externalisation est poussée à l’extrême.

    Nathalie Revol

     

    Le Théorème d’Hypocrite

    Thierry Maugenest et Antoine Houlou-Garcia (Albin Michel, 2020)

    Ce livre discute de l’application des mathématiques à la politique.

    Le rôle d’une politicienne est de prendre des décisions arbitrant entre les inévitables aléas et conflits internes à une société. À l’échelle d’un pays il est impossible à la politicienne de l’observer en totalité à chaque instant. Les mathématiques, via la statistique d’État, peuvent l’aider à visualiser le pays en y collectant des chiffres bien choisis fournissant des indicateurs. La politicienne peut alors interpréter ces chiffres pour se construire un modèle théorique qui lui semble pertinent représentant l’État ou l’évolution de l’ensemble de la société. Cette recension prend la liberté de chosifier les multiples points de vue statistiques, de les traduire sous la forme de lunettes chaussées pour éclairer la décision politique voire en évaluer les conséquences.

    Ces lunettes sont bien plus discutables que de nombreux modèles scientifiques car elles traitent du système particulièrement complexe qu’est une société. L’usage de lunettes n’est pas limité à la politicienne car elle a aussi souvent besoin de l’adhésion des citoyennes. Pour cela elle peut présenter la société via un modèle encore plus simplifié, des lunettes bon marché, car la citoyenne n’a pas autant de temps ni de conseillères que la politicienne. Dans une perspective historique s’appuyant sur des exemples à de multiples époques, ce livre discute des atouts, défauts, ajustements sincères et déformations malintentionnées des lunettes mathématiques présentées dans ce paragraphe.

    Je continue de filer l’analogie des lunettes dans cette présentation, mais rassurez-vous elles n’existent pas dans ce livre. J’ai apprécié cet ouvrage notamment pour la sélection variée des exemples illustrant le propos et que je ne veux pas trop dévoiler ici. Cohérents avec leur appel à mélanger modélisations, nombres et opinions, les auteurs expriment certaines de leurs positions sur des évènements très récents comme la pandémie actuelle. Il n’est pas nécessaire d’adhérer à toutes leurs opinions pour reconnaître que leur façon de les étayer est un pas vers un débat où l’utilisation et la place des chiffres seraient plus adaptées. Voici quelques impressions issues de ma lecture et les leçons avec lesquelles je me suis revacciné.

    • Ne pas nécessairement accepter l’argument d’autorité de calculs complexes probablement justes surtout quand personne ne prend la peine de les vérifier, calculs qui peuvent d’ailleurs n’être qu’un paravent indiscutable à des modèles eux bien discutables.
    • Ne pas oublier que ces chiffres ne montrent pas tout de la société, comme par exemple les trajectoires individuelles de ses citoyens, sans nier non plus que parfois, bien choisis, ils en montrent quelque chose.
    • Pour identifier les cas d’utilisation pertinents, continuer à voir ces chiffres comme le résultat de mesures sur une expérience souvent subtile qu’il est tout aussi important de comprendre d’autant que la citoyenne en est capable et que cela peut être passionnant.

    Reprenons un survol plus factuel d’éléments présentés dans ce livre.

    Les succès indubitables des applications des mathématiques à la physique donnent à voir la puissance possible du couplage de la modélisation/description mathématique et des calculs pour comprendre et dompter le fonctionnement de certains aspects de la Nature. Fort de l’aura produite par ces succès, il est alors tentant d’appliquer cette démarche scientifique à d’autres domaines sans nécessairement s’assurer que tous les ingrédients de la recette soient d’aussi bonne qualité.

    Dans le domaine politique, les caprices de l’âme humaine et l’ensemble des évènements d’une société semblent encore difficiles à décrire, pour ne pas dire que c’est illusoire, et trouver des lunettes qui fassent consensus chez toutes les citoyennes – ces fameuses valeurs communes – est délicat. Les auteurs commencent par rappeler les possibles paradoxes des multiples procédures de votes agrégeant des avis divergents en de multiples consensus. Ils s’appuient sur ces paradoxes pour exposer la limite d’une procédure nécessairement discutable de conciliation chez l’opticienne. Le choix des lunettes est pourtant important car, une fois chaussées durant la Grèce antique, elles ont pu par exemple aussi bien justifier par \(A+B\) l’égalité des citoyens sans prendre en compte leur mérite déclaré impossible à quantifier ou au contraire justifier toujours par \(A+B\) les inégalités pour les rendre proportionnelles à l’indiscutable et incitatif indicateur du mérite à la mode.

    En discutant des exemples jouets de décision en théorie des jeux, les auteurs rappellent la joie d’avoir identifié LA meilleure décision prouvée par \(A+B\), résultant d’un calcul logique, donnant une solution confortablement incontestable et même parfois inattendue que nous pouvons qualifier de futée. Ils n’oublient pas de mentionner que les lunettes que nous avions chaussées peuvent s’avérer des œillères qui masquent trop d’aspects essentiels de la réalité pour que le résultat s’applique sur le terrain.

    Un grand classique : le raisonnement logique peut être inattaquable et la solution correctement déduite mais à partir d’hypothèses et prémices gravées dans les lunettes plus que douteuses !

    Les auteurs racontent les façonnages des premières lunettes d’État, rudimentaires, avec leurs gros défauts encore bien visibles, qui n’ont pas empêché les plus enthousiastes de célébrer leur naissance. Toutefois une fois les premiers gros défauts corrigés, les lunettes mathématiques plus matures sans être parfaites ont progressivement étendu leur influence. Nous ne sommes pas dans un roman avec Harry Potter, mais ces simples outils d’observation plongés dans la société peuvent passer à l’action ! En effet, lorsqu’elles donnent le pouvoir de justifier une action, elles deviennent elles-mêmes observées par les citoyennes et politiciennes quitte à devenir parfois une finalité : on veut un joli tableau vu par ces lunettes, quitte à progressivement se détacher de la réalité pour leur obéir. Ce risque a été rapidement identifié par une partie des statisticiennes et les auteurs mentionnent le débat entre le suivi de trajectoires individuelles, même parfois sous la forme romanesque, et les agrégats comptables d’indicateurs sur l’ensemble de la population. Puisque ces lunettes peuvent agir dans une société, toutes les intervenantes peuvent défendre leurs intérêts en proposant leurs lunettes. Les inévitables erreurs sincères sur un sujet aussi complexe peuvent alors glisser vers des manipulations, chacune voulant faire parler ses chiffres et les auteurs donnent quelques exemples probants.

    Ce livre évite tout formalisme mathématique, épargnant par exemple à la lectrice une discussion précise sur la variance en lien avec la loi normale ou bien comme ici le distinguo entre chiffres et nombres. Cela ne l’empêche pas de discuter précisément par exemple des notions de risques absolu et relatif, des confusions entre causalité et corrélation, du paradoxe Simpson, du biais de sélection volontaire… mais aussi de citer Spirou, les débats aux procès de l’affaire Dreyfus, celui entre Hyppias et Socrate, du suivi de couples sur Facebook, de se demander pourquoi Charles Ponzi est passé à la postérité plutôt qu’Adele Spitzeder, Sarah Howe et Marthe Hanau…
    Il y a quelques références à d’autres livres parfois universitaires tout aussi intéressants, par exemple La gouvernance par les nombres d’Alain Supiot. Mais c’est bien un livre de vulgarisation car il n’y a pas une bibliographie académique comme celles que j’ai peut-être trop pris l’habitude d’aller fouiller sur les détails qui m’intéressent le plus. Ce n’est donc pas un défaut, juste une envie de creuser transmise par les auteurs et donc finalement un symptôme de qualité.

    En ouvertures qui me semblent en lien avec ce livre, je citerai un article du Journal du CNRS pour les 100 ans d’Edgar Morin pour une discussion sur les approches d’une société nécessairement complexe, ainsi que des réflexions sur les outils numériques de suivi de contacts de François Pellegrini, vice-président de la CNIL dans un article de la revue 1024 pour un dialogue entre scientifiques et politiques durant la pandémie.

    Un échauffement citoyen pour la campagne présidentielle ?

    Yvan Le Borgne

    Votre cerveau est un super-héros : Quand les nouvelles technologies révèlent nos capacités insoupçonnées

    Anatole Lécuyer (HumenSciences Éditions, octobre 2019)

    Une première version de ce document est parue en juin 2020 sur le site (ami) de ressources Pixees.

    Raconter la réalité virtuelle à l’aide d’un bon vieux livre, est-ce possible ?

    Les super-héros ont par nature la capacité de dépasser les limites de la réalité, de repousser les lois de la physique et de rendre possible l’impossible. Ces pouvoirs fascinent petits et grands dans la culture depuis les chroniques homériques jusqu’aux Avengers.
    Et si ces superpouvoirs étaient déjà en chacun de nous ? S’il suffisait d’un petit coup de pouce technologique pour permettre à notre cerveau d’agir, non plus seulement sur notre propre organisme, mais sur la réalité qui nous entoure ? Et finalement, qu’est-ce que la réalité à l’heure des mondes virtuels ?

    Ces questions et bien d’autres trouvent leurs réponses dans Votre cerveau est un super-héros, un remarquable ouvrage autobiographique de médiation scientifique rédigé par Anatole Lécuyer, directeur de recherche chez Inria. L’auteur nous transporte à travers plusieurs décennies de bonds technologiques au cours desquelles il nous raconte, vu de l’intérieur, les avancées en neurosciences couplées à celles en réalités virtuelle et augmentée. Ces technologies permettent aujourd’hui de déplacer des objets par la pensée, de voir derrière son dos, de tromper les sens, de mélanger le réel au virtuel et inversement…

    Ce livre est aussi l’histoire de l’homme avant celle du chercheur, du jeune artiste qui cherche un sens à sa vie. Il se livre au lecteur à travers le récit de son histoire, le vécu de ses déconvenues comme celui de ses succès. Il nous rappelle aussi, à travers de nombreuses anecdotes, que toute découverte scientifique est avant tout le fruit de collaborations de femmes et d’hommes ayant l’esprit ouvert et créatif, et que les impondérables peuvent aussi être des sources d’opportunités.
    Si Harry Houdini, considéré comme le maître de l’illusion du siècle dernier, vivait en 2020, il travaillerait probablement aux côtés d’Anatole !

    Que vous cherchiez à découvrir le quotidien d’un chercheur, à approfondir vos connaissances sur l’état de l’art en réalité virtuelle, à comprendre les liens entre neurosciences et informatique, à avoir un aperçu « des mondes » et des interactions sociales de demain ou tout simplement à passer un agréable moment de lecture, ce livre accessible à tous et toutes est fait pour vous !

    Benjamin Ninassi

    L’Homme ou la machine ? Comment Internet tue la démocratie (et comment la sauver)

    Jamie Bartlett (Éditions De Boeck Supérieur, juin 2019)

    « […] nous imaginons que les démocraties meurent sous les coups d’hommes armés, mais elles peuvent également s’effondrer doucement par le biais de gouvernements élus qui suppriment lentement les garde-fous institutionnels avec le soutien de citoyens divisés et en colère. »
    Quoi de plus actuel que cette pensée extraite du livre L’Homme ou la machine ? Jamie Bartlett propose ici d’explorer cette question au travers des bouleversements apportés, voire imposés par les nouvelles technologies, aujourd’hui omniprésentes dans la sphère publique et politique.

    Ainsi il apporte au fil des pages une analyse clairement documentée et en profondeur des impacts des technologies du numérique sur nos vies quotidiennes et sur l’organisation globale de la société démocratique. Le livre décrit comment le monde du travail a été transformé ces dernières années par l’automatisation et la numérisation des tâches. Jamie Bartlett y aborde de nombreuses questions et dessine les trajectoires envisagées, les écueils qui nous attendent et les moyens de s’en prémunir. Plus globalement, il pose la question de l’émergence de la toute-puissance des géants du numérique, au détriment de celle des gouvernements. Il revient ainsi sur l’essor des cryptomonnaies et du mouvement global de la cryptoanarchie, sur le cas des élections américaines de 2016, sur le référendum britannique sur le Brexit, et également sur la naissance et l’essor du mouvement des Gilets Jaunes en France, propulsés entre autres par quelques modifications des algorithmes d’ordonnancement des fils d’actualité de Facebook.

    En résumé, l’auteur nous livre ici un ouvrage accessible, à la fois terriblement inquiétant mais aussi empreint d’optimisme, proposant un ensemble de garde-fous et de solutions à mettre en œuvre pour réinventer la démocratie et la place de l’humain à l’ère numérique. Sa lecture est agréable et nécessaire, elle nous ouvre les yeux et nous incite à revoir notre rapport tant personnel que global aux nouvelles technologies pour éviter que l’humain n’en devienne la marchandise passive et malléable.

    Pierre Peterlongo

    « Où va l’informatique ? »

    Gérard Berry (décembre 2018 – février 2019)

    Photo de Gérard Berry

    © Inria / Photo Gautier DUFAU | G.D.PHOTOS

    Gérard Berry, ancien chercheur Inria et membre de l’Académie des Sciences, est le premier informaticien à avoir occupé une chaire au Collège de France, à partir de 2008. Cette institution intégrant les meilleurs scientifiques de leur temps, leur propose de donner des cours, ouverts à tous et toutes, accessibles gratuitement. Il s’agit alors de rendre accessible la recherche en train de se faire au plus haut niveau. L’exercice n’est pas simple et exige une grande culture disciplinaire de l’enseignant.

    Début 2019, Gérard Berry a tenu son dernier cycle de cours avant de quitter le Collège de France. Il a décidé d’intituler cette séquence « Où va l’informatique ? », une façon quelque peu philosophique de clore la parenthèse ouverte en 2008 lors de son tout premier cours « Pourquoi et comment le monde devient numérique ». Et il est vrai qu’en l’espace de dix ans, le numérique s’est imposé partout, de l’information à l’économie, de l’enseignement à la production de valeurs. Mais en s’imposant ainsi, le numérique a ouvert de nouvelles questions : peut-on lui faire confiance, est-il capable d’intelligence, où commence et où s’arrête notre rapport au monde dans un univers numérique… tant de questions qu’il n’est pas aisé de rassembler !

    Gérard Berry définit ce qu’est pour lui la révolution du numérique, dont le premier aspect pour les informaticiens et informaticiennes, est d’avoir réussi à consacrer l’informatique comme une discipline scientifique à part entière. Il ne s’agit pas seulement d’entendre le calcul informatique comme support à d’autres disciplines, et de le voir maintenant enseigné aux enfants comme brique de base de l’apprentissage. L’informaticien aborde de nombreuses questions, de l’intégration de l’informatique dans notre quotidien et la mise en avant d’exemples à la croisée des réalisations concrètes et des sujets théoriques.

    Dans cette série de six cours, Gérard Berry nous propose un panorama de ce qu’est l’informatique aujourd’hui et maintenant pour mieux nous faire comprendre ce qu’elle devra être demain. À regarder et/ou écouter nécessairement ! Et si vous avez encore besoin d’être convaincu(e), regardez la présentation de son cours par Gérard Berry lui-même.

    • 13 décembre 2018, 16:00-17:30, Cours « En théorie, la théorie et la pratique c’est pareil, en pratique c’est pas vrai (d’après Yogi Berra) »
    • 23 janvier 2019, 16:00-18:30, Cours « Où va l’informatique ? »
    • 06 février 2019, 16:00-17:30, Cours « Enseigner l’informatique »
    • 13 février 2019, 16:00-17:30, Cours « Les aspects scientifiques de la sécurité informatique »
    • 20 février 2019, 16:00-17:30, Cours « Retour sur quelques questions de recherche en informatique moins connues du public »
    • 26 février 2019, 16:00-17:30, Cours « Leçon de clôture : Plaidoyer pour les trajectoires non-linéaires »

    Retrouvez tous les cours de Gérard Berry au Collège de France accessibles gratuitement sur le site de l’institution.

    Maxime Amblard

    Algorithmes : la bombe à retardement

    Cathy O’Neil, préface de Cédric Villani (Éditions Les Arènes, novembre 2018)

    Cathy O’Neil se présente comme une amoureuse des mathématiques, qui enfant, en voiture, jouait avec les chiffres des plaques d’immatriculation… Une anecdote dans laquelle beaucoup se reconnaîtront ! Après des études en mathématiques et une brève carrière académique, elle bifurque et devient analyste au sein d’un fonds spéculatif. Elle est aux premières loges lorsqu’éclate la crise financière de 2008. En 2011, elle quitte la finance pour devenir data scientist dans une startup élaborant des modèles prédictifs d’achats. Peu à peu, elle réalise le potentiel destructeur de l’économie du Big Data. Riche de ses expériences, elle s’attache depuis à dénoncer ce scandale global et invisible : les méfaits de certains algorithmes. En 2016, elle publie le livre « Weapons of Math Destruction » (jeu de mot intraduisible), qui sort en France fin 2018 avec un certain retentissement dans les médias dits « intellectuels » (Le Monde, Libération, France Culture, etc.). La préface est écrite par le mathématicien et homme politique français Cédric Villani qui dit avoir incorporé les enseignements de ce livre dans son rapport sur l’intelligence artificielle (IA).

    Ce livre très pédagogique et bien documenté fourmille d’exemples concrets et illustratifs. L’auteur y démystifie les algorithmes, elle montre qu’ils ne sont aucunement neutres, mais qu’ils servent une intention, souvent cachée, et qu’ils reposent sur des modèles empreints de nos préjugés. Elle dénonce la tendance de ceux qu’elle qualifie d’« Armes de Destruction Mathématiques » (ADM) à « punir les pauvres et à accroître les inégalités » et le danger qu’ils représentent pour la démocratie.

    D’un exemple à l’autre, Cathy O’Neil pointe les « mécanismes d’une bombe » : les ADM s’appliquent à une grande échelle de la population et induisent des boucles de rétroaction néfastes qui ont tendance à amplifier les biais de l’algorithme. De plus, « elles se nourrissent les unes des autres ».

    À la lecture de ce livre, la série britannique Black Mirror ne paraît plus si futuriste… Dans sa préface, Cédric Villani se veut rassurant : « Car une chose est certaine : pour mettre fin aux mauvais usages de l’IA, il ne faut pas les cacher ou se bercer de l’illusion qu’ils seraient réservés aux autres : il faut, au contraire en tirer parti et en parler. En parler aussi pour convaincre nos concitoyens que tous ces problèmes ont bien été identifiés et que les pouvoirs publics ne seront pas naïfs, mais vigilants ». Mais sommes-nous rassurés pour autant ?

    Que pouvons-nous faire ? En conclusion, Cathy O’Neil nous livre quelques pistes. Elle suggère par exemple que les experts en données signent une sorte de serment d’Hippocrate, tout en admettant que « les nobles valeurs et l’autorégulation ne refrènent que les gens scrupuleux ». Il faut donc mettre en place un système de régulation qui prenne en compte les coûts cachés, qui soit basé sur une mesure d’impact et sur un audit des algorithmes.  « Si l’on envisage les modèles mathématiques comme les moteurs de l’économie numérique, ce qu’ils sont à maints égards, le travail des auditeurs consiste alors à soulever le capot et à nous montrer comment ils fonctionnent. C’est une étape vitale, pour nous permettre d’équiper ces puissants moteurs d’un volant et de bons freins. » Elle clame qu’il faut remettre de la science dans la science des données. Les chercheurs se sont déjà emparés de ces questions, mais ils se heurtent souvent aux politiques de confidentialité des grands groupes. Si l’on voit bien comment faire en pratique, décider de le faire est une question politique. Même si les lois progressent — la loi européenne de protection des données RGPD est un bon début par exemple, nombreux sont les scientifiques à penser que les politiques ne s’attaquent pas assez fort, pas assez vite au problème, et à ne pas savoir comment les y contraindre.

    Il nous reste à partager nos inquiétudes, nos analyses, nos remèdes avec un public aussi large que possible. Dans cet objectif, le livre de Cathy O’Neil est un outil précieux qui donne matière à réfléchir, telle cette recommandation pour conclure : « Il convient en premier lieu de tempérer notre utopie technologique, cet espoir sans borne et injustifié dans ce que les algorithmes et la technologie pourraient accomplir. Avant d’en exiger mieux, nous devons d’abord admettre qu’ils ne peuvent pas tout. »

    Martine Olivi

    Sciences des données

    Stéphane Mallat (janvier 2018)

    Leçon inaugurale de la Chaire « Sciences des données » animée par Stéphane Mallat au Collège de France le 11 janvier 2018.

    Accéder à la leçon inaugurale (disponible en vidéo ou en audio).

    Intelligence artificielle, masse de données ou données massives ou mégadonnées (big data) ou encore apprentissage profond (deep learning) : il n’est pas toujours aisé de s’y retrouver dans l’ensemble de ces termes très présents dans les médias en raison notamment de résultats exceptionnels en reconnaissance d’images et traduction automatique.

    Pour Stéphane Mallat, titulaire de la chaire « Sciences des Données » nouvellement créée au Collège de France, ces résultats récents ont été obtenus grâce à l’augmentation à la fois du volume des données disponibles, des moyens de calcul et des performances des algorithmes d’analyse de données. Malgré tout, la compréhension de ces algorithmes reste peu avancée actuellement. L’objectif de son cours est ainsi d’expliquer les phénomènes sous-jacents modélisés par ces algorithmes en utilisant les mathématiques.

    Dans sa leçon inaugurale, il définit son domaine comme la capacité d’extraire de la connaissance contenue dans les données. Les sciences des données se situent à la croisée de plusieurs disciplines : mathématiques (statistiques, probabilités, analyse harmonique, calcul différentiel, géométrie différentielle) et informatique (intelligence artificielle, bases de données, etc.) mais aussi toutes les sciences dont sont issues les données (physique, chimie, biologie… ).

    La présentation se concentre sur l’apprentissage en grande dimension et met en avant un problème difficile, celui de la généralisation. Comment prédire la réponse à des données nouvelles à partir d’observations de réponses sur des données similaires ? Pour ce faire, il est primordial de se baser sur un a priori de régularité de la prédiction vis-à-vis des données.

    Une difficulté majeure est de gérer un grand nombre de dimensions, une simple image peut par exemple contenir un million de pixels qui représentent autant de données d’entrées. Les techniques classiques ne permettent pas de généraliser simplement car aucun exemple n’est alors proche d’un autre. Le titre de la première année du cours est d’ailleurs : « l’apprentissage face à la malédiction de la grande dimension ». Dans ces conditions, il est nécessaire de recourir à une nouvelle représentation des données d’entrée pour déterminer des paramètres discriminants qui permettent de les séparer. Pour trouver cette nouvelle représentation, on peut soit apporter de l’information a priori (issue de connaissances spécifiques au domaine d’application visé), soit apprendre directement cette représentation des données. C’est là tout le succès des réseaux de neurones profonds, à propos desquels Stéphane Mallat explique que l’information a priori est en réalité contenue dans leur architecture multiéchelle bien adaptée aux problèmes complexes.

    Stéphane Mallat aborde également les questions sociétales posées par ces nouveaux algorithmes extrêmement efficaces mais encore mal compris. Les bénéfices sont importants mais les impacts sur la vie privée, l’organisation du travail et la vie publique le sont tout autant. Il est alors important que ce domaine soit expliqué et compris également en dehors de la communauté scientifique.

    Thibault Faney (Ingénieur de recherche à l’IFP Energies nouvelles)

    Terra Data. Qu’allons-nous faire des données numériques ?

    Serge Abiteboul, Valérie Peugeot (Éditions Le Pommier, collection Le Collège, 2017)

    Parfois présenté comme le livre d’accompagnement de l’exposition « Terra Data » qui se tient du 4 avril 2017 au 7 janvier 2018 à la Cité des Sciences à Paris, l’ouvrage « Terra Data. Qu’allons-nous faire de nos données ? » se lit très agréablement, même sans avoir vu l’expo !

    Dès l’introduction, le ton est donné : « C’est une évidence, ces données qui s’accumulent chaque jour plus encore ne sont ni angéliques, ni diaboliques. » Évitant angélisme béat et pessimisme noir, des pistes sont données pour montrer où cette accumulation de données peut mener. Le livre commence par délimiter le sujet : que sont ces fameuses données, mais aussi d’où proviennent-elles, comment sont-elles représentées numériquement et stockées ? Leurs usages et traitements sont également développés, depuis la conservation et la simple interrogation jusqu’à la transmission et l’échange, avec un aperçu des évolutions dans ce domaine. Le traitement des données fait l’objet d’un chapitre spécifique, depuis les « simples » statistiques jusqu’à l’apprentissage automatique.

    Une fois le sujet cerné, les auteurs montrent comment cette approche nouvelle des données massives influence divers domaines assez sensibles :
    – comment les scientifiques peuvent tirer parti des possibilités offertes par la simulation numérique et par les masses de données, par exemple pour disposer de documents fragiles et distants ;
    – comment dans le domaine de la santé, de plus en plus de données sont produites et utilisées pour améliorer les soins et la prévention, mais aussi comment les questions d’éthique, entre autres sujets sensibles, se posent de manière cruciale ;
    – comment le monde économique est en émoi devant les perspectives offertes par le marché des données ;
    – comment la démocratie peut tout aussi bien bénéficier des données massives grâce à une information toujours plus actualisée et accessible, qu’en pâtir, comme l’illustrent les « fake news ».

    La dernière partie révèle quant à elle des aspects plus techniques — tout en restant très accessible — qui sont autant de réponses aux interrogations et inquiétudes soulevées par les chapitres précédents. Tout d’abord, on sait caractériser précisément, de façon bien spécifiée, un traitement des données satisfaisant : les notions de neutralité, loyauté, diversité, équité et transparence sont définies avec assez de précision pour qu’on puisse demander à un algorithme de traitement des données de s’y conformer. En particulier, ces notions ont fait leur entrée sur le terrain juridique, comme le montre « Terra Data » en quatre dates bien choisies. Des solutions qui relèvent plus directement de la mise en œuvre sont également présentées : elles vont du chiffrement et de l’anonymisation des données elles-mêmes à l’ouverture des codes de traitement, ce qui a pour conséquence la transparence. La dernière solution technique évoquée concerne la réappropriation des données personnelles par leurs propriétaires, via les systèmes de gestion des informations personnelles (ou « PIMS » pour Personal Information Management System), avec un retour à un modèle économique traditionnel (le client paie pour un service, à savoir la gestion de ses données) et de sérieux avantages.

    L’ouvrage se poursuit avec une brève évocation des relations apparemment antagonistes entre le « big data » et l’écologie : bien sûr, la moindre requête sur un moteur de recherche a un coût énergétique et l’accumulation de ces requêtes constitue une portion non négligeable de la consommation mondiale d’électricité. Pourtant, des solutions existent pour rendre l’usage des données massives moins gourmandes en énergie. Qui plus est, les données peuvent être utilisées pour réduire des consommations d’énergie ou des gaspillages en permettant une meilleure coordination, plus locale, des différents acteurs.

    Enfin, cette lecture s’achève sur une note plus philosophique : avec les données massives, nous externalisons notre mémoire. Quels sont les enjeux et les difficultés que pose cette tendance ? Le tout est émaillé de nombreux exemples pour illustrer le sujet et le rendre concret. Les lecteurs avertis apprendront peu des aspects techniques, mais probablement beaucoup dans les exemples. Les moins avertis termineront leur lecture avec une vision éclairée, certes incomplète mais panoramique, et surtout pas anxiogène : au contraire, cette lecture pousse à l’action plutôt qu’à la résignation. Une lecture hautement recommandable, sans prise de tête, qui se veut un aiguillon pour se poser des questions et pour (ré-)agir !

    Nathalie Revol

    Le robot, meilleur ami de l’Homme ?

    Rodolphe Gélin (Éditions Le Pommier, collection Les plus grandes Petites Pommes du savoir, 2015)

    robot-meilleur-ami

    Un livre sympathique et instructif, à croquer avec plaisir ! L’auteur s’appuie sur sa vie, ses recherches au CEA, les projets de développement de la startup à laquelle il appartient, pour nous dresser une vision très complète de la robotique.  Il aborde plus spécifiquement la robotique humanoïde au service de l’Homme, en particulier des personnes âgées. Il écrit de manière très vivante, dans une langue directe et imagée et prend des exemples simples mais très parlants, faisant référence à des rencontres marquantes et des moments de sa vie personnelle. Ce livre réussit à être passionnant et limpide tout en brossant un tableau complet du domaine. L’auteur prend le lecteur par la main, le mettant progressivement face aux problèmes très pratiques à résoudre lorsque l’on veut construire un robot : problèmes de conception mécanique, de déplacement, de perception, de communication, de raisonnement, de décision… problèmes concrets, souvent difficiles, auxquels il faut trouver des solutions efficaces, simples et peu coûteuses. Mécanique, physique, informatique, intelligence artificielle, neurosciences sont au programme… mais aussi psychologie et sociologie, puisque le robot humanoïde doit non seulement être fonctionnel, mais aussi et surtout être accepté par ses utilisateurs comme un vrai compagnon. C’est passionnant, même quand on baigne dans le domaine. L’auteur transmet son enthousiasme de scientifique et d’ingénieur, la dimension humaine et sociétale de son projet, la richesse de ce domaine, les défis à venir. Le glossaire et les références, peu nombreuses mais pertinentes, donnent des pistes pour ceux qui envisagent de creuser le sujet de ce petit livre. Parions aussi qu’il suscitera des vocations !

    Marie-Odile Cordier

    Petite Poucette

    Michel Serres (Éditions Le Pommier, collection Manifestes, mars 2012)

    Le monde change. Dans le passé, deux inventions ont profondément modifié la culture et la transmission du savoir : l’écriture, puis l’imprimerie. Nous sommes « enfants du livre et petits-enfants de l’écriture », nous dit Michel Serres. Aujourd’hui, une nouvelle invention a de profondes répercussions sur l’enseignement et sur la société mondiale : la Toile, ou plus généralement l’informatique, le numérique, révolutionnent les savoirs et les liens sociaux. Les jeunes, comme Petite Poucette, manipulent avec dextérité les tablettes et téléphones portables, avec les deux pouces. Petite Poucette n’a plus besoin d’une tête bien pleine, ni même d’une tête bien faite comme le souhaitait Montaigne, puisque le savoir est disponible, distribué sur la Toile, accessible avec les moteurs de recherche. Sa tête est ainsi libérée pour laisser libre cours à l’intuition, à l’imagination. Petite Poucette invente le monde numérique.

    La pédagogie doit s’adapter à cette révolution. À l’école ou à l’université, Petite Poucette s’ennuie et bavarde. Elle refuse la transmission classique du maître vers l’élève silencieux et préfère la navigation sur le Net. Michel Serres évoque-t-il ainsi sans les nommer les MOOC, ces cours en ligne ouverts à tous ? ou encore la science participative et le crowdsourcing ? Certes, il limite les enjeux de l’éducation à la simple transmission de connaissances, en occultant la transmission du savoir-faire. Il ignore aussi les limites des moteurs de recherche. Michel Serres imagine que Petite Poucette inventera un nouveau format support pour remplacer les pages. Les « tutos » et autres manuels sous forme de courtes vidéos semblent lui donner raison. Michel Serres va encore plus loin en prédisant que le classement des savoirs en disciplines cloisonnées ne résistera pas aux usages informatiques. D’après lui, le désordre stimule la créativité.

    La société tout entière doit s’adapter aux changements induits par le numérique. Un bruit de fond émane des réseaux sociaux, des blogs, des usages informatiques, et met en question la présomption d’incompétence ou les structures pyramidales. Michel Serres voit émerger de nouvelles compétences, qui inventent les relations sociales de demain. Ces compétences s’appuient sur une pensée algorithmique, qui définit concrètement des manières de procéder et d’enchaîner des actions. Cette vision de Michel Serres est résolument optimiste et ignore volontairement le côté obscur du Net. Par exemple, le consumérisme, le marketing agressif, la fracture numérique, l’exploitation des données personnelles. Ou pire, les nébuleuses terroristes, la pédophilie, les trafics illicites. Michel Serres n’aborde pas plus les difficultés techniques, telles que la garantie de neutralité du Net, la protection des données, les attaques de logiciels malveillants.

    Avec une fausse naïveté, un enthousiasme communicatif et un brin de provocation, Michel Serres explore donc les possibilités infinies de l’ère numérique et prédit l’avènement d’un monde différent. Il se prend à rêver d’un passeport numérique, contenant les données individuelles, qui garantisse à la fois l’anonymat et l’individualité, à la fois le libre accès à ses données et leur protection. Ce passeport aurait un nom de code, tel que Petite Poucette.

    Jocelyne Erhel

    Culturomics, le numérique et la culture

    Jean-Paul Delahaye, Nicolas Gauvrit (Éditions Odile Jacob, collection Sciences, mars 2013)

    Durant la décennie 2000-2010, l’information disponible sur notre planète est devenue majoritairement stockée sous forme numérique. L’apparition de très grandes bases de données, notamment celles offrant l’accès à de gigantesques corpus de textes, et la mise à disposition d’outils logiciels facilitant leur exploitation statistique, a donné naissance à un nouveau domaine de recherche, la culturomique.

    Une base de plus de cinq millions d’ouvrages a ainsi été constituée à l’université Harvard, à partir des douze millions de livres numérisés par la firme Google. Un outil, utilisable par tout un chacun, permet d’analyser la fréquence d’usage de mots ou d’expressions dans ce corpus pour chaque année comprise entre 1800 et 2008. Les résultats ainsi obtenus vont être le principal fil conducteur des réflexions auxquelles nous invitent les auteurs.

    Les Beatles furent-ils aussi populaires que le Christ ? Sommes-nous plutôt fromage ou dessert ? Comment mesurer la notoriété d’un chercheur ? Les nombres commençant par un 1 apparaissent-ils plus fréquemment que ceux commençant par un 2 ou un 9 ? Telles sont quelques-unes des interrogations analysées dans cet ouvrage où les auteurs nous alertent régulièrement sur les biais possibles de telles analyses et nous délivrent des clés permettant de les appréhender avec discernement.

    Une lecture passionnante donc, et une irrésistible envie de se précipiter vers ces nouveaux outils pour conduire ses propres expériences.

    Les auteurs rencontrent le public au Musée des arts et métiers le 2 mai 2013, dans le cycle Paroles d’auteurs, voir la vidéo.
    Ils participent également à la rencontre organisée par l’AFIS IDF, Des intuitions trompeuses en statistiques à la Culturomique, le 25 juin 2013 à AgroParisTech.

    Éric Sopena

    La révolution Internet

    Textes et documents pour la classe (15 octobre 2012)

    Couverture du numéro de TDC La révolution Internet

    La « révolution Internet » peut s’analyser de multiples points de vue : scientifiques et techniques bien sûr, mais aussi suivant des angles historiques, juridiques, sociétaux, éducatifs, voire artistiques. Et ce numéro de la revue Textes et documents pour la classe (TDC) réussit à les exposer tous, sans simplifications abusives, ni clichés. Ses sept articles, complétés par les huit « Études de documents », s’adressent certes au monde de l’éducation, étudiants et enseignants, mais ils constituent une lecture de choix pour toute personne attachée à comprendre ce réseau des réseaux et ses impacts. Des protocoles de transmission de données et de la théorie des graphes au Net art et aux « jeux sérieux » : un grand écart thématique parfaitement maîtrisé.

    François Rechenmann

    La République des Réseaux

    Jean Rognetta, Julie Jammot, Frédéric Tardy (Fayard 2012)

    Couverture du livre La République des réseaux

    La République des Réseaux analyse les « Périls et promesses de la révolution numérique ». Les auteurs y défendent la « nécessité d’embrasser l’avenir contre une vague montante d’intellectuels qui dénoncent les périls du numérique ». À partir de leur analyse, ils osent formuler des solutions. À travers un travail documentaire très fouillé, ils montrent comment le numérique forme l’une des causes majeures des crises que nous vivons. Mais aussi comment il apporte la solution et constitue même la seule issue possible à une crise économique et sociale, qui devient stratégique et peut-être bientôt militaire. Ils invitent à sortir des débats convenus sur le numérique et proposent de libérer — et non plus libéraliser — entrepreneurs et économies européennes, d’inventer une nouvelle défense, bref, de sortir des mythes du XXe siècle. Le levier est d’ouvrir les frontières et de dynamiser l’éducation. C’est un ouvrage politique, au sens noble du terme.

    Thierry Viéville

    La robotique : une récidive d’Héphaïstos

    Jean-Paul Laumond (janvier 2012)

    L’année de ses cinquante ans, la robotique entre au Collège de France : c’est un bel anniversaire !

    Extrait de la vidéo de la conférenceCette vidéo présente la leçon inaugurale de Jean-Paul Laumond, titulaire de la chaire « Innovation technologique Liliane Bettencourt » du collège de France pour l’année 2011-12.

    Accéder à la leçon inaugurale (disponible en vidéo ou en audio).

    Jean-Paul Laumond, directeur de recherche CNRS au LAAS de Toulouse, est une figure bien connue de la robotique. Dans cette leçon d’un peu plus d’une heure, il nous donne un très bel aperçu de ce domaine dans un discours vivant, bien construit et illustré.

    À partir d’une définition minimale du robot, « une machine qui bouge et dont les mouvements sont commandés par un ordinateur », il pose la question essentielle de son degré d’autonomie. L’exposé se décompose en trois parties, toutes trois très intéressantes et complémentaires :

    • une introduction générale à la robotique, qui retrace les grandes évolutions du domaine ;
    • la robotique du mouvement, incluant toutes les méthodes permettant à un robot d’enchaîner les mouvements nécessaires pour atteindre un but. Ces travaux de recherche se divisent en deux grandes écoles de pensée. L’approche la plus utilisée est fondée sur des modèles, par contraste avec l’approche comportementale « bio-inspirée » introduite par Rodney Brooks au MIT. Si Jean-Paul Laumond s’inscrit dans la lignée de la première, il plaide pour un dialogue entre les deux écoles ;
    • la robotique humanoïde, en pleine évolution depuis une vingtaine d’années. Il aborde la question de la marche d’une façon originale, partant du constat que « les bipèdes marchent avec la tête et pas avec les pieds », pour conclure sur les interactions entre l’Homme et le robot.

    Tout au long de son exposé, il file la métaphore d’Héphaïstos, pour mettre en scène la tension entre le « faire » et le « comprendre », entre l’innovation et la recherche fondamentale, qui se révèle féconde. Il en profite pour égratigner au passage nos peurs (« contrairement à une idée reçue, l’impact de la robotique en matière d’emploi est positif ») et nos fantasmes (« réfléchissons à nos propres transferts : certains d’entre nous ont une étrange affection pour leur voiture, je ne pense pas que cette affection soit réciproque »). Et, prenant exemple sur le professeur Nakamura qui, au lendemain de la catastrophe de Fukushima, écrivait « De nombreux chercheurs en robotique dont je fais partie ont été stupéfaits par le fait que nous ne disposons d’aucune arme face au problème. Il se peut bien que même la technologie ait démontré là son immaturité », il nous met en garde contre les effets d’annonce. Une grande leçon.

    À propos de machines à penser

    Lucien Mélèse et René Blanchard (1963)

    Voir la vidéo sur le site de l’Ina (25 min 47 s).

    Extrait de la vidéoEn 1963, l’informatique faisait du bruit ! Machines à perforer et à lire les cartes, imprimantes, lecteurs de bande magnétique : autant de dispositifs essentiellement mécaniques et… bruyants. Autour de ces machines, gravitent des hommes et des femmes auxquels se sont intéressés les réalisateurs de ce documentaire tourné dans les locaux de la Compagnie des Machines Bull. Ils se penchent sur leurs métiers, désormais disparus, leurs aspirations, leur perception de leur travail au sein de l’entreprise, leurs perspectives tant professionnelles que personnelles.

    Il en résulte une enquête qui peut s’appréhender selon au moins deux angles différents : un angle technique, qui fait découvrir une informatique plus proche de la mécanographie que du calcul automatique, et un angle sociologique sur une époque où l’informatique employait beaucoup de femmes… pour des raisons bien discutables.

    PhiloWeb 2010

    Première conférence internationale consacrée au Web et à la Philosophie, Paris, 16 octobre 2010.

    Logo de la conférence PhiloWebLe Web tel que nous le connaissons est au croisement de nombreuses disciplines et écoles de pensées. La Philosophie, comme en témoignent les nombreuses références du Web et du Web sémantique à la sémantique formelle, aux ontologies, à la question de l’identité ou de la signification, ou encore aux noms propres logiques, a joué un rôle majeur dans ces avancées et ce, quand bien même trop peu de philosophes en sont aujourd’hui conscients. L’ambition de cette conférence est de mettre en lumière cette dynamique de manière à favoriser, à l’avenir, les coopérations entre philosophes, informaticiens et ingénieurs. Le but est, en fin de compte, de contribuer à façonner une discipline nouvelle dotée de son propre programme de recherche, de jouer un rôle fondateur pour une authentique Philosophie du Web.

    Des vidéos de Bernard Stiegler, discutant du bien-fondé d’une « philosophie du Web », ainsi que d’autres chercheurs, ingénieurs et philosophes, commencent à être publiées sur le site de PhiloWeb 2010. Elles servent d’introduction à l’événement proprement dit, qui réunira des chercheurs en philosophie et en informatique et des ingénieurs. À l’issue de la journée, une exposition d’art sera organisée, pour apporter un autre éclairage sur les thématiques abordées.

    Organisé conjointement par l’université Paris 1 Panthéon-Sorbonne et Inria, PhiloWeb 2010 est un événement gratuit auquel chacun peut librement assister, sans inscription préalable, dans la limite des places disponibles.

    L’Internet social (ou Web 2.0) : opportunités, impact et défis

    Patrick Valduriez (février 2010)

    Le conférencier Patrick ValduriezExposé dans le cadre du séminaire interuniversitaire d’Histoire et Philosophie des sciences à l’université Montpellier 2.
    Voir la vidéo.

    Placer l’utilisateur lui-même au cœur du processus de production d’information, comme auteur et comme évaluateur, en communication directe et instantanée avec les autres utilisateurs, cela change radicalement notre rapport à l’information. C’est ce que nous appelons le Web 2.0. Ses réseaux sociaux permettent la création de communautés professionnelles, ainsi que la production collective de connaissances, mais engendrent aussi des risques de désinformation ou d’atteinte à la vie privée. Un impact potentiel profond sur l’éducation, la culture et la société, que discute Patrick Valduriez, chercheur à Inria Sophia Antipolis – Méditerranée, dans cet exposé de 92 minutes diffusé en vidéo.

    L’informatique

    Textes et documents pour la classe (1er juin 2010)

    couvertureLa revue Textes et documents pour la classe (TDC), diffusée essentiellement dans les établissements scolaires, en est presque à son 1000e numéro, mais c’est le premier qu’elle consacre à l’informatique !

    Aujourd’hui, alors que l’usage des technologies de l’information se banalise dans notre société et que leurs enjeux politiques, sociaux et culturels font débat, la connaissance des bases scientifiques et techniques de l’informatique reste confidentielle. Comme le souligne Guy Belzane, le rédacteur en chef, dans son éditorial, « il n’y a guère de sens à opposer approches scientifique et sociétale. C’est précisément à tenir ensemble ces deux fils que ce numéro de TDC s’attache et c’est tout le sens du partenariat mené, en cette occasion, avec l’Institut national de recherche en informatique et en automatique (Inria). »

    Pari réussi ? Les lecteurs d’Interstices ne seront certes pas surpris par les prises de position affichées en faveur de la reconnaissance de l’informatique comme discipline scientifique et de son enseignement. Ils retrouveront avec plaisir la signature de plusieurs auteurs. Ainsi apprécieront-ils le point de vue de Jean-Paul Delahaye sur les relations entre mathématiques et informatique. Ils découvriront aussi, sous la plume de Ionut Danaila, à travers l’exemple de la modélisation du condensat de Bose-Einstein, comment la physique bénéficie de l’expérimentation numérique.
    Sans oublier d’afficher le poster L’informatique de A à Z !

    « Le monde est-il numérique ? »

    Hors-série de Sciences et Avenir : La magie des nombres (octobre 2009)

    couverture

    « Le monde est-il numérique ? » La question, posée à deux philosophes des sciences et à deux chercheurs en informatique, fait ressortir des points de vue pour le moins divergents : « Il n’y a pas de nombres dans la nature », « L’ordinateur ne traite que des symboles », « La nature n’est pas prédictible », « Le monde entier est peut-être numérisable ». Les quatre réactions rendent ainsi compte d’interprétations très différentes de l’adéquation, que d’aucuns ont qualifiée de « déraisonnable », des moyens de modélisation qu’apportent les mathématiques, et maintenant l’informatique, à l’analyse, la compréhension et la prédiction des systèmes naturels. Ce débat particulièrement roboratif s’insère dans le dossier sur « La société numérique » du passionnant hors-série que Sciences et Avenir consacre à « La magie des nombres ».

    Pourquoi et comment le monde devient numérique

    Gérard Berry

    couverture

    Leçon inaugurale de la Chaire d’Innovation technologique Liliane Bettencourt, au Collège de France le 17 janvier 2008.

    Accéder à la vidéo.
    Le texte de la leçon inaugurale, édité aux Éditions Fayard, est disponible en librairie.

    L’informatique est partout, c’est devenu banal de le dire, mais qu’entend-on vraiment par-là ? Comprend-on bien que le numérique, aujourd’hui, loin de se cantonner aux ordinateurs, est bien plus répandu dans les objets technologiques les plus divers, des téléphones aux avions ? Quelles en sont les implications, les qualités mais aussi les inconvénients, à commencer par les bugs ? Pleinement en accord avec la devise du Collège de France, « enseigner la recherche en train de se faire », Gérard Berry présente une vision de l’informatique au sens large axée sur ses fondements scientifiques.

    Jaillissement de l’esprit – Ordinateurs et apprentissage

    Seymour Papert (Flammarion 1981, réédition 1999)

    couverture

    Un rêve : une démarche pédagogique, qui non seulement tolère l’erreur, mais l’utilise pour soutenir l’élève dans la construction de ses connaissances et de ses savoir-faire. Un apprentissage, moins « de » l’informatique que « par » l’informatique, plus précisément par la programmation en langage Logo.

    Langage de programmation complet, Logo est de fait plus connu pour son association avec la « tortue », qui dessine à l’écran des figures géométriques en suivant les instructions d’un programme. Un « bug » dans le programme ? Ce n’est pas une erreur à sanctionner, mais une réflexion à mener sur la séquence d’instructions, qui ne produit visiblement pas le résultat attendu : recherche de l’origine du « bug » par l’élève, correction du programme, examen et analyse de la nouvelle figure produite, et ainsi de suite jusqu’à l’obtention du résultat, qui sera jugé correct par l’élève lui-même dans la mesure où la figure obtenue se révèlera conforme à l’objectif qu’il s’était assigné.

    Des instructions simples font bouger la tortue et dessiner des figures.

     

    Ces ordres peuvent être combinés pour former de nouvelles instructions.

    Dessine-toi une maison…

     

    Et avec un peu plus d’expérience, une dose de récursivité, et la couleur…

     

    D’autres exemples peuvent être consultés sur le Web.

    Dans son ouvrage, Seymour Papert, chercheur en informatique au MIT, argumente et explique en quoi cette démarche constructiviste pourrait être un remède contre la « phobie des mathématiques » qui prend naissance dans les salles de classe.

    Ah oui, j’oubliais : la première édition de cet ouvrage a été publiée en 1980 en anglais sous le titre Mindstorms – Children, computers and powerful ideas, puis publiée en français en 1981. Vous dites ? Nous sommes en 2008 ? Ah ? Désolé, j’étais encore en train de rêver…

    François Rechenmann

    De la programmation considérée comme un des beaux-arts

    Pierre Lévy (La Découverte 1992)

    couverture

    Ce livre décrit quatre expériences, vécues, de confrontation entre des experts d’une réalité indicible et des informaticiens qui doivent automatiser les tâches de ces experts : aide à la prévision du cours des devises, aide à l’application de lois sur la protection de l’enfance… L’auteur décrit très minutieusement les allers et retours entre les experts des domaines concernés et l’expert « programmeur ». Selon Pierre Lévy, s’échafaude alors une intelligence collective à laquelle les Hommes et la machine prennent part. Ce livre fournit donc des éléments de réflexion intéressants sur l’intelligence des machines. L’auteur discute aussi de la position du « programmeur » ; pour qui travaille-t-il ? Pour les utilisateurs, pour son patron, pour les clients de son patron, pour lui-même ?

    Écrit par un philosophe, « la programmation considérée comme un des beaux-arts », sonne d’abord comme une provocation pour qui tient au contraire à maintenir l’activité de programmation dans un cadre assez serré de disciplines et de méthodes explicites, formelles ou non. En fait, il s’agit d’un malentendu sur le sens à donner au mot « programmation ». Il ne s’agit pas ici de la programmation telle qu’on l’enseigne dans des « cours de programmation ». L’activité décrite dans ce livre ressemble plus à celle de l’analyse des besoins. La provocation n’est donc qu’apparente, et la comparaison avec les beaux-arts peut se justifier à l’aide d’un exemple. Rodin a fait de nombreuses sculptures sur marbre, mais ne les sculptait pas toujours lui-même : un « praticien » s’en chargeait sous la direction du maître. Ce n’est pas spécifique à Rodin ni à la sculpture sur marbre : le moulage du bronze ou la gravure nécessitent aussi l’association d’un artiste et d’un artisan. Cela n’enlève rien au mérite de l’artiste qui reste toujours le créateur de la forme ou de la figure qui transcrit l’émotion artistique. (Cela pose tout de même des questions sur la notion d’original et de copie dans le cas où les moules ou les plaques ne sont pas détruits. Ces questions ne sont pas non plus étrangères à l’informatique.) Eh bien, le programmeur de Pierre Levy est Rodin, alors que celui de l’enseignement ou de l’industrie est plutôt le praticien. Mais, au lieu d’émotion artistique et de marbre, le programmeur de Pierre Levy transcrit une réalité quasi-indicible dans les procédures d’une machine conçue comme un matériau.

    Quatre chapitres décrivent quatre expériences, vécues, de confrontation entre des experts d’une réalité indicible et des informaticiens qui doivent automatiser les tâches de ces experts. Pour deux de ces tâches, l’aide à la prévision du cours des devises, et l’aide à l’application des lois québécoises sur la protection de l’enfance, la machine qu’il faut programmer est un moteur de système expert, et ce qu’il faut produire n’est donc pas un programme au sens courant, mais un ensemble de règles, sur la base desquelles le moteur d’inférence pourra produire des conclusions. Dans le second cas, des faits divers avaient mis en évidence que les services de protection de l’enfance du Québec étaient incapables d’appliquer raisonnablement des lois devenues trop complexes. Les autorités concernées avaient donc décidé d’étudier la faisabilité d’une assistance automatique. L’auteur décrit très minutieusement les allers et retours entre les experts des services sociaux et l’expert cogniticien qui doit « programmer » le moteur d’inférence. Selon Pierre Levy, s’échafaude alors une intelligence collective à laquelle les hommes et la machine prennent part.

    Ce livre me semble intéressant par sa provocation apparente, et parce qu’il met en avant l’analyse, même informelle, des besoins. De plus, deux des expériences décrites relèvent directement des méthodes dites de l’intelligence artificielle, et les deux autres n’en sont pas si éloignées ; ce livre peut donc fournir des éléments de réflexion intéressants pour les « praticiens » de ce domaine. En effet, pour Pierre Lévy, il ne s’agit pas d’« intelligence artificielle », mais plutôt de la réalisation de médias originaux pour la transmission de savoirs empiriques.

    En conclusion, le lecteur de ce livre ne trouvera pas tellement d’information technique, mais surtout une réflexion sur les rapports entre le programmeur (au sens exposé plus haut), la machine et la société (au sens des experts du savoir empirique transmis, des donneurs d’ordres du programmeur, et des utilisateurs du produit final). Il me semble qu’il s’agit là de questions qu’il ne faut pas négliger.

    Olivier Ridoux

    Les arbres de connaissances

    Michel Authier et Pierre Lévy (La Découverte 1993)

    couverture

    Ce livre et le projet qu’il décrit sont issus de la « mission Serres » de 1992 sur la fondation d’une Université de France pour l’enseignement à distance. Les auteurs présentent un système concret et une utopie intéressante : que pourraient devenir l’acquisition et la validation des connaissances grâce à l’informatique ? Le grand intérêt de cet ouvrage vient de ce qu’il donne une forme imaginaire et futuriste mais concrète à tout un imaginaire théorique tournant autour des notions d’autonomie, d’auto-organisation, de convivialité, d’identité. Un formalisme en lien avec les philosophies modernes sur ce sujet : les arbres de connaissances sont fondés sur des principes d’auto-organisation, de démocratie et de libre-échange dans le rapport au savoir.
    Un livre pour ceux qui veulent entrer au cœur de ce sujet.
    Pour en savoir plus sur le contexte du projet.

     

    La grande histoire des codes secrets

    Laurent Joffrin (Points 2010)

    couverture

    Une grande histoire racontée dans un petit livre de dix chapitres, qui introduisent les principales classes de chiffrement d’avant l’ère de l’informatique. Si les textes sont plus historiques que techniques, chaque chapitre se termine sur une énigme proposée au lecteur, et dont la solution, commentée à la fin de l’ouvrage, permet de saisir les principes élémentaires de la cryptanalyse. Les lecteurs d’Interstices apprécieront particulièrement le dernier chapitre relatant la vie et les travaux d’Alan Turing. Ce livre constitue une plaisante et très abordable introduction aux codes secrets. Le lecteur mis en appétit pourra compléter ses connaissances en lisant l’ouvrage de Simon Singh sur le même sujet, présenté ci-dessous.

     

    Histoire des codes secrets ; de l’Égypte des pharaons à l’ordinateur quantique

    Simon Singh (Jean-Claude Lattès 1999 et Le Livre de Poche 2001)

    couverture

    Traduction de : The Code Book.
    L’auteur guide son lecteur au travers de l’histoire de la cryptographie. Il en dévoile la complexité croissante sans jamais devenir complexe. Ne se réfugiant pas dans la technologie, il présente le facteur humain, quand la paresse et la routine fragilisent un code secret, ou quand la détermination et l’ingéniosité permettent de le casser.
    Un livre très abordable (dans tous les sens du terme) et très complet sur le sujet.

    La guerre des codes secrets

    David Kahn (InterÉditions 1980)

    couverture

    Traduction de The Codebreakers (1967), édition en anglais revue en 1996.
    Ce livre écrit par un spécialiste de l’histoire de la cryptologie raconte l’histoire de cette « science du secret », d’abord utilisée par les princes, les diplomates et les militaires et qui aujourd’hui concerne tout le monde. Précis, fiable, cet ouvrage passionnant montre que la cryptologie a joué un rôle souvent insoupçonné dans de nombreux événements historiques aussi bien dans le passé proche que lointain.
    Facile à lire, ce livre réjouira les experts comme les simples curieux.

    Théorie algorithmique des jeux et enchères combinatoires

    Claire Mathieu

    conférencier

    Conférence donnée dans le cadre du Colloquium Jacques Morgenstern à Sophia Antipolis.
    Voir la vidéo.

    En algorithmique, le souci principal est d’obtenir des solutions efficaces, alors qu’en économie, il s’agit surtout de trouver des solutions compatibles avec les intérêts de chacun. Rapprocher ces deux points de vue est une préoccupation qui a émergé récemment.
    Comment inciter les participants à une enchère à révéler la véritable valeur qu’ils accordent à un objet ?
    Comment est déterminé le prix des liens commerciaux des moteurs de recherche ?
    Dans un système de multicast, comment partager au mieux le coût des liens entre les différents participants ?
    À travers quelques exemples présentés de façon très vivante, Claire Mathieu montre comment la convergence de ces deux disciplines aboutit à des résultats théoriques novateurs.

    Poulet farci

    Rupert Morgan (Éditions 10-18 2002)

    couverture

    Traduit de l’anglais.
    L’histoire se passe dans un pays qui ressemble fort aux États-Unis. Un petit reporter spécialisé dans le bizarre et le scandaleux se voit proposer d’écrire une biographie sur un grand magnat de l’informatique. Au fur et à mesure se développent plusieurs histoires, qui constituent une satire sociale (sont évoqués la révolution informatique, la course au profit au mépris de l’individu, le cynisme des dirigeants, la fatuité des politiques, les soucis quotidiens du « petit peuple »…) : loufoque et délirant. Mais aussi de quoi nourrir notre réflexion sur les enjeux des sciences et technologies de l’information et de la communication pour notre société.

    Société de philosophie des sciences

    couverture

    La Société de philosophie des sciences a tenu son troisième congrès du jeudi 12 au samedi 14 novembre 2009 à Paris, dans les locaux de la Sorbonne.
    Cette société savante a pour but de promouvoir la philosophie des sciences, elle est ouverte à toutes les formes de réflexion sur la science et sur la pratique scientifique.

    Le thème principal du congrès est « Sciences et décision », l’occasion de réfléchir, lors de conférences plénières et de sessions menées en parallèle, aux questions suivantes :

    • Quels sont les liens entre les sciences et la décision ?
    • Quels choix se présentent aux chercheurs et aux responsables des programmes scientifiques ?
    • Sur quoi leurs décisions se fondent-elles ou devraient-elles se fonder ?
    • Comment prendre de « bonnes » décisions à l’aide de connaissances scientifiques dans des situations d’incertitude ?
    • Quand et selon quelles modalités est-il possible de décider « scientifiquement » ?
    • Que sont les sciences de la décision et sur quoi se fondent-elles ?

    Pour en savoir plus sur la SPS et le congrès, voir le site web.

    Newsletter

    Le responsable de ce traitement est Inria. En saisissant votre adresse mail, vous consentez à recevoir chaque mois une sélection d'articles et à ce que vos données soient collectées et stockées comme décrit dans notre politique de confidentialité

    Niveau de lecture

    Aidez-nous à évaluer le niveau de lecture de ce document.

    Si vous souhaitez expliquer votre choix, vous pouvez ajouter un commentaire (Il ne sera pas publié).

    Votre choix a été pris en compte. Merci d'avoir estimé le niveau de ce document !

    Découvrez le(s) dossier(s) associé(s) à cet article :

    DossierCulture & Société

    Mathématiques et société

    DossierCulture & Société

    Lire & Voir