Les Newsletters Interstices
Vue de l'ENIAC, un des tout premiers ordinateurs opérationnels Source : Wikimedia Commons
    Niveau facile
    Niveau 1 : Facile

    Idée reçue : L’informatique, c’est récent !

    Histoire du numérique
    Langages, programmation & logiciel
    Pour ouvrir notre collection d'idées reçues, en voici une fort répandue...

    Si vous êtes nés après le début des années 1980, l’ordinateur et l’internet ont fait partie très tôt de votre environnement, tant à la maison, directement ou via les médias, qu’à l’école. Et ce, contrairement à vos parents qui ne pouvaient même pas imaginer, au même âge, disposer d’ordinateurs personnels et bon marché, capables de traiter et de conserver des textes, des images, des sons et des vidéos, et de les échanger à travers la planète par quelques « clics » de souris. De ce fait, il vous est naturel de penser que l’informatique est une technologie récente, datant de moins de 25 ans.

    Il est en fait assez délicat de dater les débuts de l’informatique. En effet, les premiers moyens de calcul sont anciens : dès le 7e millénaire avant notre ère, des cailloux, appelés calculi en latin, aident déjà à effectuer des opérations arithmétiques élémentaires. Par la suite, de nombreux dispositifs ont été imaginés : des quipus Incas aux bouliers de différents types, aux machines électromécaniques, en passant par la Pascaline et les arithmographes.

    Même si les réflexions de Charles Babbage à partir de 1834 l’anticipèrent, ce n’est qu’à partir de la fin des années 1930 qu’il est possible de parler d’ordinateur, bien que le terme n’existât pas encore (il a été introduit en 1955). En effet, c’est l’enregistrement, dans une mémoire de la machine, de la séquence des opérations à effectuer – le programme –, avec les données sur lesquelles elles portent, qui distingue un ordinateur d’un dispositif de calcul, quelles que soient la maniabilité et la rapidité de ce dernier.

    Les premiers ordinateurs étaient extrêmement encombrants, très coûteux, très lents par rapport aux standards actuels et tombaient fréquemment en panne. ENIAC, un des premiers ordinateurs opérationnels, a été achevé en 1946 ; il pesait 27 tonnes, occupait 63 m2 au sol et effectuait 5000 opérations par seconde. Les progrès technologiques des décennies suivantes ont permis de réduire leur taille, grâce à la miniaturisation des composants électroniques, d’en augmenter la fiabilité, en particulier par la substitution des semi-conducteurs aux tubes à vide, d’en diminuer le coût grâce à des procédés de fabrication automatisés, et enfin d’en accroître considérablement la puissance, tant en termes de calcul que de capacité de stockage. Comparez ENIAC à votre ordinateur personnel – quelques kilos posés sur votre bureau capables d’effectuer plusieurs centaines de millions d’opérations par seconde.

    Simultanément, le codage numérique de l’information a envahi les domaines de la communication : textes, sons, images et vidéos, codés sous la forme de séquences de 0 et de 1, peuvent être traités par l’ordinateur et être transmis efficacement sur de longues distances. C’est l’association étroite des ordinateurs et de ces techniques de communication qui caractérise la situation actuelle et que recouvre le signe STIC : sciences et technologies de l’information et de la communication.

    Mais si l’informatique (le mot est apparu au milieu des années 1960) s’incarne dans les ordinateurs et les réseaux de communication, elle ne s’y réduit pas. Un programme est constitué d’une suite d’instructions dont l’exécution résout un problème. Cette suite d’instructions est tout d’abord conçue sous forme d’un algorithme. La notion d’algorithme a très largement précédé la disponibilité des calculateurs programmables, car calcul et algorithme sont liés : toute opération de calcul, même élémentaire comme l’addition ou la multiplication de deux nombres, repose sur un algorithme. Ainsi, les anciens Egyptiens mettaient en œuvre un algorithme de multiplication, peu efficace, qui diffère notoirement de celui qui est maintenant le plus souvent enseigné.

    Déterminer la suite d’instructions requise pour résoudre une catégorie de problèmes, autrement dit concevoir l’algorithme de résolution, est une tâche intellectuelle difficile. La recherche d’algorithmes efficaces, c’est-à-dire qui soient simultanément faciles à mettre en œuvre, en particulier à la main, rapides, c’est-à-dire qui minimisent le nombre d’opérations élémentaires, performants, c’est-à-dire qui fournissent la solution le plus souvent possible et avec un degré de précision acceptable, a occupé des générations de mathématiciens, et ce dès les origines des mathématiques.

    Au début du 20e siècle, l’algorithme est devenu un objet d’étude en tant que tel et des outils formels ont été progressivement proposés pour tenter de répondre de façon systématique à ces questions fondamentales : Quels problèmes sont susceptibles d’être résolus par le déroulement d’un algorithme ? Peut-on garantir qu’un algorithme appliqué aux données d’un problème se terminera ? Comment comparer l’efficacité des algorithmes entre eux, indépendamment de la machine sur laquelle ils sont exécutés sous la forme de programmes ? Comment s’assurer qu’un algorithme, et par la suite le ou les programmes qui le réalisent, est bien conforme aux objectifs de sa conception ?

    Dans les années 1920 et 1930, des chercheurs tels que Alonso Church et Alan Turing ont apporté des solutions théoriques à ces interrogations, fondant ainsi une discipline scientifique autonome. L’informatique est désormais l’objet de recherches et d’enseignements spécifiques, au sein d’organismes tels qu’en France l’Inria et le CNRS, et des universités. Les résultats de ces recherches contribuent directement aux évolutions technologiques, qui à leur tour posent de nouvelles questions et motivent de nouvelles recherches.

    L’informatique, qu’on en considère la facette technologique, désormais omniprésente, ou la facette théorique, plus discrète, serait donc presque centenaire plutôt qu’adolescente. Et quelle lignée !

    Newsletter

    Le responsable de ce traitement est Inria. En saisissant votre adresse mail, vous consentez à recevoir chaque mois une sélection d'articles et à ce que vos données soient collectées et stockées comme décrit dans notre politique de confidentialité

    Niveau de lecture

    Aidez-nous à évaluer le niveau de lecture de ce document.

    Si vous souhaitez expliquer votre choix, vous pouvez ajouter un commentaire (Il ne sera pas publié).

    Votre choix a été pris en compte. Merci d'avoir estimé le niveau de ce document !

    François Rechenmann

    Directeur de recherche Inria, spécialiste de bio-informatique.

    Voir le profil

    Découvrez le(s) dossier(s) associé(s) à cet article :

    DossierCulture & Société

    Les idées reçues de l’informatique

    Ces articles peuvent vous intéresser

    ArticleHistoire du numérique

    En toute logique : une origine de l’ordinateur

    Frédéric Prost

    Niveau intermédiaire
    Niveau 2 : Intermédiaire
    ArticleHistoire du numérique
    Architecture & Systèmes

    L’ordinateur, objet du siècle

    François Rechenmann

    Niveau intermédiaire
    Niveau 2 : Intermédiaire