Suivant

  L'informatique

 
 
L'informatique est une science récente comme l'atteste sa définition dans le petit Robert:
Informatique: (1962) Science du traitement de l'information; ensemble des techniques de collecte, du tri, de la mise en mémoire, du stockage, de la transmission et de l'utilisation des informations traitées automatiquement à l'aide de programmes (Û logiciel) mis en oeuvre sur ordinateurs.
L'informatique est une science (avec des théorèmes, des lois de la nature) avec des chercheurs, des ingénieurs-concepteurs, des utilisateurs. Ces différentes catégories ne sont pas à confondre car il est tout aussi douteux qu'un professeur de mécanique puisse dépanner votre voiture, qu'un mathématicien vous explique pourquoi les hélicoptères volent ou qu'un chercheur en informatique puisse vous vous dire pourquoi Doom ne marche pas sur la carte graphique de votre ordinateur personnel!
 
L'informatique est à la fois objet et sujet. C'est un statut assez particulier parmi les sciences: la physique étudie la nature et cherche des lois l'expliquant, les mathématiques bâtissent un monde formel à partir d'axiomes, l'informatique a conçu l'ordinateur qui est devenu, avec son logiciel, un objet tellement complexe qu'on peut l'étudier comme un artefact externe. À ce niveau de complexité, savoir comment l'on a construit à partir d'or, de cuivre et de silicium, un ordinateur ne renseigne aucunement sur ce qu'il est capable de faire. Il faut donc l'observer comme un étrange animal dont on tente de percer les lois qui le meuvent. L'informatique construit donc l'objet de sa propre recherche et s'en sert pour sa propre discours.
 
L'ordinateur est un amplificateur de raisonnement. Bâti pour faire des calculs plutôt numériques, très vite (dès les années soixante) on a commencé à l'utiliser pour mener des raisonnements c'est-à-dire des chaînes de déduction ou de réécriture de terme en terme. Ces raisonnements présupposent un système formel où sont exprimés des propriétés (décrivant des recettes de cuisine, des fiches tricots, des chorégraphies, etc.) à partir desquelles on dérive d'autres propriétés.
 
L'énorme effort de formalisation dans ces domaines a permis d'encoder des connaissances qui de pragmatiques (c'est-à-dire hébergées dans des cerveaux) ont été rendues explicites sous la forme de recettes, de formules, d'équations qui peuvent donc être numérisées, échangées, évaluées à distance, monnayées, enrichies, glosées, etc. L'âge de l'information a commencé et le temps n'est pas loin où, juché sur notre épaule, un perroquet-ordinateur (pardon, un assistant de poche) mémorisera tout ce que nous faisons de notre naissance à notre trépas (tant que nous n'aurons pas réussi à nous immortaliser).
 
Les ordinateurs sont des manipulateurs de structures abstraites. Un document est une structure composée de titres, paragraphes, mots, lettres, etc. Une feuille de calcul est une structure composée de cellules, de formules, de macros, etc. Les opérations que l'on peut faire subir à ces structures sont multiples (justifier un paragraphe, calculer une feuille de calcul) et conduisent à de nouvelles structures qui peuvent posséder de nouvelles propriétés les rendant ainsi plus riches en possibilités.
 
Au début n'existaient que de rudimentaires programmes avec lesquels ont été construits des programmes plus ambitieux et notamment le premier compilateur Fortran en 1956, puis le premier interprète de Lisp (l'ancêtre direct de Scheme) en 1958. Ces premiers langages de haut niveau (toujours en activité) ont permis de concevoir de nouveaux langages et systèmes qui, finalement, maintenant ont conduit à des programmes d'une complexité inégalée (système d'exploitation, Internet, réalité augmentée, etc.)
 
Bien qu'issus de théories, les ordinateurs sont soumis à des lois les limitant. Certains choses ne peuvent être calculées, d'autres le peuvent théoriquement mais pas pratiquement (imaginez seulement un décryptage de quelques milliards d'années). Certains calculs sont possibles mais le temps de calcul ne saurait être inférieur à certaines bornes (tri séquentiel de n éléments en au moins n log(n) en moyenne).
 
Les machines sont matériellement faillibles (panne de courant) et pourtant les calculs qu'elles mènent sont théoriquement infaillibles même si c'est pour écrire sans erreur que « 2+2=5 »!
 
Quel calcul sait mener un humain que ne saurait mener un ordinateur ? Si aucun calcul ne semble avoir cette propriété alors on ne sait pas distinguer, sur ce plan, un humain d'un ordinateur: ils sont donc nos égaux (et en plus ils sont assez doués sur le plan de la rapidité du raisonnement comme l'a montré Deep Blue devant Kasparov lors du championnat d'échecs le 11 mai 1997).

 

Suivant