L'informatique est une science récente comme l'atteste sa définition
dans le petit Robert:
Informatique: (1962) Science du traitement de l'information; ensemble
des techniques de collecte, du tri, de la mise en mémoire, du
stockage, de la transmission et de l'utilisation des informations
traitées automatiquement à l'aide de programmes (Û
logiciel) mis en oeuvre sur ordinateurs.
L'informatique est une science (avec des théorèmes, des lois de la
nature) avec des chercheurs, des ingénieurs-concepteurs, des
utilisateurs. Ces différentes catégories ne sont pas à confondre car
il est tout aussi douteux qu'un professeur de mécanique puisse
dépanner votre voiture, qu'un mathématicien vous explique pourquoi
les hélicoptères volent ou qu'un chercheur en informatique puisse vous
vous dire pourquoi Doom ne marche pas sur la carte graphique de votre
ordinateur personnel!
L'informatique est à la fois objet et sujet. C'est un statut assez
particulier parmi les sciences: la physique étudie la nature et
cherche des lois l'expliquant, les mathématiques bâtissent un monde
formel à partir d'axiomes, l'informatique a conçu l'ordinateur qui est
devenu, avec son logiciel, un objet tellement complexe qu'on peut
l'étudier comme un artefact externe. À ce niveau de complexité, savoir
comment l'on a construit à partir d'or, de cuivre et de silicium, un
ordinateur ne renseigne aucunement sur ce qu'il est capable de faire.
Il faut donc l'observer comme un étrange animal dont on tente de
percer les lois qui le meuvent. L'informatique construit donc l'objet
de sa propre recherche et s'en sert pour sa propre discours.
L'ordinateur est un amplificateur de raisonnement. Bâti pour faire des
calculs plutôt numériques, très vite (dès les années soixante) on a
commencé à l'utiliser pour mener des raisonnements c'est-à-dire des
chaînes de déduction ou de réécriture de terme en terme. Ces
raisonnements présupposent un système formel où sont exprimés des
propriétés (décrivant des recettes de cuisine, des fiches tricots, des
chorégraphies, etc.) à partir desquelles on dérive d'autres
propriétés.
L'énorme effort de formalisation dans ces domaines a permis d'encoder
des connaissances qui de pragmatiques (c'est-à-dire hébergées dans des
cerveaux) ont été rendues explicites sous la forme de recettes, de
formules, d'équations qui peuvent donc être numérisées, échangées,
évaluées à distance, monnayées, enrichies, glosées, etc. L'âge de
l'information a commencé et le temps n'est pas loin où, juché sur
notre épaule, un perroquet-ordinateur (pardon, un assistant de poche)
mémorisera tout ce que nous faisons de notre naissance à notre trépas
(tant que nous n'aurons pas réussi à nous immortaliser).
Les ordinateurs sont des manipulateurs de structures abstraites. Un
document est une structure composée de titres, paragraphes, mots,
lettres, etc. Une feuille de calcul est une structure composée de
cellules, de formules, de macros, etc. Les opérations que l'on peut
faire subir à ces structures sont multiples (justifier un paragraphe,
calculer une feuille de calcul) et conduisent à de nouvelles
structures qui peuvent posséder de nouvelles propriétés les rendant
ainsi plus riches en possibilités.
Au début n'existaient que de rudimentaires programmes avec lesquels
ont été construits des programmes plus ambitieux et notamment le
premier compilateur Fortran en 1956, puis le premier interprète de
Lisp (l'ancêtre direct de Scheme) en 1958. Ces premiers langages de
haut niveau (toujours en activité) ont permis de concevoir de nouveaux
langages et systèmes qui, finalement, maintenant ont conduit à des
programmes d'une complexité inégalée (système d'exploitation,
Internet, réalité augmentée, etc.)
Bien qu'issus de théories, les ordinateurs sont soumis à des lois les
limitant. Certains choses ne peuvent être calculées, d'autres le
peuvent théoriquement mais pas pratiquement (imaginez seulement un
décryptage de quelques milliards d'années). Certains calculs sont
possibles mais le temps de calcul ne saurait être inférieur à
certaines bornes (tri séquentiel de
n éléments en au moins
n
log(
n) en moyenne).
Les machines sont matériellement faillibles (panne de courant) et
pourtant les calculs qu'elles mènent sont théoriquement infaillibles
même si c'est pour écrire sans erreur que « 2+2=5 »!
Quel calcul sait mener un humain que ne saurait mener un ordinateur ?
Si aucun calcul ne semble avoir cette propriété alors on ne sait pas
distinguer, sur ce plan, un humain d'un ordinateur: ils sont donc nos
égaux (et en plus ils sont assez doués sur le plan de la rapidité du
raisonnement comme l'a montré Deep Blue devant Kasparov lors du
championnat d'échecs
le 11 mai
1997).