34
Les grands noms de l'histoire de l'informatique Pourquoi faire remonter les origines de l'informatique aussi loin que l'Antiquité grecque? C'est qu'Aristote est le père de la logique. Il est vrai que cette science a sérieusement évolué à partir du milieu du XIXème siècle, sous l'impulsion de Boole. Mais jusqu'au XIXème, c'est la logique d'Aristote qui prévaut. Et la logique est au fondement même de l'informatique. En effet, l'informatique est la science du traitement de l'information. Pour que des données puissent être traitées et transmises par des machines qui n'en comprennent pas le sens, il faut leur donner une forme rigoureuse ARISTOTE Emmanuel Kant dira que "la logique est sortie tout armée de la tête Aristote semble montrer

Les grands noms de l'informatique

Embed Size (px)

Citation preview

Page 1: Les grands noms de l'informatique

Les grands noms de l'histoire de l'informatique

Pourquoi faire remonter les origines de l'informatique aussi loin que l'Antiquité grecque? C'est qu'Aristote est le père de la logique. Il est vrai que cette science a sérieusement évolué à partir du milieu du XIXème siècle, sous l'impulsion de Boole. Mais jusqu'au XIXème, c'est la logique d'Aristote qui prévaut. Et la logique est au fondement même de l'informatique.En effet, l'informatique est la science du traitement de l'information. Pour que des données puissent être traitées et transmises par des machines qui n'en comprennent pas le sens, il faut leur donner une forme rigoureuse

ARISTOTEEmmanuel Kant dira que "la logique est sortie tout armée de la tête d'Aristote". C'est un peu exagéré, car la logique connaîtra un bouleversement au XIXème siècle

Aristote semble montrer à Platon le sol de l'expérience concrète.

Page 2: Les grands noms de l'informatique

sous l'impulsion de Boole. Cependant, il est vrai qu'Aristote en a défini les grands principes, qui sont restés inchangés jusqu'à l'époque de Kant (XVIIIème) et même un peu au-delà.La partie de l'œuvre d'Aristote consacrée à la logique est intitulée Organon. En grec, "organon" signifie "outil", parce que la logique est conçue comme un outil pour toutes les autres sciences, comme un moyen de connaissance. L'Organon contient les Premiers analytiques et Seconds analytiques, De l'interprétation.Aristote est connu surtout pour avoir inventé la théorie du syllogisme. "Le syllogisme est un discours dans lequel, certaines choses étant posées, quelque chose d'autre que ces données en résulte nécessairement par le seul fait de ces données" (Premiers analytiques, I, 1).Les sciences de la documentation doivent reconnaître leur dette envers Aristote. La notion de concept, qui regroupe les caractères communs à plusieurs individus, permet de les ranger dans une même classe. Le philosophe distingue des classes dont le degré de généralité est croissant (espèces, genres) et qui permettent un classement ordonné, notamment des êtres vivants.

Lien externe: la philosophie d'Aristote

PASCAL

Pascal est né à Clermont, en Auvergne, en 1623. C'est un mathématicien, il a étudié les probabilités, il fonde la théorie des jeux. Il a mis au point vers 1641 une calculatrice mécanique (la

Page 3: Les grands noms de l'informatique

"pascaline"), capable d'effectuer des additions et soustractions à l'aide de roues dentées en bois et d'afficheurs à rouleaux. Le premier rouleau, ou cylindre, ayant achevé un tour complet, un ingénieux système entraîne le rouleau suivant pour le faire tourner d'un cran. C'est presque la première, après celle de l'Allemand Schickard, en 1623. Plusieurs exemplaires en sont conservés, dont un au musée du Ranquet, à Clermont, un autre au Conservatoire des arts et métiers. Pascal l'a conçue dans le but d'épargner à son père, qui travaillait pour les impôts, des calculs fastidieux. Pascal décrit le fonctionnement de sa machine dans la Lettre dédicatoire à Monseigneur le Chancelier qui porte pour sous-titre: "Sur le sujet de la Machine nouvellement inventée par le ssieur B.P. pour faire toutes sortes d'opérations d'Arithmétique, par un mouvement réglé, sans plume ni jetons".

DESCARTES

1596-1650. C'est l'un des fondateurs de la science et de la pensée modernes. Mathématicien et physicien. Son œuvre philosophique a pour rôle de justifier la révolution qui s'accomplit à son époque dans les

Portrait de Descartes par Hals

Page 4: Les grands noms de l'informatique

sciences. La grande nouveauté est l'idée de fonder la science sur les mathématiques plutôt que sur la logique.En 1637, il publie le Discours de la méthode pour bien conduire sa raison. La raison est la chose du monde la mieux distribuée, dit Descartes. Encore faut-il savoir s'en servir. Descartes est le créateur de la géométrie analytique: il a l'idée de représenter courbes et figures géométriques par des expressions algébriques.

LEIBNIZNé en 1646 à Leipzig, mort en 1716. Auteur allemand. Esprit encyclopédique, il est philosophe, mathématicien, physicien, diplomate. Il a découvert le calcul infinitésimal peu de temps après Newton. Il étudie les lois du choc et corrige celles de Descartes. Il met au point une machine à calculer mécanique plus perfectionnée que celle de Blaise Pascal, puisqu'elle réalise aussi, en plus des additions et soustractions, les divisions et multiplications. On considère sa dissertation De arte combinatoria, de 1660, comme une préfiguration des langages informatiques. Il y étudie en

Page 5: Les grands noms de l'informatique

effet la possibilité de créer une langue parfaitement objective, qui éliminerait toutes les sources d'ambiguïtés des langues parlées. Leibniz nomme cette langue "caractéristique universelle". Il en donne un aperçu dans sa correspondance, notamment dans sa Lettre à Jean Berthet de 1677, et dans une lettre à Jean Frédéric de 1679. Descartes en avait imaginé le projet, mais pensait qu'il était impossible de le réaliser tant que notre science est bornée (Lettre à Mersenne). Leibniz, d'accord sur l'idée que le développement de cette langue suppose une connaissance parfaite, considère que l'on peut cependant d'ores et déjà la concevoir, en imaginer une syntaxe possible. Il a ainsi posé les bases de ce qu'on appellera la logique symbolique à partir du XIXème siècle. Il est le premier à avoir l'idée d'utiliser le système binaire (Explication de l'arithmétique binaire, 1703). Bien avant la naissance de la théorie de l'information ("in-formatio"=donner une forme), il souligne la nécessité de distinguer la forme du sens et de formaliser les raisonnements.

La caractéristique universelle

Le mot caractéristique vient de caractère. Ce serait un ensemble de caractères, de symboles, c'est-à-dire une langue. Elle pourrait être universelle, c'est-à-dire comprise par tous, tandis que les langues naturelles sont toutes particulières, propres à un peuple, et relatives. Le projet de Leibniz est de remédier aux imperfections des langues naturelles en créant une langue parfaite. Elle serait constituée uniquement de termes définis de façon univoque et précise, sans ambiguïté - c'est le projet des thésaurus. Elle permettrait d'éviter l'erreur, car toute méprise y serait aussi visible que dans un raisonnement mathématique incohérent. Il suffirait, par exemple pour résoudre une question de philosophie, de se livrer à un calcul, de compter. En cas de dispute, dit Leibniz, il suffirait pour se mettre d'accord de compter. Elle serait parfaite, enfin, en ce qu'elle serait la copie fidèle de la réalité, dont elle reproduirait la structure. "La langue la plus parfaite consisterait à user de mots qui seraient tous semblables aux objets" (Platon, Cratyle, XLI). Elle serait la réplique de l'univers, l'image exacte de la réalité. Sa syntaxe reproduirait à l'identique la structure du monde - à la façon de la bibliothèque

Page 6: Les grands noms de l'informatique

de Babel, imaginée par J.L. Borgès.Il propose, entre autres essais, de remplacer les notions par des nombres. Chaque concept sera remplacé par un couple de nombres, l'un positif et l'autre négatif. Pour savoir, par exemple, si une proposition affirmative universelle, qui relie deux notions entre elles (A est B) est vraie, la règle sera d'examiner si chaque nombre est divisible, avec un résultat entier, par l'autre nombre de même signe.

Exemple: on symbolise "sage" par +70 ; -33Et "heureux" par +10 ; -3.

On voit, à la suite d'un calcul très simple, que la proposition "tout sage est heureux" est vraie. En revanche, si "riche" est traduit par +5 et -14, la proposition "tout sage est riche" est fausse.

Pour une universelle négative, les deux nombres de signes opposés doivent avoir un diviseur commun. Si l'on possédait le dictionnaire complet établissant la correspondance correcte entre chaque notion et les couples de nombres qui doivent lui correspondre, la philosophie serait facile: tout problème pourrait être résolu par le calcul. Mais, tant que nous ne possédons pas ce dictionnaire, cette langue ne sert à rien. Or, la mise au point de ce lexique suppose une connaissance universelle. Pour établir comme il convient toutes les relations entre les termes, il faut déjà connaître les relations entre les choses réelles. Par conséquent, cette langue ne permet pas de connaître, mais suppose au contraire que l'on a déjà acquis une parfaite connaissance de toute chose. Elle n'est pas euristique, elle ne permet pas de faire de découvertes. Pour créer une langue parfaite, comme celle évoquée par Platon, qui serait le reflet de la réalité, si bien que tous les noms ressembleraient aux choses qu'ils désignent, il faudrait d'abord tout savoir. Platon lui-même en fait la remarque: si les noms sont des images, ou des imitations des choses, alors, pour bien nommer les choses, il faut premièrement les connaître. Pour connaître le nom, il faut connaître la chose.

Une telle langue ne permet aucune découverte, mais présuppose un savoir absolu. Leibniz en a bien conscience, et ne prétend pas que sa caractéristique soit utilisable dès à présent. Il s'agissait de faire un essai, afin de savoir si une telle langue est pensable. On doit reconnaître qu'elle constitue une première ébauche de ce que seront plus tard les langages informatiques. Leibniz est d'ailleurs reconnu comme le premier à avoir eu l'idée d'utiliser le système binaire. De même, l'écriture de la logique est formalisée afin d'éviter les ambiguïtés propres aux langues que nous parlons. Mais, comme cela a souvent été souligné, surtout par les fondateurs de la science moderne, la logique est stérile (quoiqu'elle ait trouvé un domaine d'application dans l'informatique).

Textes

Leibniz défend Euclide: celui-ci, dans ses Eléments, devait bien admettre des axiomes, c'est-à-dire des propositions non démontrées.

Page 7: Les grands noms de l'informatique

Ce que j'estime le plus dans la géométrie par rapport à la contemplation, est de laisser entrevoir la vraie source des vérités éternelles et du moyen de nous en faire comprendre la nécessité, que les idées confuses des images des sens ne sauraient faire voir distinctement. Vous me direz qu'Euclide a été obligé pourtant de se borner à certains axiomes dont on ne voit l'évidence que confusément par le moyen des images. Je vous avoue qu'il s'est borné à ces axiomes; mais il valait mieux se borner à un petit nombre de vérités de cette nature, qui lui paraissaient les plus simples, et en déduire les autres, qu'un autre moins exact aurait prises aussi pour certaines sans démonstration, que d'en laisser beaucoup d'indémontrées et, qui pis est, de laisser la liberté aux gens d'étendre leur relâchement suivant leur humeur. Vous voyez donc, monsieur, que ce que vous avez dit avec vos amis sur la liaison des idées, comme la vraie source des vérités, a besoin d'explication. Si vous voulez vous contenter de voir confusément cette liaison, vous affaiblissez l'exactitude des démonstrations; et Euclide a mieux fait, sans comparaison, de tout réduire aux définitions et à un petit nombre d'axiomes. Que si vous voulez que cette liaison des idées se voie et s'exprime distinctement, vous serez obligé de recourir aux définitions et aux axiomes identiques, comme je le demande; et quelquefois vous serez obligé de vous contenter de quelques axiomes moins primitifs, comme Euclide et Archimède ont fait, lorsque vous aurez de la peine à parvenir à une parfaite analyse; et vous ferez mieux en cela que de négliger ou différer quelques belles découvertes que vous pouvez déjà trouver par leur moyen: comme, en effet, je vous ai déjà dit une autre fois, monsieur, que je crois que nous n'aurions point de géométrie (j'entends une science démonstrative) si les anciens n'avaient point voulu avancer avant que d'avoir démontré les axiomes qu'ils ont été obligés d'employer.

Nouveaux essais sur l'entendement humain, IV

Cependant, il faut essayer de tout démontrer, même les axiomes les plus évidents, car toute vérité mathématique, selon Leibniz, est démontrable.

Ce n'est pas une vérité tout à fait immédiate que deux et deux font quatre; supposé que quatre signifie trois et un. On peut donc la démontrer et voici comment:Définitions:1) Deux est un et un;2) Trois est deux et un;3) Quatre est trois et unAxiome: Mettant des choses égales à la place, l'égalité demeure.Démonstration:2 et 2 est 2 et 1 et 1 ( par la définition 1);2 et 1 et 1 est 3 et 1 (par la définition 2);3 et 1 est 4 (par la définition 3);Donc (par l'axiome) 2 et 2 est 4. Ce qu'il fallait démontrer.

Leibniz, Nouveaux essais sur l'entendement humain

Leibniz met en question le critère cartésien de l'évidence (clarté et distinction) comme preuve de la vérité. Il souligne les lumières que la logique peut apporter pour découvrir si un raisonnement est concluant. La logique formelle peut faire progresser la connaissance.

Page 8: Les grands noms de l'informatique

De ce qui précède, on peut enfin comprendre, je pense, que l'on n'est pas toujours attiré sans risque par les idées, et que l'on abuse souvent de cette étiquette spécieuse afin de faire prendre corps à certaines imaginations personnelles; pour avoir, du même coup, l'idée d'une chose, il ne suffit pas de sa pensée consciente: je viens de le montrer par l'exemple de la plus grande vitesse. Et je trouve que nos contemporains n'abusent pas moins en brandissant ce fameux principe: tout ce que je conçois clairement et distinctement sur quoi que ce soit est vrai, et peut en être dit . Souvent, en effet, apparaissent claires et distinctes aux hommes de jugement téméraire des choses qui sont obscures et confuses. L'axiome est donc inutile si l'on ne fournit pas les critères du clair et du distinct, que nous avons, nous, apportés, et si l'on n'a pas établi ce qu'est la vérité des idées. Au demeurant, les règles de la Logique commune ne sont pas à mépriser comme critères de la vérité des propositions; les géomètres même en usent, de façon à ne rien admettre pour certain sans la preuve apportée par une minutieuse expérience ou une solide démonstration; or, est solide la démonstration qui observe la forme prescrite par la logique; non qu'il soit toujours besoin d'aligner des syllogismes à la mode des écoles (...); mais il faut au moins que l'argumentation conclue au nom d'une forme; et par là on entend qu'un calcul serait aussi un exemple légitime d'une telle argumentation en forme bien conçue. C'est pourquoi on ne doit pas omettre quelque prémisse nécessaire, et toutes les prémisses doivent être déjà auparavant, ou démontrées, ou, du moins, posées comme hypothèses, auquel cas la conclusion aussi est hypothétique.

Leibniz, Méditations sur la connaissance, la vérité et les idées

D'autres textes de Leibniz sur Cours de philosophie

Charles BabbageNé en 1791, mort en 1871. De 1820 à 1833, Babbage imagine sa machine à calculer ("machine à différences"), qu'il ne parviendra pas à réaliser, pour des raisons techniques. C'est la technologie de l'époque la rend irréalisable. Construite en bois, les frottements y sont trop importants. Mais il fait le lien entre les métiers à tisser à carte, inventés par Falcon au XVIIIe et les machines à calculer. Sa machine est l'ancêtre des calculateurs électro-mécaniques. Pour Brian Randell (Histoire générale des techniques, tome V, PUF), c'est un calculateur universel: "Il apparaît que la totalité des conditions qui permet à une machine finie d'effectuer des calculs d'étendue illimitée, sont remplies dans la machine analytique" (Babbage).

Sa compagne, Augusta Adélaïde Lovelace, fille de Lord Byron, qui avait créé un programme pour la machine à différences, est considérée à ce titre comme l'inventeur du premier programme informatique.

G. BOOLE

Page 9: Les grands noms de l'informatique

George Boole (1815-1864). En 1854, il écrit les Lois de la pensée, où il montre que toute pensée peut être codée en un système à 2 états (vrai/faux). Il est le fondateur de la logique formelle, ou logique symbolique, ou encore logique moderne: il entreprend de remplacer les mots de liaison de la langue naturelle par des opérateurs ou connecteurs, sur le modèle des opérateurs arithmétiques. Il met ainsi en usage les opérateurs logiques que l'on utilise aujourd'hui dans les moteurs de recherche et les langages informatiques. L'algèbre de Boole repose sur trois opérateurs: conjonction (et), disjonction (ou) et négation.

Bertrand RUSSELLLogicien, mathématicien et philosophe anglais, 1872-1970. Il fait partie des fondateurs de la logique contemporaine. Il participe au débat sur le fondement des mathématiques. Il reprend l'idée de Leibniz selon laquelle les mathématiques peuvent être réduites à la logique (texte ci-dessous). Selon lui, toutes les propositions mathématiques doivent pouvoir être démontrées.

Il a écrit:les Principia mathematica, publiés en collaboration avec Whitehead en 1910.Un exposé critique de la philosophie de Leibniz, 1900Travaux récents sur les principes des mathématiques, 1901Principles of mathematics, 1903Connaissance par accointance et connaissance par description, 1910

Sur Internet:WikipediaAgora

Page 10: Les grands noms de l'informatique

Problèmes de philosophie, 1912Notre connaissance du monde extérieur, 1914Sur la nature de l'accointance, 1914Philosophie de l'atomisme logique, 1918Introduction à la philosophie mathématique, 1918De la dénotationScience et religion (1935)

Le texte qui suit exprime le logicisme de Russell: il n'y a pas de différence essentielle entre logique et mathématique.

Au cours de l'histoire, les mathématiques et la logique ont eu longtemps des destins séparés. Les mathématiques étaient liées à la science, la logique à la culture grecque. Mais elles se sont profondément modifiées à notre époque: la logique est devenue de plus en plus mathématique, les mathématiques de plus en plus soucieuses de logique. Le résultat de cette évolution est qu'il est devenu impossible de tracer une nette ligne de démarcation entre les deux; elles sont devenues une seule et même discipline. Elles diffèrent comme l'enfant et l'homme fait: la logique est la jeunesse des mathématiques, les mathématiques de la logique à l'âge adulte. D'où le ressentiment des logiciens qui, après avoir consacré tout leur temps à l'étude des textes classiques, sont incapables de suivre un raisonnement sous forme symbolique; d'où aussi celui des mathématiciens, qui ont appris une technique sans jamais s'inquiéter de son sens ni de sa justification. Heureusement ces deux types humains sont de plus en plus rares. La recherche moderne en mathématiques touche si nettement aux frontières de la logique, et la logique moderne de son côté est devenue si symbolique et si formelle, que l'étroite relation entre logique et mathématique est devenue manifeste aux yeux de n'importe quel étudiant un peu instruit. Bien sûr la preuve de leur identité s'effectue en détail: à partir de prémisses dont tout le monde accordera qu'elles sont de nature logique, les résultats obtenus au cours des déductions appartiennent manifestement aux mathématiques: et l'on s'aperçoit que, nulle part dans ce procès, on ne pourrait tracer une ligne nette avec la logique d'un côté et les mathématiques de l'autre.

B.Russell, Introduction à la philosophie mathématique

Vannevar BUSH1890-1974. Ingénieur américain. Connu pour avoir décrit, dans un article intitulé "As we may think" et publié en 1945 dans l'Atlantic Monthly, le principe de l'hypertexte ("un réseau de pistes fonctionnant par association"), qui deviendra la base de la navigation sur le web.

Traduction française de l'article

Page 11: Les grands noms de l'informatique

WITTGENSTEINLudwig Wittgenstein est né à Vienne, en Autriche, en 1889. Il est mort en 1951. L'un des fondateurs de la "nouvelle logique", c'est-à-dire de la logique symbolique, avec Frege et Russell. Il est l'inventeur des tables de vérité qui permettent de définir, de manière rigoureuse et sans équivoque, les opérateurs logiques. Une table de vérité recense, pour chaque opérateur, les conditions où une proposition composée de deux propositions simples unies par ce connecteur est vraie ou fausse.Il a pensé lui aussi que cette logique pourrait être féconde et permettre, en clarifiant les problèmes, un progrès de la connaissance, notamment en philosophie. Son Tractatus logico-philosophicus expose sa philosophie more geometrico, à la manière d'un traité de géométrie, comme un enchaînement de propositions. Le rôle de la philosophie (voir le texte) est d'analyser le langage, afin de dépouiller le discours de tout ce qui peut masquer la vérité, et de le réduire à sa structure formelle.

Bibliographie:Traité logico-philosophique (seul publié de son vivant, achevé en 1918)Recherches philosophiques

4. La pensée est la proposition pourvue de sens (...).4.1. La proposition figure la subsistance ou la non-subsistance des états de choses.4.11.La totalité des propositions vraies est toute la science de la nature (ou la totalité des sciences de la nature).4.111. La philosophie n'est pas une science de la nature.(Le mot "philosophie" doit signifier quelque chose qui est au-dessus ou au-dessous des sciences de la nature, mais pas à leur côté.)4.112.Le but de la philosophie est la clarification logique des pensées.La philosophie n'est pas une théorie mais une activité.Une œuvre philosophique se compose essentiellement d'éclaircissements.Le résultat de la philosophie n'est pas de produire des "propositions philosophiques", mais de rendre claires les propositions.

Page 12: Les grands noms de l'informatique

La philosophie doit rendre claires, et nettement délimitées, les propositions qui autrement sont, pour ainsi dire, troubles et confuses.

Ludwig Wittgenstein, Tractatus logico-philosophicus

Alan TURINGMathématicien et logicien anglais, 1912-1954. Il a participé, pendant la guerre, à la mise au point de la machine Colossus, qui permit de décrypter les messages de l'armée allemande codés par la machine Enigma. En 1936, il publie A propos des nombres calculables. Il pose la question: qu'est-ce qui est démontrable, donc calculable? Il parvient à une conclusion proche de celle du logicien Kurt Gödel. C'est l'occasion pour lui de définir la notion d'algorithme. Sa réponse : ce qui peut être calculé en un temps fini par la «machine de Turing», ordinateur théorique. La machine qu'il décrit préfigure les ordinateurs dont les premiers apparaissent peu après.En 1954, dans Intelligence et ordinateurs, il se demande si les machines auront un jour le pouvoir de penser. Pour éviter de se lancer dans une embarrassante définition de la pensée, il propose un "test": un observateur communique d'une part avec un autre homme, d'autre part avec un ordinateur, séparés de lui, dans une autre pièce. Il ne peut échanger d'informations que par l'intermédaire d'un clavier, sans les voir. L'ordinateur, programmé pour se faire passer pour humain, saura-t-il duper l'observateur? Turing pense que ce sera possible dans les cinquante années.Lors des TechDays 2009, la société Microsoft s'est donné pour objectif (sans préciser de délai) la réussite du test de Turing.

En français:J.Y Girard, La Machine de Turing (Points Science): les deux articles de Turing accompagnés d'un commentaireP. Goutefanga, "Alan Turing et le jeu de l'imitation" (in Cahiers philosophiques n° 102, juin 2005)P. Berloquin, "L'homme est-il une machine de Turing?" (in Sciences et vie, n°620, mai 1969, pp. 82-89).

Page 13: Les grands noms de l'informatique

Définition de la "machine de Turing". Elle opère de façon séquentielle: à chaque instant, elle n'a qu'une information en mémoire. Elle traite les informations de façon successive. C'est bien ainsi que procède un ordinateur, même si sa vitesse d'exécution donne l'impression qu'il exerce plusieurs tâches à la fois.

On peut définir sommairement les nombres "calculables" comme étant les réels dont l'expression décimale est calculable avec des moyens finis (...).Un homme en train de calculer la valeur d'un nombre réel peut être comparé à une machine susceptible de se trouver dans un nombre fini d'états q1, q2, ...qr, que nous appellerons ses m-configurations. La machine est alimenté avec une bande (analogue au papier qu'utilise l'homme), divisée en sections (appelées cases), dans chacune desquelles peut être inscrit un symbole. Dans la case r est inscrit le symbole S(r). A chaque instant, il n'y a qu'une seule case dans la machine: c'est la case inspectée, dans laquelle est inscrit le symbole inspecté, le seul dont la machine soit pour ainsi dire "directement consciente".

A propos des nombres calculables

John VON NEUMANN1903-1957. Mathématicien américain.

Dans un article inachevé publié en juin 1945 (First draw of a report on the EDVAC [Téléchargeable format pdf]), il décrit l'architecture dite de Von Neumann, qui constitue la structure logique de tout ordinateur. Dans la section 2.0 de son article, il énumère et définit les cinq parties indispensables à une machine de traitement automatique de l'information:

Une unité arithmétique centrale (aujourd'hui incorporée au microprocesseur). Une unité de contrôle, destinée à vérifier que les séquences d'opérations sont convenablement

effectuées. Une mémoire, pour stocker les instructions et conserver les résultats intermédiaires des calculs. Des organes d'entrée et de sortie, pour communiquer avec les opérateurs humains. Une mémoire externe.

Il définit ce qu'on appelle une machine automatique: une fois les instructions initiales données, l'appareil va les traiter sans intervention humaine (1.2). Von Neumann imagine déjà des procédés de gestion des erreurs (1.4). Il préconise l'usage de lampes à vide (4.1) en raison de leur temps de réaction très court. La synchronisation des opérations doit de préférence être assurée par une horloge interne (4.1).

Von Neumann s'est intéressé à l'analogie entre la machine et le cerveau. Plusieurs fois dans son article, il compare les lampes à vide, dont il préconise l'usage, aux neurones

Page 14: Les grands noms de l'informatique

(notamment 4.2). Par exemple, les trois premières unités de la machine (unité de calcul, de contrôle et mémoire) sont comparées au système nerveux central, les dispositifs d'entrée et sortie au système nerveux sensoriel et moteur, et le câblage aux axones (2.6).

On pourra noter que Von Neumann considère les neurones, à l'image des lampes à vide, comme fonctionnant selon le principe du tout ou rien: un neurone est soit excité, soit au repos; il conduit l'influx nerveux, ou le bloque (5.1). Cependant, on sait depuis, que les stimuli qui parcourent le cerveau ne sont pas seulement de nature électrique, mais aussi chimique. Des substances neurotransmettrices jouent un rôle considérable dans la transmission de l'information au cœur du système cérébral. Or la modification de la quantité de ces substances n'est pas discrète (binaire), mais elle varie de façon continue. Elle n'est pas susceptible seulement de deux états, mais d'une infinité, de sorte que le schéma électrique, à lui seul, ne peut suffire à décrire le fonctionnement du cerveau.

Cl. SHANNONClaude Shannon est mort en 2001. Son article Une théorie mathématique de la communication, paru en 1948, en fait le père fondateur de la théorie de la communication. L'article sera développé sous forme de livre en 1949, et publié avec Warren Weaver. Malgré le succès des sciences de l'information et de la communication, le livre n'a pas été publié en français depuis les années 70. Il n'est disponible (en anglais) que dans son édition de l'Université de l'Illinois. Il faut dire que, comme le titre l'annonce, il s'agit d'une théorie mathématique. Le propos est très technique. Shannon étudie les moyens d'améliorer le rapport signal/bruit dans les communications. Il a popularisé la notion de "bit" (contraction de "binary digit").Les sciences de l'information ont retenu surtout le schéma que Shannon donne de la communication d'une information. Rien ne garantit pourtant que ce schéma, valable dans le domaine de l'informatique, puisse aussi décrire la communication humaine ou la relation entre l'enseignant et l'élève. En effet, la communication telle qu'il la conçoit consiste dans la transmission d'un message. Elle n'a rien de commun avec la parole, encore moins des techniques de manipulation. C'est pourquoi Shannon a pris ses distances avec les sciences de l'information. Déjà en 1994, Yves-François Le Coadic,

Page 15: Les grands noms de l'informatique

dans le "Que sais-je?" La science de l'information, critique la confusion entre la théorie mathématique de la communication et la communication humaine.

The mathematical theory of communication peut être téléchargée au format pdf.

"Le problème fondamental de la communication est de reproduire en un point soit exactement soit approximativement un message sélectionné à un autre point". (...)"Par système de communication nous désignons un système du type indiqué par le schéma de la figure 1. Il consiste en cinq parties essentiellement".Ces 5 parties:"Une source d'information qui produit un message ou une série de messages à communiquer au terminal récepteur""Un transmetteur qui traite le message de façon à produire un signal susceptible d'être transmis par le canal"."Le canal est simplement le medium utilisé pour transmettre le message de l'émetteur au récepteur"."Le récepteur effectue d'ordinaire l'opération inverse de celle faite par le transmetteur, en reconstruisant le message à partir du signal"."Le destinataire est la personne (ou la chose) à qui le message est adressé".

"Pendant la transmission, ou à l'un des terminaux, le signal peut être perturbé par du bruit".

The Mathematical theory of communication, introduction

Norbert Wiener

Page 16: Les grands noms de l'informatique

1894-1964. Il est l'inventeur de la cybernétique. Ce terme vient d'un mot grec qui désigne le pilote: Wiener pense que les machines doivent aider à gouverner de façon plus rationnelle la société. C'est l'adoption et le succès de la méthode comportementale en psychologie qui rend possible la comparaison entre l'homme et la machine. Depuis le XIXème, les psycholoques behavioristes renoncent à élucider les mystères de l'âme ou à sonder les profondeurs de l'inconscient. Etudié du point de vue de son comportement, l'homme devient comparable à l'animal et à la machine. Le comportement est observable, c'est l'interaction d'un être avec son environnement. La communication, par exemple, est analysée en tant que comportement d'échange d'informations. Ce comportement peut présenter des effets de rétroaction (feed-back): l'agent modifie son comportement en fonction des effets produits sur son environnement. Les cybernéticiens aujourd'hui créent des machines capables de simuler le comportement animal, de tenir compte des obstacles rencontrés dans l'exécution d'une tâche. Pendant la guerre, Wiener avait été chargé d'étudier un système de guidage pour rendre la DCA capable de s'adapter aux réactions des bombardiers.

Il a très tôt conscience du rôle que les machines vont jouer dans nos sociétés. Pour lui, les sociétés humaines obéissent au principe d'entropie (issu de la thermodynamique: tout système clos tend à perdre de l'énergie). Elles tendent au désordre, à la corruption. Or notre culture cherche à ignorer ce phénomène, et ainsi le renforce. Wiener a l'espoir que les machines permettront de mieux et davantage faire circuler l'information, afin d'accroître notre lucidité et de rendre plus efficace notre résistance à l'entropie. Il a été un visionnaire sur bien des points.

Cependant, on pourra se demander si l'usage de

Page 17: Les grands noms de l'informatique

la notion d'entropie est légitime dans le domaine du social. Si ce concept a une valeur en physique, en a-t-il une aussi, nécessairement, en sociologie? N'y a-t-il pas là une sorte de confusion des genres, reposant sur un raisonnement par simple analogie?

Il a publié:Cybernetics or Control and communication in the animal and the machine, 1948Cybernétique et société, 1952.

A lire en ligne:Marie-France Blanquet, Norbert Wiener : père de la cybernétique, science des systèmes, du contrôle et des communications

Tim Berners LEE

Né à Londres en 1955. Ingénieur au CERN, il invente, en 1991, le Web. Il préside aujourd'hui le W3C (World Wide Web Consortium), qui édicte des recommandations pour favoriser l'harmonisation des langages sur Internet.Il continue de promouvoir un web fidèle à ses origines : libre, neutre et ouvert, comme dans l'article paru dans le numéro de décembre 2010 du magazine Scientific American, intitulé "Long live the Web", et traduit en français par l'équipe de Framasoft.>> Longue vie au web.

Page 18: Les grands noms de l'informatique

Steve JOBS

Né en 1955. Fondateur, avec Steve Wozniak,

d'Apple en 1976 et père

du Macintosh, le premier ordinateur

grand public qui

popularise l'usage de la

souris en

Page 19: Les grands noms de l'informatique

1984. Apple dominera le marché de la micro-

informatique jusqu'au début des années 80,

où IBM emportera la compétition. Evincé de la

firme en 1985, Steve Jobs crée alors Next

Computers,

Page 20: Les grands noms de l'informatique

qui commerciali

se des stations de

travail (ordinateurs

à usage professionn

el). Il crée aussi les studios

Pixar, qui ont réalisé

le film d'animation Toy Story,

puis ont été

Page 21: Les grands noms de l'informatique

rachetés par Disney. En

1997, il redevient

Pdg d'Apple.

Malade (une agence a

même publié sa

nécrologie!), il n'a

cependant pas perdu le

sens de l'humour

puisqu'il a

Page 22: Les grands noms de l'informatique

déclaré: « Les

informations

concernant ma mort sont très

exagérées »!

vRichard Matthew Stallman

Américain, né en 1953, considéré comme le fondateur du logiciel libre.Connu aussi sous les initiales RMS. Il fut chercheur au MIT. Il est l'initiateur du projet GNU (Gnu is Not Unix) en 1983. Le projet était de créer un système d'exploitation inspiré d'UNIX. Le système n'a toujours pas vu le jour, mais de nombreux logiciels destinés à l'accompagner ont été développés. Ils constituent les distributions GNU/Linux. Il crée la Free Software Foundation en 1985. En 1989, il présente la licence GPL (General Public License). En 91, il rédige la version 2 de la GPL. La 3ème version est sortie en 2007. Richard Stallman est aussi programmeur, il est par exemple co-auteur de la

Page 23: Les grands noms de l'informatique

commande diff.

"Un logiciel libre c'est un logiciel qui respecte la liberté de l'utilisateur. Il ne s'agit pas de la gratuité. Pensez à la liberté de la parole et pas à la bière gratuite" (R.Stallman, conférence à Paris 12/01/2010).

Liens:

Framasoft vient de publier une biographie sur R. Stallman, co-éditée avec Eyrolles: Richard Stallman et la révolution du logiciel libre. Elle est elle-même libre et gratuite (licence GFDL), mais rien n'interdit de faire un don.

La page personnelle de R.Stallman (en anglais)Site de la FSF (en)Site du projet GNU (fr)

Prises de position:

"Don't use Facebook" (http://stallman.org/)

Au sujet d'Hadopi: "Le partage non commercial des œuvres d'art, d'opinion et de divertissement doit être autorisé" (telerama.fr)

Conférence du 12 janvier 2010 à Parisenvoyé par Groupe_Eyrolles. - Vidéos des dernières découvertes scientifiques.

Durée: 1:14

Richard Matthew Stallman

Page 24: Les grands noms de l'informatique

Américain, né en 1953, considéré comme le fondateur du logiciel libre.Connu aussi sous les initiales RMS. Il fut chercheur au MIT. Il est l'initiateur du projet GNU (Gnu is Not Unix) en 1983. Le projet était de créer un système d'exploitation inspiré d'UNIX. Le système n'a toujours pas vu le jour, mais de nombreux logiciels destinés à l'accompagner ont été développés. Ils constituent les distributions GNU/Linux. Il crée la Free Software Foundation en 1985. En 1989, il présente la licence GPL (General Public License). En 91, il rédige la version 2 de la GPL. La 3ème version est sortie en 2007. Richard Stallman est aussi programmeur, il est par exemple co-auteur de la commande diff.

"Un logiciel libre c'est un logiciel qui respecte la liberté de l'utilisateur. Il ne s'agit pas de la gratuité. Pensez à la liberté de la parole et pas à la bière gratuite" (R.Stallman, conférence à Paris 12/01/2010).

Liens:

Framasoft vient de publier une biographie sur R. Stallman, co-éditée avec Eyrolles: Richard Stallman et la révolution du logiciel libre. Elle est elle-même libre et gratuite (licence GFDL), mais rien n'interdit de faire un don.

La page personnelle de R.Stallman (en anglais)Site de la FSF (en)Site du projet GNU (fr)

Prises de position:

"Don't use Facebook" (http://stallman.org/)

Au sujet d'Hadopi: "Le partage non commercial des œuvres d'art, d'opinion et de divertissement doit être autorisé" (telerama.fr)

Conférence du 12 janvier 2010 à Parisenvoyé par Groupe_Eyrolles. - Vidéos des dernières découvertes scientifiques.

Durée: 1:14

Page 25: Les grands noms de l'informatique