Chronique Informatique
Les début de l'informatique

Comme nous l'avons mentionné dans la section précédente, l'évolution des mathématiques qui devenaient de plus en plus complexes, a vite fait naître le besoin de résoudre les problèmes mathématiques de façon efficace. Le premier avancement à ce niveau, fut la découverte des logarithmes par le mathématicien John Napier en 1614. Par la suite, plusieurs instruments de calculs mécaniques furent inventés grâce à des principes faisant appel aux logarithmes, comme la règle à calcul mise au point en 1615, et qui fut utilisée jusqu'au début des années 1970. La première machine à calculer fut mise au point et fabriquée par le savant et le philosophe Blaise Pascale en 1642. Cette machine permettait de soustraire ou d'additionner des nombres de huit chiffres grâce à un mécanisme à roues dentées. Des machines utilisant ce principe furent utilisées jusque dans les années 1960.

Le principe de l'ordinateur moderne a été mis au point dans les années 1830 par le mathématicien britannique Charles Babbage qui fit le premier modèle de calculateur mathématique universel programmable en imaginant une " machine analytique " capable d'effectuer des calculs sur des valeurs entrées par l'intermédiaire de cartes perforées, idée qu'il s'était inspiré du métier à tisser inventé par le Français Jacquard en 1801. Si cette machine de Babbage ne fut jamais réalisée, car elle aurait nécessité plus de 50 000 pièces mobiles, le principe et la logique de Babbage furent repris dans l'ordinateur grâce à de nouveaux moyens tels que les transistors qui n'existaient pas dans les années 1830. L'élaboration d'un tel système logique qui aurait permis à cette machine de faire des calculs logarithmiques et trigonométriques, fait qu'aujourd'hui Babbage est considéré par plusieurs comme le pionnier de l'informatique moderne.

Les premières machines à calculer universelles obéissant à un programme dans une mémoire comme l'avait imaginé Babbage apparurent dans les années 1940. Ces machines fonctionnaient avec des " lampes ", qui sont en fait des tubes à vide, mais elles étaient volumineuses et peu efficaces. Le premier calculateur entièrement électronique fut l'ENIAC qui pesait plus de 30 tonnes et qui comprenait plus de 18 000 tubes occupant une salle entière. Mais à cette époque la durée de vie de ces tubes était si courte qu'il était quasi impossible de faire fonctionner plus de 10 minutes d'affilée l'ENIAC sans qu'un des tubes surchauffe et ne devienne défectueux. De plus, on devait refroidir tout l'ensemble à l'eau pour éviter toute surchauffe.

C'est l'invention des transistors, beaucoup plus efficaces, compactes et fiables que les " lampes " qui permit de réaliser des calculateurs beaucoup plus puissants et performants. Ensuite on a mis au point les circuits intégrés qui pouvaient maintenant tenir sur une petite plaque de silicium. Cette puce de silicium permit d'inventer des machines dotées de capacités phénoménales de calcul et de mémoire. Par la suite, l'évolution de l'ordinateur continua à un rythme phénoménal. Il devenait de plus en plus simple à utiliser, en laissant tomber tous ces codes complexes et ces cartes perforées réservées aux spécialistes, pour son clavier, son écran et plus tard sa souris, le rendant accessible à tous.

Cette fameuse machine, qui devait seulement servir à calculer, a beaucoup évoluée pour réussir aujourd'hui, à accomplir de nombreuses tâches qui s'éloignent de son rôle originel. Jamais les pionniers de l'informatique n'avaient pensé, ni rêvé aux nombreuses applications dont, l'ordinateur est capable aujourd'hui.

Liens d'Interêt
 

À propos|Carte du site|Commentaires|Contacts|Crédits|Publicités|Webmestre
©2001 RestigoucheNet - Tout droit réservé
info@restigouche.net