Avant l'ère de l'électronique, la chose la plus proche d'un ordinateur était l'abaque, bien que, à proprement parler, l'abaque soit en fait une calculatrice car il nécessite un opérateur humain. Les ordinateurs, d'autre part, effectuent des calculs automatiquement en suivant une série de commandes intégrées appelées logiciels.
Dans le 20e siècle, les percées technologiques ont permis aux machines informatiques en constante évolution dont nous dépendons maintenant si totalement que nous ne leur prêtons pratiquement jamais attention. Mais même avant l'avènement des microprocesseurs et supercalculateurs, il y avait certains scientifiques et inventeurs notables qui ont aidé à jeter les bases de la technologie qui a depuis radicalement remodelé toutes les facettes de la vie moderne.
La langue avant le matériel
Le langage universel dans lequel les ordinateurs exécutent les instructions du processeur est né au XVIIe siècle sous la forme du système numérique binaire. Développé par un philosophe et mathématicien allemand
Gottfried Wilhelm Leibniz, le système est apparu comme un moyen de représenter les nombres décimaux en utilisant seulement deux chiffres: le chiffre zéro et le chiffre un. Le système de Leibniz s’inspire en partie des explications philosophiques du texte chinois classique «I Ching », qui expliquait l'univers en termes de dualités telles que la lumière et l'obscurité et les femelle. Bien que son système récemment codifié n'ait pas été utilisé à l'époque, Leibniz pensait qu'il était possible qu'une machine utilise un jour ces longues chaînes de nombres binaires.En 1847, le mathématicien anglais George Boole a présenté un nouveau langue algébrique construit sur le travail de Leibniz. Son «Algèbre booléenne» était en fait un système de logique, avec des équations mathématiques utilisées pour représenter des déclarations en logique. Il était tout aussi important d'utiliser une approche binaire dans laquelle la relation entre les différentes quantités mathématiques serait vraie ou fausse, 0 ou 1.
Comme pour Leibniz, il n'y avait pas d'application évidente pour l'algèbre de Boole à l'époque, cependant, le mathématicien Charles Sanders Pierce a passé des décennies à étendre le système et, en 1886, a déterminé que les calculs pouvaient être effectués avec une commutation électrique circuits. En conséquence, la logique booléenne deviendrait éventuellement instrumentale dans la conception des ordinateurs électroniques.
Les premiers processeurs
Mathématicien anglais Charles Babbage est crédité d'avoir assemblé les premiers ordinateurs mécaniques - au moins techniquement parlant. Ses machines du début du XIXe siècle comportaient un moyen d'entrer des nombres, de la mémoire et un processeur, ainsi qu'un moyen de produire les résultats. Babbage a appelé sa tentative initiale de construire la première machine informatique du monde le «moteur de différence». La conception exigeait une machine qui calculait les valeurs et imprimait automatiquement les résultats sur un table. Il devait être lancé à la main et aurait pesé quatre tonnes. Mais le bébé de Babbage était une entreprise coûteuse. Plus de 17 000 livres sterling ont été dépensées pour le développement initial du moteur de différence. Le projet a finalement été abandonné après que le gouvernement britannique eut coupé le financement de Babbage en 1842.
Cela a forcé Babbage pour passer à une autre idée, un "moteur analytique", qui avait une portée plus ambitieuse que son prédécesseur et devait être utilisé pour l'informatique à usage général plutôt que simplement pour l'arithmétique. Bien qu'il n'ait jamais été en mesure de suivre et de construire un appareil fonctionnel, la conception de Babbage comportait essentiellement la même structure logique que les ordinateurs électroniques qui entreraient en service au 20e siècle. Le moteur analytique avait une mémoire intégrée - une forme de stockage d'informations présente dans tous les ordinateurs - qui permet la ramification, ou la possibilité pour un ordinateur de exécuter un ensemble d'instructions qui s'écartent de l'ordre de séquence par défaut, ainsi que des boucles, qui sont des séquences d'instructions exécutées de manière répétée dans Succession.
Malgré ses échecs à produire une machine informatique entièrement fonctionnelle, Babbage est resté fermement découragé dans la poursuite de ses idées. Entre 1847 et 1849, il a élaboré des conceptions pour une deuxième version nouvelle et améliorée de son moteur de différence. Cette fois, il a calculé des nombres décimaux jusqu'à 30 chiffres, effectué des calculs plus rapidement et a été simplifié pour nécessiter moins de pièces. Pourtant, le gouvernement britannique n'a pas estimé que cela valait la peine d'être investi. En fin de compte, le plus grand progrès jamais réalisé par Babbage sur un prototype a été de terminer un septième de sa première conception.
Au cours de cette première ère de l'informatique, il y a eu quelques réalisations notables: machine de prédiction des marées, inventé par le mathématicien, physicien et ingénieur écossais-irlandais Sir William Thomson en 1872, était considéré comme le premier ordinateur analogique moderne. Quatre ans plus tard, son frère aîné, James Thomson, a mis au point un concept d'ordinateur qui résout des problèmes mathématiques appelés équations différentielles. Il a qualifié son appareil de «machine d'intégration» et, au cours des années suivantes, il servirait de base à des systèmes appelés analyseurs différentiels. En 1927, le scientifique américain Vannevar Bush a commencé le développement de la première machine à être nommée comme telle et a publié une description de sa nouvelle invention dans une revue scientifique en 1931.
L'aube des ordinateurs modernes
Jusqu'au début du 20e siècle, l’évolution de l’informatique n’était guère plus que des scientifiques qui s’efforçaient de concevoir des machines capables de réaliser efficacement divers types de calculs à des fins diverses. Ce n’est qu’en 1936 qu’une théorie unifiée sur ce qui constitue un «ordinateur polyvalent» et son fonctionnement devrait finalement être présentée. Cette année-là, le mathématicien anglais Alan Turing a publié un article intitulé «On Computable Numbers, with an Application to the Entscheidungsproblem», qui décrit comment un dispositif théorique appelé «machine de Turing» pourrait être utilisé pour effectuer tout calcul mathématique concevable en exécutant instructions. En théorie, la machine aurait une mémoire illimitée, lirait des données, rédigerait des résultats et stockerait un programme d'instructions.
Alors que l'ordinateur de Turing était un concept abstrait, c'était un ingénieur allemand nommé Konrad Zuse qui allait construire le premier ordinateur programmable au monde. Sa première tentative de développement d'un ordinateur électronique, le Z1, était une calculatrice binaire qui lisait les instructions d'un film perforé de 35 millimètres. La technologie n'était pas fiable, cependant, il l'a donc suivie avec le Z2, un appareil similaire qui utilisait des circuits de relais électromécaniques. Bien que ce soit une amélioration, c'est dans l'assemblage de son troisième modèle que tout s'est réuni pour Zuse. Dévoilé en 1941, le Z3 était plus rapide, plus fiable et mieux à même d'effectuer des calculs compliqués. La plus grande différence dans cette troisième incarnation était que les instructions étaient stockées sur une bande externe, lui permettant ainsi de fonctionner comme un système contrôlé par programme entièrement opérationnel.
Ce qui est peut-être le plus remarquable, c'est que Zuse a fait une grande partie de son travail de manière isolée. Il ne savait pas que le Z3 était "Turing complet", ou en d'autres termes, capable de résoudre n'importe quel problème mathématique calculable - du moins en théorie. Il n'avait pas non plus connaissance de projets similaires en cours à la même époque dans d'autres parties du monde.
Parmi les plus notables, on peut citer le Harvard Mark I financé par IBM, qui a fait ses débuts en 1944. Le développement de systèmes électroniques comme le prototype informatique Colossus de 1943 en Grande-Bretagne et le ENIAC, le premier ordinateur électronique polyvalent pleinement opérationnel qui a été mis en service à l'Université de Pennsylvanie en 1946.
Du projet ENIAC est né le prochain grand pas en avant dans la technologie informatique. John Von Neumann, un mathématicien hongrois qui avait consulté sur le projet ENIAC, jetterait les bases d'un ordinateur à programme enregistré. Jusque-là, les ordinateurs fonctionnaient sur des programmes fixes et modifiaient leurs fonctions, par exemple, des calculs au traitement de texte. Cela nécessitait le processus long de devoir recâbler et restructurer manuellement. (Il a fallu plusieurs jours pour reprogrammer ENIAC.) Turing avait proposé qu'idéalement, avoir un programme stocké dans la mémoire permettrait à l'ordinateur de se modifier à un rythme beaucoup plus rapide. Von Neumann a été intrigué par le concept et en 1945 a rédigé un rapport qui fournissait en détail une architecture réalisable pour le calcul de programme stocké.
Son article publié serait largement diffusé parmi les équipes de chercheurs concurrents travaillant sur diverses conceptions informatiques. En 1948, un groupe en Angleterre a présenté la Manchester Small-Scale Experimental Machine, le premier ordinateur à exécuter un programme stocké basé sur l'architecture Von Neumann. Surnommée «Baby», la Manchester Machine était un ordinateur expérimental qui a servi de prédécesseur au Manchester Mark I. L'EDVAC, la conception informatique à laquelle le rapport de Von Neumann était initialement destiné, n'a été achevée qu'en 1949.
Transition vers des transistors
Les premiers ordinateurs modernes ne ressemblaient en rien aux produits commerciaux utilisés par les consommateurs aujourd'hui. C'étaient des engins volumineux élaborés qui occupaient souvent l'espace d'une pièce entière. Ils ont également aspiré d'énormes quantités d'énergie et étaient notoirement buggés. Et comme ces premiers ordinateurs fonctionnaient sur des tubes à vide encombrants, les scientifiques espérant améliorer les vitesses de traitement devraient soit trouver de plus grandes salles, soit trouver une alternative.
Heureusement, cette percée si nécessaire était déjà en cours. En 1947, un groupe de scientifiques des Bell Telephone Laboratories a développé une nouvelle technologie appelée transistors à contact ponctuel. Comme les tubes à vide, les transistors amplifient le courant électrique et peuvent être utilisés comme interrupteurs. Plus important encore, ils étaient beaucoup plus petits (de la taille d'une capsule d'aspirine), plus fiables et utilisaient globalement beaucoup moins d'énergie. Les co-inventeurs John Bardeen, Walter Brattain et William Shockley recevront finalement le prix Nobel de physique en 1956.
Tandis que Bardeen et Brattain ont poursuivi leurs travaux de recherche, Shockley a continué de développer et de commercialiser la technologie des transistors. L'une des premières embauches de sa nouvelle entreprise a été un ingénieur électricien du nom de Robert Noyce, qui s'est finalement séparé et a formé sa propre entreprise, Fairchild Semiconductor, une division de Fairchild Camera and Instrument. À l'époque, Noyce cherchait des moyens de combiner de manière transparente le transistor et d'autres composants en un seul circuit intégré pour éliminer le processus dans lequel ils devaient être assemblés à la main. Penser dans le même sens, Jack Kilby, ingénieur chez Texas Instruments, a fini par déposer un brevet en premier. C’est toutefois la conception de Noyce qui sera largement adoptée.
Là où les circuits intégrés ont eu le plus d'impact, c'est pour ouvrir la voie à la nouvelle ère de l'informatique personnelle. Au fil du temps, il a ouvert la possibilité d'exécuter des processus alimentés par des millions de circuits, le tout sur une micropuce de la taille d'un timbre-poste. En substance, c'est ce qui a permis aux gadgets portables omniprésents que nous utilisons tous les jours, qui sont ironiquement, beaucoup plus puissants que les premiers ordinateurs qui occupaient des pièces entières.