L'évolution de l'ordinateur

Table des matières:

L'évolution de l'ordinateur
L'évolution de l'ordinateur
Anonim

Parmi les technologies les plus importantes de l'histoire de l'humanité, les ordinateurs sont peut-être l'invention la plus récente. Cependant, le besoin de calculs existe depuis l'Antiquité. Déjà les premières civilisations agricoles de Mésopotamie étaient confrontées à de tels volumes de chiffres et de données, trop difficiles à stocker et à raconter dans l'esprit. Puis le premier prototype de l'ordinateur est apparu - l'abaque.

Image
Image

Disons que la machine à sommer, créée par Pascal au XVIIe siècle, était en fait des comptes mécanisés. Des engrenages avec le même rapport de démultiplication de 1:10, faisant un certain nombre de tours, permettaient d'ajouter des nombres avec cinq à huit décimales. Un peu plus tard, le mécanisme de Leibniz est apparu, capable d'effectuer les quatre opérations arithmétiques de base.

C'était arrangé de manière plus complexe: la décharge correspondante était représentée par un cylindre étagé, dont chacun, après avoir effectué dix tours, revenait à sa position d'origine et transférait un tour au cylindre suivant - c'est ainsi que fonctionnent les compteurs kilométriques dans les voitures modernes. Les mêmes mouvements dans l'ordre inverse permettaient la soustraction, et des mécanismes supplémentaires qui automatisaient l'addition et la soustraction multiples fournissaient la multiplication et la division.

Image
Image

Leibniz lui-même a déclaré que le simple comptage "ne vaut pas l'attention et le temps d'une personne digne, puisque tout paysan est capable de faire le même travail avec la même précision s'il utilise une machine". Cependant, la première utilisation documentée du mot « ordinateur » (Richard Braithwaite, 1613) ne signifiait pas une machine, mais une profession. Dans ces années-là, les vrais "ordinateurs" étaient des gens qui étaient vraiment expérimentés en arithmétique - et cette situation a persisté jusqu'au milieu du 19ème siècle, quand ils ont commencé à être progressivement remplacés par des mécanismes. Depuis les années 1890, le mot "ordinateur" a été inclus dans l'Oxford English Dictionary - déjà en tant qu'appareil mécanique.

Cependant, presque toutes les machines à additionner de cette époque n'étaient que des versions plus avancées, moins chères et plus fiables de la machine de Leibniz: elles ne leur permettaient pas de se débarrasser complètement du travail manuel lors du comptage. La plupart des tâches pratiques - qu'il s'agisse de calculer le vol balistique d'un projectile ou les supports d'un pont ferroviaire - nécessitent de saisir, traiter et lire des dizaines, des centaines et des milliers de nombres. L'informatique demandait beaucoup d'efforts et de ressources, et pour vraiment libérer les "personnes dignes" du travail humiliant d'un "compteur", il fallait une machine capable d'effectuer n'importe quel calcul et dotée de dispositifs de mémoire, d'entrée et de sortie.

Charles Babbage a été le premier à penser à un tel mécanisme universel, qui a travaillé en 1820-1840 sur une machine à différences pour décomposer les fonctions en polynômes. Le système le plus complexe de dizaines de milliers de pièces n'a jamais été entièrement construit par lui, et ce n'est qu'au 200e anniversaire de la naissance de Babbage en Grande-Bretagne qu'ils l'ont assemblé (prouvant l'exactitude des calculs de l'ingénieur) et l'imprimante primitive qu'il a conçue.

Image
Image

L'idée de la machine universelle de Babbage - bien que non réalisable avec la technologie de l'époque - a fait forte impression dans les esprits. Déjà au milieu du 19ème siècle, la comtesse Ada Lovelace a décrit le fonctionnement d'un tel mécanisme, introduisant le concept d'algorithmes, de boucles, et est devenue la première programmeuse d'un ordinateur qui n'existait pas encore. Cependant, il n'y avait pas longtemps à attendre.

Électromécanique

Vers la fin de ce même 19ème siècle, le gouvernement américain a été confronté à une croissance démographique rapide - principalement due à l'afflux de migrants en provenance d'Europe. La législation du pays prescrit un recensement de la population tous les 10 ans, mais déjà en 1880, tant de questionnaires étaient collectés que leur traitement manuel prenait sept ans. Des statisticiens méticuleux ont calculé que le recensement de 1890 prendrait plus de 10 ans - les volumes ont augmenté comme une boule de neige. C'est pour leur traitement que l'ingénieur Herman Hollerith a créé une machine de tabulation utilisant des cartes perforées. Les trous correspondant aux réponses du questionnaire permettaient à de fins fils souples de traverser la carte perforée et de se connecter en bas à des cellules conductrices, des électrodes de mercure liquide. En fermant les contacts, le petit moteur a fait tourner la roue correspondante d'un tour, la bloquant en position.

Image
Image

En connectant les électrodes en circuits, il était possible d'effectuer des calculs d'addition et combinatoires: par exemple, lors de la détermination du nombre total d'hommes mariés. C'était un grand pas en avant - non plus un ordinateur mécanique, mais un ordinateur électromécanique. Les tabulatrices de Hollerith ont permis de traiter les données d'un ordre de grandeur plus rapidement - même le gouvernement de la Russie tsariste les a achetées, où elles ont été utilisées pour le recensement de 1897. Créée par un ingénieur, la société Computing-Tabulating-Recording (CTR) a développé et produit des tabulatrices de plus en plus complexes et, depuis 1924, elle est connue sous un nouveau nom désormais familier - International Business Machines, ou simplement IBM.

Les produits de l'entreprise ont connu un énorme succès, mais leurs capacités se sont rapidement raréfiées. L'industrialisation et la Première Guerre mondiale, le développement rapide des usines et des villes, la science et les transports ont exigé de plus en plus de productivité. Les systèmes électromécaniques se sont développés et sont devenus plus complexes: la machine Mark I, construite par le même IBM en 1941, sur ordre de la marine américaine occupait un bâtiment entier et était incroyablement difficile à gérer et à exploiter.

Image
Image

Elle a utilisé des dizaines de bandes perforées et des millions d'options de connexion, mais la principale innovation a été l'introduction de relais électromécaniques. Ce dispositif peut être appelé un interrupteur qui retarde ou fait passer le courant (en faisant tourner la même roue de comptage), selon qu'il y a du courant dans la deuxième boucle de contrôle. Il est temps d'utiliser la logique.

Électrique

En combinant de tels commutateurs, des portes logiques peuvent être obtenues pour effectuer des calculs. Disons que nous devons ajouter cinq et six. Dans un système binaire, cela revient à additionner 0101 et 0110, bit par bit, selon les règles: 0 + 1 = 1 + 0 = 1.0 + 0 = 0, 1 + 1 = 10. Nous n'avons besoin que de deux portes logiques: la première fournira du courant (1) si l'un des registres à ajouter contient 1 et dans notre cas donnera 0011; le second ne fonctionnera que sur 1 et 1 - dans notre cas il correspond à 1000. Le fonctionnement simultané de deux circuits donnera 1011 - ou 11 dans le système décimal.

D'un point de vue quotidien, ce n'est pas très pratique, mais pour un ordinateur - ce dont vous avez besoin. Les cartes perforées, les bandes magnétiques ou les cellules de mémoire peuvent servir de supports de zéros et de uns, et les « commutateurs » peuvent servir d'éléments logiques. Au moment où nous nous sommes arrêtés, ils avaient évolué pour être entièrement électriques.

En effet, les 3 500 relais mécaniques Mark I nécessitaient une commutation physique, provoquant la fermeture et la réouverture du circuit. En conséquence, ils n'avaient qu'une offre limitée d'endurance et devaient être remplacés après environ 50 000 commutateurs. Cela réduisait également leur vitesse: la machine ne pouvait effectuer que trois opérations d'addition ou de soustraction par seconde. Enfin, une solution mécanique est extrêmement peu fiable: un insecte ordinaire qui se faufilait dans le système menaçait de perturber son travail - ce qui arrivait de temps en temps, donnant naissance au mot moderne "bug". Sans surprise, les ingénieurs ont rapidement tourné leur attention vers un autre moyen d'obtenir des commutateurs contrôlables - les diodes à tube à vide, qui ont transformé les systèmes électromécaniques en systèmes entièrement électriques.

De tels dispositifs ont été créés dans les années 1900: une lampe à vide contient des électrodes, dont l'une, se chauffant lorsqu'un courant est appliqué, commence à émettre des électrons, qui se précipitent vers l'électrode de charge opposée. Cependant, une troisième électrode installée entre elles peut contrôler ce débit. Si une tension négative lui est appliquée, elle bloque le mouvement des électrons, et si elle est positive, elle le facilite.

Les diodes de lampe étaient beaucoup plus fiables et plus rapides que les relais mécaniques; elles pouvaient commuter des centaines et des milliers de fois par seconde et durent plus longtemps. Ils étaient largement utilisés dans les amplificateurs de son: un faible courant dans le circuit de commande fermait un circuit de travail plus puissant, amplifiant ainsi le signal. Mais si un amplificateur domestique nécessitait une seule lampe, l'ordinateur en avait besoin de centaines - fragiles, coûteux, nécessitant un remplacement régulier et énergivores.

Dans le même temps, déjà les premiers ordinateurs à tubes - comme le Colossus, qui a brisé les chiffres des messages radio de la Wehrmacht pendant la Seconde Guerre mondiale - ont rapidement franchi la barre des milliers de diodes. Pour effectuer chaque calcul spécifique, il a été nécessaire de reprogrammer complètement le système, en combinant d'une nouvelle manière les portes logiques des tubes électroniques.

Image
Image

Ce processus n'a été automatisé que par les créateurs de la prochaine machine - ENIAC, achevée en 1945 et utilisée pour développer des armes thermonucléaires. C'était le premier ordinateur véritablement programmable capable d'effectuer jusqu'à 500 000 opérations par seconde. Néanmoins, il est devenu évident qu'un mécanisme fondamentalement différent pour créer des relais-interrupteurs était nécessaire: le temps des transistors approchait.

Image
Image

Électronique

Le mérite de créer des transistors à semi-conducteur appartient à William Shockley et à ses collègues des Laboratoires Bell. En fait, ce sont les mêmes interrupteurs, lointains descendants de systèmes mécaniques et de lampes, mais fonctionnant à un niveau plus miniature.

Image
Image

Pour comprendre leur fonctionnement, il va falloir redescendre à l'échelle atomique. Le silicium - l'un des principaux éléments de la croûte terrestre - forme un réseau cristallin ayant les propriétés d'un semi-conducteur. Dans leur forme pure, les quatre électrons qui se trouvent sur les enveloppes externes des atomes de silicium sont séparés entre des sites de réseau voisins.

Image
Image

Ils sont stabilisés et incapables de bouger, de sorte qu'un cristal de silicium sans défaut ne conduit pas le courant. Cependant, l'introduction de quantités déjà faibles d'additifs (dopage) à partir d'éléments avec un nombre différent d'électrons externes (par exemple, le bore) crée des porteurs de charge gratuits dans le réseau - ou des lacunes (trous) - qu'ils auront tendance à occuper. Nous obtiendrons un matériau à conductivité électronique (N-) ou à trous (P-).

Image
Image

Miniature

Imaginez maintenant qu'en dopant soigneusement nous avons transformé un petit morceau de silicium pur en un semi-conducteur N avec une fine bande de conduction P le divisant en deux. Un excès d'électrons des régions N occupera les trous les plus proches de la région P, créant une région avec une charge négative en excès. Cela empêchera d'autres mouvements d'électrons, bloquant le flux de courant, comme la troisième électrode de commande dans un tube à vide. Mais si une charge positive est appliquée à la région P, elle enlèvera les électrons en excès, permettant au courant de se déplacer.

Nous avons le même interrupteur, mais incroyablement compact et rapide, économe en énergie et totalement inusable. En combinant des transistors au silicium NPN ou PNP, vous pouvez construire n'importe quel circuit logique pour des calculs ultra-rapides, en plaçant des milliards de transistors et de contacts entre eux dans un volume minuscule. Il ne reste plus qu'à les produire.

Les technologies modernes pour la production de microcircuits à semi-conducteurs sont plus précises que celles des bijoux et nécessitent plus qu'une propreté chirurgicale. La température, qui à certains stades est portée à 1500 ° C, est contrôlée au dixième de degré, et les particules de poussière dans l'air des immenses locaux industriels ne doivent pas dépasser cinq par litre de volume. C'est le seul moyen d'obtenir une précision suffisante et de placer de plus en plus de transistors sur le microcircuit - de 2300 sur le microprocesseur révolutionnaire Intel 4004 en 1971, à 3,1 millions de transistors sur l'Intel Pentium 1993 et des centaines de millions dans chacun des dix cœurs de un processeur Xeon moderne.

Une grande pureté est également requise de la principale ressource de production - le sable de quartz, qui est calciné en présence de magnésium pour une purification supplémentaire et une élimination de l'oxygène. Le silicium résultant est fondu et une graine y est immergée - un minuscule cristal, qui est lentement retiré, faisant croître toutes les nouvelles couches atomiques jusqu'à l'obtention d'un monocristal de taille suffisante. En le coupant, ils obtiennent des plaques minces - moins d'un millimètre - de semi-conducteur pur qui, après broyage et traitement supplémentaire, se transforment en ébauches afin de "couper" tout un système de transistors et de connexions - un microcircuit du futur processeur.

Pour cela, le silicium (semi-conducteur) est recouvert d'une couche d'oxyde de silicium (isolant) et d'un matériau photorésistant. Sous l'action des rayons ultraviolets, il durcit et est ensuite lavé dans d'autres domaines, ce qui vous permet de retirer la couche d'oxyde isolante. Le processus est similaire à la technologie lithographique médiévale, dans laquelle la peinture n'était conservée que dans des rainures gravées dans une plaque de métal, formant un motif prêt à l'emploi pour une impression. C'est ce qu'on appelle la photolithographie, bien que les "rainures" ici soient déjà un dessin nanométrique du microcircuit le plus fin.

Image
Image

Dans ce cas, des pochoirs pré-préparés sont utilisés qui transmettent la lumière ultraviolette dans certaines zones et retardent dans d'autres. De même, d'autres couches contenant du bore ou d'autres impuretés sont appliquées pour former des jonctions NPN, du cuivre ou d'autres métaux pour les futurs contacts.

Les dimensions des pochoirs sont beaucoup plus grandes que celles du futur processeur, de sorte que les "gerbes" de rayonnement après eux sont concentrées sur une zone minuscule à l'aide de lentilles spéciales. Déjà dans les années 1980, la précision de tels systèmes a été portée au micromètre et les technologies modernes permettent de "réduire" l'image du pochoir lorsqu'elle est transférée sur un cristal de silicium de plusieurs ordres de grandeur - jusqu'à 10 nanomètres.

Les progrès sont impressionnants et restent tout à fait conformes à la règle que Gordon Moore, l'un des dirigeants d'IBM, a approuvée à l'aube de l'électronique au silicium: tous les 18 mois, les performances des microcircuits doublent. D'autres domaines de la technologie ont longtemps et sans succès envié ce développement (imaginez si la vitesse des transports augmentait à un rythme similaire!), Cependant, cela prendra probablement bientôt fin.

Futur

En effet, moins connue est l'autre observation de Moore selon laquelle le coût de chaque étape suivante de miniaturisation des puces de silicium augmente presque au même rythme que leurs performances. Ces dernières années, cela a entraîné un certain décalage dans les circuits par rapport au taux de développement habituel, et les ingénieurs se sont approchés de la limite minimale. Les transistors - seulement des centaines voire des dizaines d'atomes - se manifestent déjà en tant que systèmes quantiques. Ils ont des effets aléatoires qui faussent la précision des calculs - et l'accélération des supercalculateurs repose de plus en plus non pas sur la puissance de microcircuits individuels, mais sur un grand nombre d'éléments coopérants.

Image
Image

Cependant, même le déclin des transistors au silicium ne signifiera pas que nous sommes arrivés à la limite des performances des ordinateurs en tant que tels. Certains experts voient une grande promesse pour le calcul de l'ADN, combinant des nucléotides appariés dans des chaînes d'acides nucléiques: en théorie, ils promettent des performances incroyablement élevées pour résoudre de nombreux problèmes nécessitant un calcul parallèle. Il y a encore plus d'espoir pour les ordinateurs quantiques, qui sont capables de s'appuyer sur les effets très aléatoires et étranges de la mécanique quantique dont souffrent les puces de silicium incroyablement miniaturisées. Les premiers d'entre eux ont déjà commencé à travailler - cependant, ils méritent une histoire distincte.

Populaire par sujet