Seymour Cray und der Supercomputer

Viele von uns kennen sich aus Computers. Wahrscheinlich verwenden Sie jetzt einen, um diesen Blog-Beitrag zu lesen, da Geräte wie Laptops, Smartphones und Tablets im Wesentlichen dieselbe zugrunde liegende Computertechnologie sind. Supercomputer hingegen sind etwas esoterisch, da sie oft als gewaltig, kostspielig und Energiesaugmaschinen, die im Großen und Ganzen für Regierungsinstitutionen, Forschungszentren und große Unternehmen entwickelt wurden Firmen.

Nehmen wir zum Beispiel Chinas Sunway TaihuLight, derzeit der schnellste Supercomputer der Welt, laut der Supercomputer-Rangliste von Top500. Es besteht aus 41.000 Chips (allein die Prozessoren wiegen über 150 Tonnen), kostet etwa 270 Millionen US-Dollar und hat eine Leistung von 15.371 kW. Auf der positiven Seite ist es jedoch in der Lage, Billiarden von Berechnungen pro Sekunde durchzuführen und bis zu 100 Millionen Bücher zu speichern. Und wie andere Supercomputer wird es verwendet, um einige der komplexesten Aufgaben in den Bereichen der Wissenschaft wie Wettervorhersage und Arzneimittelforschung zu bewältigen.

instagram viewer

Als Supercomputer erfunden wurden

Die Idee eines Supercomputers entstand in den 1960er Jahren, als ein Elektrotechniker namens Seymour Cray damit begann, den schnellsten Computer der Welt zu entwickeln. Cray, der als „Vater des Supercomputing“ gilt, hatte seinen Posten beim Business-Computing-Riesen verlassen Sperry-Rand tritt der neu gegründeten Control Data Corporation bei, damit er sich auf die Entwicklung konzentrieren kann wissenschaftliche Computer. Der Titel des schnellsten Computers der Welt wurde zu dieser Zeit von IBM 7030 "Stretch" gehalten, einem der ersten, der Transistoren anstelle von Vakuumröhren verwendete.

1964 stellte Cray den CDC 6600 vor, der Innovationen wie das Umschalten von Germaniumtransistoren zugunsten von Silizium und eines Freon-basierten Kühlsystems enthielt. Noch wichtiger ist, dass es mit einer Geschwindigkeit von 40 MHz lief und ungefähr drei Millionen Gleitkommaoperationen pro Sekunde ausführte, was es zum schnellsten Computer der Welt machte. Der CDC 6600, der oft als der erste Supercomputer der Welt angesehen wird, war zehnmal schneller als die meisten Computer und dreimal schneller als der IBM 7030 Stretch. Der Titel wurde schließlich 1969 an seinen Nachfolger, den CDC 7600, abgegeben.

Seymour Cray geht alleine

1972 verließ Cray die Control Data Corporation, um seine eigene Firma Cray Research zu gründen. Nach einiger Zeit der Beschaffung von Startkapital und der Finanzierung durch Investoren stellte Cray den Cray 1 vor, der die Messlatte für die Computerleistung erneut mit großem Abstand höher legte. Das neue System lief mit einer Taktrate von 80 MHz und führte 136 Millionen Gleitkommaoperationen pro Sekunde (136 Megaflops) aus. Weitere einzigartige Merkmale sind ein neuerer Prozessortyp (Vektorverarbeitung) und ein geschwindigkeitsoptimiertes hufeisenförmiges Design, das die Länge der Schaltkreise minimiert. Der Cray 1 wurde 1976 im Los Alamos National Laboratory installiert.

In den 1980er Jahren hatte sich Cray als herausragender Name im Bereich Supercomputing etabliert, und es wurde allgemein erwartet, dass jede Neuerscheinung seine früheren Bemühungen stürzen würde. Während Cray an einem Nachfolger des Cray 1 arbeitete, brachte ein separates Team des Unternehmens den Cray X-MP heraus, ein Modell, das als „aufgeräumtere“ Version des Cray 1 in Rechnung gestellt wurde. Es hatte das gleiche hufeisenförmige Design, jedoch mehrere Prozessoren und einen gemeinsamen Speicher und wird manchmal als zwei Cray 1s beschrieben, die als eine miteinander verbunden sind. Der Cray X-MP (800 Megaflops) war eines der ersten „Multiprozessor“ -Designs und half dabei, die Tür zu öffnen Parallelverarbeitung, bei der Rechenaufgaben in Teile aufgeteilt und gleichzeitig von ausgeführt werden anders Prozessoren.

Der Cray X-MP, der ständig aktualisiert wurde, diente bis zur lang erwarteten Einführung des Cray 2 im Jahr 1985 als Standardträger. Wie seine Vorgänger übernahm Crays neueste und größte Version das gleiche hufeisenförmige Design und Grundlayout mit integrierten Schaltkreisen, die auf Logikplatinen gestapelt sind. Diesmal waren die Komponenten jedoch so eng zusammengepfercht, dass der Computer in ein Flüssigkeitskühlsystem eingetaucht werden musste, um die Wärme abzuleiten. Der Cray 2 war mit acht Prozessoren ausgestattet, wobei ein „Vordergrundprozessor“ für die Speicherung zuständig war. Speicher und Anweisungen an die "Hintergrundprozessoren", die mit der eigentlichen Berechnung beauftragt wurden. Insgesamt erreichte es eine Verarbeitungsgeschwindigkeit von 1,9 Milliarden Gleitkommaoperationen pro Sekunde (1,9 Gigaflops), zweimal schneller als der Cray X-MP.

Weitere Computerdesigner entstehen

Unnötig zu erwähnen, dass Cray und seine Entwürfe die frühe Ära des Supercomputers beherrschten. Aber er war nicht der einzige, der das Feld voranbrachte. In den frühen 80er Jahren entstanden auch massiv parallele Computer, die von Tausenden von Prozessoren angetrieben werden, die alle zusammenarbeiten, um Leistungsbarrieren zu überwinden. Einige der ersten Multiprozessorsysteme wurden von W. Daniel Hillis, der als Doktorand am Massachusetts Institute of Technology auf die Idee kam. Das damalige Ziel war es, die Geschwindigkeitsbeschränkungen einer CPU-Direktberechnung untereinander zu überwinden Prozessoren durch Entwicklung eines dezentralen Netzwerks von Prozessoren, die ähnlich wie die neuronalen Funktionen des Gehirns funktionieren Netzwerk. Seine implementierte Lösung, die 1985 als Connection Machine oder CM-1 eingeführt wurde, enthielt 65.536 miteinander verbundene Einzelbitprozessoren.

Die frühen 90er Jahre markierten den Anfang vom Ende für Crays Würgegriff beim Supercomputing. Bis dahin hatte sich der Supercomputer-Pionier von Cray Research abgespalten und die Cray Computer Corporation gegründet. Die Dinge begannen für das Unternehmen nach Süden zu gehen, als das Cray 3-Projekt, der beabsichtigte Nachfolger des Cray 2, auf eine ganze Reihe von Problemen stieß. Einer der größten Fehler von Cray war die Entscheidung für Galliumarsenid-Halbleiter - eine neuere Technologie -, um sein erklärtes Ziel einer zwölffachen Verbesserung der Verarbeitungsgeschwindigkeit zu erreichen. Letztendlich verzögerten sich die Schwierigkeiten bei der Herstellung sowie andere technische Komplikationen Das Projekt hat jahrelang dazu geführt, dass viele potenzielle Kunden des Unternehmens letztendlich verloren haben Interesse. Es dauerte nicht lange, bis das Unternehmen kein Geld mehr hatte und einen Antrag stellte Konkurs im Jahr 1995.

Crays Kämpfe würden einer Art Wachablösung weichen, da konkurrierende japanische Computersysteme das Feld für einen Großteil des Jahrzehnts dominieren würden. Die in Tokio ansässige NEC Corporation kam 1989 mit dem SX-3 und ein Jahr später erstmals auf die Bühne enthüllte eine Version mit vier Prozessoren, die als schnellster Computer der Welt fungierte und nur in den Schatten gestellt wurde im Jahr 1993. In diesem Jahr war der numerische Windkanal von Fujitsu mit der rohen Kraft von 166 Vektorprozessoren der erste Supercomputer, der 100 Gigaflops überstieg (Randnotiz: Um Ihnen einen zu geben Vorstellung davon, wie schnell die Technologie voranschreitet, die schnellsten Consumer-Prozessoren im Jahr 2016 können problemlos mehr als 100 Gigaflops ausführen, aber zu dieser Zeit war es besonders beeindruckend). 1996 erhöhte der Hitachi SR2201 den Einsatz mit 2048 Prozessoren, um eine Spitzenleistung von 600 Gigaflops zu erreichen.

Intel nimmt am Rennen teil

Nun, wo war Intel? Das Unternehmen, das sich als führender Chiphersteller auf dem Verbrauchermarkt etabliert hatte, sorgte erst gegen Ende des Jahrhunderts für Aufsehen im Bereich Supercomputing. Dies lag daran, dass die Technologien insgesamt sehr unterschiedliche Tiere waren. Supercomputer wurden zum Beispiel entwickelt, um so viel Rechenleistung wie möglich zu verbrauchen, während sie persönlich sind Bei Computern ging es darum, die Effizienz durch minimale Kühlleistung und begrenzte Energieversorgung zu verbessern. 1993 wagten die Intel-Ingenieure schließlich den Sprung, indem sie den kühnen Ansatz verfolgten, massiv parallel zum 3.680 Prozessor Intel XP / S 140 Paragon, der bis Juni 1994 auf den Gipfel des Supercomputers geklettert war Ranglisten. Es war der erste Supercomputer mit massiv parallelen Prozessoren, der unbestritten das schnellste System der Welt war.

Bis zu diesem Zeitpunkt war Supercomputing hauptsächlich die Domäne derjenigen, die über die nötigen Taschen verfügen, um solch ehrgeizige Projekte zu finanzieren. Das änderte sich 1994, als Auftragnehmer des Goddard Space Flight Center der NASA, die keinen solchen Luxus hatten, eine Eine clevere Möglichkeit, die Leistung des parallelen Rechnens zu nutzen, indem eine Reihe von PCs mithilfe eines Ethernet verbunden und konfiguriert werden Netzwerk. Das von ihnen entwickelte „Beowulf-Cluster“ -System bestand aus 16 486DX-Prozessoren, die im Gigaflops-Bereich betrieben werden konnten und deren Bau weniger als 50.000 US-Dollar kostete. Es hatte auch den Unterschied, Linux anstelle von Unix auszuführen, bevor Linux zum Betriebssystem der Wahl für Supercomputer wurde. Ziemlich bald wurden Heimwerker überall ähnlichen Bauplänen gefolgt, um ihre eigenen Beowulf-Cluster aufzubauen.

Nachdem Intel den Titel 1996 an den Hitachi SR2201 abgegeben hatte, kehrte Intel in diesem Jahr mit einem auf dem Paragon basierenden Design namens ASCI Red zurück, das aus mehr als 6.000 200 MHz bestand Pentium Pro-Prozessoren. Trotz der Abkehr von Vektorprozessoren zugunsten von Standardkomponenten wurde der ASCI Red als erster Computer ausgezeichnet, der die Barriere von 1 Billion Flops (1 Teraflops) durchbrach. Bis 1999 konnten durch Upgrades drei Billionen Flops (3 Teraflops) überschritten werden. Der ASCI Red wurde in den Sandia National Laboratories installiert und diente hauptsächlich dazu, nukleare Explosionen zu simulieren und die Instandhaltung des Landes zu unterstützen Atomarsenal.

Nachdem Japan mit dem 35,9 Teraflops NEC Earth Simulator für einige Zeit die Führung im Bereich Supercomputing übernommen hatte, brachte IBM das Supercomputing ab 2004 mit dem Blue Gene / L auf ein beispielloses Niveau. In diesem Jahr stellte IBM einen Prototyp vor, der den Erdsimulator (36 Teraflops) kaum übertraf. Bis 2007 würden die Ingenieure die Hardware hochfahren, um ihre Verarbeitungskapazität auf einen Spitzenwert von fast 600 Teraflops zu steigern. Interessanterweise konnte das Team solche Geschwindigkeiten erreichen, indem es mehr Chips verwendete, die relativ wenig Leistung, aber energieeffizienter waren. Im Jahr 2008 hat IBM erneut den Grundstein gelegt, als der Roadrunner eingeschaltet wurde, der erste Supercomputer, der mehr als eine Billion Gleitkommaoperationen pro Sekunde (1 Petaflops) überschritt.