SGI Altix mit 10,240 Prozessoren soll bei NASA Ames die Basis des ´Space Exploration Simulator´ bilden

NASA, SGI und Intel starten ´Project Columbia´ - zur Beschleunigung wissenschaftlicher Studien und der Wiederaufnahme der Raumflüge
(PresseBox) (München, ) SGI gibt bekannt, dass sich die US-Raumfahrt­behörde NASA für SGI®Altix® entschieden hat, um auf Basis dieser HighPerformance-Computing-(HPC)-Technologie das ehrgeizige Vorhaben des ´Space Exploration Simulator´ zu verwirklichen. Über das ´Project Columbia´, verfolgt in enger Zusam­men­arbeit mit SGI und der Intel Corpo­ration, sollen deutlich erweiterte Ressourcen für die wissen­­schaft­liche Erkun­dung des Weltalls, die Erforschung der globalen Erder­wär­mung und die Entwicklung zukünftiger Aerospace-Technik geschaffen werden.

Im Rahmen des ´Project Columbia´ plant die NASA insgesamt 20 Altix-Serversysteme zu integrieren, die jeweils mit 512 Intel®-Itanium®2- Prozessoren ausgerüstet sind und diese Prozessoren in einer Shared-Memory-Umgebung zu betreiben erlauben. Ergänzt durch eine Massen­speicher/Datenmanagement-Lösung SGI®InfiniteStorage mit 500 TeraByte Diskkapazität werden die 20 SGI-Systeme dann in Form des ´Space Exploration Simulator´ eine Plattform bilden, die mit ihren insgesamt 10,240 Prozessoren eine der weltweit größten, unter 64-Bit-Linux® betriebenen Supercomputer-Installationen darstellen wird.

SGI hat die ersten 3 der 20 neuen Altix-Systeme bereits ausgeliefert. Das voll­ständige HPC-Server-Array mit den letztlich 10,240 Itanium2-Prozes­soren soll über die nächsten Monate hinweg realisiert werden.

"NASA und SGI arbeiten seit mehr als 20 Jahren eng zusammen und haben eine Reihe technologischer Errungen­schaften hervorgebracht," erklärt NASA Ames Director G. Scott Hubbard. "Das ´Project Columbia´ wird auf dem Wissen aus dieser erfolgreichen Kooperation aufbauen und die ehrgeizigsten Vorhaben in der Geschichte der NASA unterstützen. Wir machen uns auf, bei der Raumer­kun­dung neue Visionen zu verwirklichen - und freuen uns, diese Reise gemein­sam mit SGI und Intel zu machen."

"Die Anstrengungen der NASA, unseren Platz im Universum sowie das weitere Schicksal des Planeten Erde zu verstehen, sind heute wichtiger denn je," sagt Bob Bishop, Chairman und CEO von SGI. "Wir sehen uns aufrichtig geehrt, dass Altix als die Rechnerplattform gewählt wurde, mit der die NASA ihren nächsten großen Schritt voran gehen wird."

Intel Chief Executive Officer Craig Barrett: "Die Erkundung des Universums ist eine der größten Herausforderungen des Menschen. Der Supercomputer, den NASA, SGI und Intel im Rahmen des 'Project Columbia' konzipieren, wird den talentiertesten Wissenschaftlern und Ingenieuren erlauben, beim Verständnis des Alls tiefer vorzudringen und ihre technologischen Errungenschaften weiter voranzutreiben."


10x mehr Rechenpower - für kritische Aufgaben

´Project Columbia´ wird die Rechenkapazität der ´NASA Advanced Super­com­puting Facility´ (NAS) um ein 10-faches steigern. Das Mehr an Compu­ting-Power soll das effiziente Durchführen anstehender kritischer Vorhaben ermög­lichen - wie zukünftige Raumfahrt-Missionen zu simulieren; die zivilisatori­sche Einwirkung auf das großräumige Wetterver­hal­ten vorauszuberechnen; sichere und ressourcen-sparende Flugzeuge und Raumerkun­dungs-Fahrzeuge zu entwickeln.

Die Grundlage: ´Kalpana´ mit Shared-Memory-Architektur ...

Die aktuelle Partnerschaft im ´Project Columbia´ greift speziell auf eine mehr­jährige erfolgreiche Kooperation zurück, aus der im Herbst 2003 die weltweit erste HPC-Serverplattform hervorging, die als Linux-Einzel­system insgesamt 512 Prozes­soren in einer Shared-Memory-Umgebung integrierte. Das auf der System­­archi­tektur SGI®NUMAflex™ basierende und Industrie­stan­dard-Technologie (Intel-Itanium2-Prozessoren und Opensource-Betriebsystem) nutzende Altix-System war am NASA Ames Research Center kundenspezifisch weiterentwickelt worden.

Es arbeitet heute unter dem Namen 'Kalpana' - in Erinnerung in die verunglückte Columbia-Astronautin und Ames-Schülerin Kalpana Chawla.

.... für komplexe Modelle und hohe Produktivität

Bei dem ´Space Exploration Simulator´, der im Ames Research Center inmitten des Silicon Valley entsteht, wird die Systemarchitektur der Altix-Server eine zentrale Rolle spielen. Sie unterscheidet sich von Cluster-Systemen drastisch. Da die Altix-Architektur die Möglichkeit bietet, den gesamten Arbeitsspeicher global über das System hinweg zu adressieren, lassen sich auf der Plattform hoch­gradig komplexe Datenmodelle komplett in einem einheitlich zusammen­hängen­den schnellen Memory bearbeiten - ohne sie in kleinere Portionen zerstückeln zu müssen oder Teile von ihnen auf Disk auslagern zu müssen. Damit kann man am NASA Ames eine Produktivitätssteigerung erzielen, wie sie mit konventionellen Clustern und proprietären UNIX®-Servern nicht denkbar ist.

Das Marktforschungsunternehmen IDC erklärt über den für HPC zuständigen Director Addison Snell: "Die Installation des ´Space Exploration Simulator´ stellt für NASA, SGI and Intel eine bedeutendende Errungenschaft dar, und sie ist ein großer Schritt voran auch für die USA. Je weiter die NASA ihre Grenzen der Raumer­kundung ausdehnt und weit in das Sonnensystem und darüber hinaus dringt, desto wichtiger wird die Simulation. Mit Hilfe des Intel-Prozessor-basierten SGI-Systems werden die NASA-Wissenschaftler die komplexen Gegebenheiten und Zusammenhänge der bemannten und unbemannten Raumfahrt besser verstehen lernen."


Einfach zu installieren, einfach zu verwalten

Die Altix-Architektur macht die Installation und die Admini­stration des ´Space Exploration Simulator´ relativ einfach. Dazu John Parks, der bei der NASA als Deputy Chief für den HPC-Bereich NAS zuständig ist: "Einmal ganz abge­sehen davon, dass wir mit dem Space Exploration Simulator neue Supercom­puting-Fähigkeiten und neue Leistungsniveaus einführen, erwarten wir auch, eine neue Ära des HPCs zu eröffnen - eine Ära, in der der Betrieb von 10,000 Prozessoren eine ebenso unaufwändig-direkte Angelegenheit ist, wie das Verwalten von 20 Workstations."

HPC-Ressource für breite Community

Die NASA wird einen Teil des ´Space Exploration Simulator´ für die Nutzung eines erweiterten Anwenderkreises verfügbar machen. Die US-Weltraum-Behörde entspricht damit der Empfehlung einer Task-Force-Gruppe, die das US-Office für Wissenschafts- und Technologie-Politk im Mai aufgesetzt hatte. Die Öffnung soll sicherstellen, dass die gesamte Science- und Engineering-Community der USA Zugriff auf die arriviertesten Supercomputing-Architekturen der Nation erhält.


Datenzugriff - via SAN, Lifecycle-Management und CXFS

Anwender, die auf das neue System zugreifen, müssen aktuelle und historisch gewachsene Daten performant teilen können. Gleichzeitig geht man davon aus, dass sie tag-täglich neue Datenvolumina in Höhe mehrerer TeraByte erzeugen. Damit das System seine massive Rechenkapazität effizient nutzbar machen kann, wird es die Daten aus einem 500 Terabyte großen Storage-Area-Network ziehen - realisiert in Form eines SGI®InfiniteStorage-SAN. Weitere 800 Tera­Byte bestehender Daten sollen optimal über ihren kompletten Lebenszyklus hinweg verwaltet werden - was mit Hilfe einer SGI®InfiniteStorage-DMF-Lösung (Data Migration Facility) geschehen wird.

Um aus dem SAN bestmögliche Performanz und Nutzbarkeit herauszuholen, wird zudem das Shared-Filesystem SGI®InfiniteStorage CXFS™ installiert. Es bietet allen Applikationen im SAN sofortigen Zugriff auf sämtliche Daten, ohne die Kosten, Kompliziertheit und Wartezeiten, wie sie mit traditionellen Sharing-Verfahren verbundenen sind. In Ergänzung zum SAN kommt die DMF-basierte Data-Lifecycle-Management-Lösung zum Einsatz, um optimal auch solche Daten zu speichern, die es über längere Zeiträume hinweg vorzuhalten gilt. Die DLM-Umgebung sorgt für kürzere Reaktionszeiten als Archivierungs-Alterna­tiven, verursacht andererseits aber gegenüber einer Speicherung auf Hoch­leistungs­platten signifikant geringere Kosten.

Technologien, die bei den ´Project Columbia´-Systemen außer den Intel-Itanium2-Prozessoren zum Einsatz kommen, sind Storage-Komponenten von Brocade Communications und Engenio Information Technologies, Memory-Komponenten von Dataram Corporation und Micron Technology sowie Interconnect-Technologie von Voltaire.


Arbeiten am 2,048-CPU-Einzelsystem laufen bereits

Altix-Server, die in einem Linux-Einzelsystem bis zu 512 Prozessoren in eine Shared-Memory-Umgebung integrieren, gibt es inzwischen auch offiziell. Heute arbeiten die NASA und SGI bereits daran, die Möglichkeit des Single-System-Image-(SSI)-Betriebs um den Faktor 4 auszudehnen und somit unter einer einzigen Linux-Partition bis zu 2,048 der Itanium2-Prozessoren nutzen zu können. Mit diesen Anstrengungen wird die NASA die Grenzen ihrer wissen­schaft­lichen Erkenntnismöglichkeiten weiter verschieben. Denn auf einem Shared-Memory-Supercomputer, bei dem alle Prozessoren einen einzigen großen, zusammen­hängend adressier­baren Arbeitsspeicher nutzen können, laufen viele technisch-wissenschaftliche Anwendungen signifikant schneller als auf Cluster-Systemen, die sich aus vielen kleinen Knotenrechnern mit jeweils eigener Linux-Partition zusammensetzen und den fragmentierten Arbeits­speicher über Networking-Technologien verteilen.

Kontakt

Silicon Graphics International
Werner-von-Siemens-Ring 1
D-85630 Grasbrunn
Dr. Gernot Schaermeli
Social Media