SGI plant Supercomputer der Zukunft

'Projekt Ultraviolet' soll dem Hochleistungsrechnen eine neue Ära erschließen: Das Multi-Paradigm-Computing
(PresseBox) (München, ) Anlässlich der SC2003 (der in Phoenix, Arizona, vom 17.-19. Nov stattfindenden internationalen Supercomputing-Herbst­konferenz) hat SGI bekannt gegeben, an einer grund­sätzlich neuen Klasse von Hochleistungs­rechnern zu arbeiten. Die Sys­teme, die das Unter­neh­men auf den Markt zu bringen beabsichtigt, sollen den Nutzern in einem weiten Bereich technisch-wissenschaftlich und methodisch orientierter Anwendungen revolutio­näre Möglichkeiten schaffen, um beim immer anspruchs­volleren Streben nach innovativen Produktentwicklungen und neuen Forschungserkennt­nissen erfolgreich zu sein. Die Maschinen basie­ren auf einem Konzept, das von SGI ´Multi-Paradigm-Computing´ genannt wird und unterschiedliche bisher getrennte Rechnerarchitekturen mit SGI-Technologie für Skalierbares Shared-Memory-Computing zusam­men­führen wird.



Das unter dem Codename "Project Ultraviolet" laufende langfristige, visionäre Vorhaben zielt auf mehr Produktivität beim Supercomputing. Aus dem Projekt sollen Systeme hervorgehen, die erst­mals verschiedene Ansätze des numeri­schen Hochleistungs­rech­nens unterstützen und diese auch in kombi­nierter Form zu nutzen erlauben. Damit werden Kunden bei ihren technisch-wissen­schaftlichen Aufgabenstellungen ein Optimum an Leistungsfähigkeit erhalten - egal, nach welchem Programmiermodell ihre Anwen­dungscodes entwickelt sind, und ungeachtet dessen, wie ausgewogen die Computing-Last anfallen mag.



Geschwindigkeit alleine ist nicht zielführend

Dr. Eng Lim Goh, Entwicklungs-Chef von SGI: "Wir haben einen Punkt erreicht, ab dem es kaum mehr zielführend ist, Computer schneller zu machen, aber die Architektur beizubehalten. Wie mächtig, wie wertvoll ein Rechner wirklich ist, das hängt von seiner Nutzungsfähigkeit und Eignung ab, mit der er den Ingeni­eur oder Wissenschaftler bei der Bewältigung der Probleme unterstützen kann. Das Projekt Ultraviolet ist getrieben von Erfordernissen der Wissenschaft. Mit ihm und unserem Multi-Paradigm-Computing-Konzept wollen wir den Anwender produk­tiver machen."



Das Konzept des Multi-Paradigm-Computing (MPC) dient den strategischen Technologieentwicklern von SGI als Richtlinie, um den Hochleistungsrechner der Zukunft zu schaffen. MPC bedeutet, dass die Maschine die Anforderungen eines großen Spektrums technisch-wissenschaftlicher Anwendungen abdecken können muss. Diesem Ziel entsprechend verfolgt SGI einen System-Entwurf, der zum einen diverse Elemente bisher getrennter Rechner­architekturen mit einbezieht. Zum anderen soll er dafür sorgen, dass diese unterschiedlichen Ressourcen in der Lage sind, kooperativ und hocheffizient ein-und-denselben Datensatz zu bearbeiten, der - für sie gemeinsam zugänglich - in einem zusammenhängenden großen, flexibel ausbaubaren Systemspeicher residiert: im Skalierbaren Shared-Memory.



System-Entscheidung - ein Lebenszyklus von Restriktionen

"Wissenschaftler und Ingenieure treffen beim Kauf ihrer Hochleistungsrechner heute Entscheidungen, durch die sie sich auf Zeiträume von 10 und mehr Jahre festlegen," unterstreicht Goh. Über solche Lebenszyklus-Spannen hinweg arbei­ten sie dann mit Applikationen - und teilweise entwickeln und pflegen sie Codes sogar selbst -, die genau dieser gewählten Architektur entsprechen. Mehr noch, die Wahl zwischen einer Cluster-, Shared-Memory- oder Vektor-Architektur bedeutet in vielen Fällen auch: Man muss Einschränkungen hinnehmen bei der Art und Größe der Datenmodelle, mit denen die Anwendungen aufgrund der jeweils gegebenen Hardware-Limitierungen umgehen können."



Flexibilität - für Stochastik, Multi-Physics und vieles mehr

"Diese Einschränkungen nehmen mehr und mehr zu, insbesondere wenn man sich das wach­sende Interesse an fortgeschrit­tenen Computing-Methoden vor Augen führt. Der Bedarf erstreckt sich vom vermehrten und gezielteren Rech­nen mit Stochastik-, Ensemble- und Multi-Physics-Ansätzen zur Multi-skalen Simu­lation (mit unterschiedlichen Sicht- und Beschreibungsweisen für ein-und-dieselbe Realität) bis hin zur Multidisziplinären Design-Optimierung (bei der man bisher isoliert behandelte Arbeitsgebiete und -methoden gemein­sam auf ein optimales Ergebnis ansetzt). Mit Multi-Paradigm-Computing werden sich die Dinge ändern. Sämtliche unter­schied­lichen Paradigmen werden dann auf einem grundlegenden Niveau effizient unter­stützt. SGI möchte den Wissenschaftlern zu mehr Produktivität verhelfen, indem sie sich statt der Computertechnik mehr ihrem eigentlichen Metier, der Wissenschaft, widmen."



Kooperationen aus Government und Industrie

"Intel freut sich, zusammen mit SGI an der Ultraviolet-Architektur zu arbeiten," sagt Justin Ratner, Senior Fellow bei Intel. "Intel und SGI werden im Rahmen des Advanced Compu­ting Program Programmier-Schnittstellen entwickeln, die sowohl produktiver wie auch besser skalierbar sind. Dadurch lassen sich dann beim Arbeiten mit großen Datenmodellen massiv parallele Prozesse besser ein­setzen. Die Entwicklung solcher Technologien wird die Parallelverarbeitung im Intel-Itanium2 basierenden Marktsegment vereinfachen und die Dinge auch für SGIs technisch-wissenschaftliche Anwender im HighEnd-Bereich erleichtern."



Weitere Kooperationen im Rahmen des Projekts Ultravilot wird SGI in den näch­sten Monaten bekannt geben - mit Partnern aus dem US-Regierungsbereich wie auch aus der Industrie.



Systeme für MPC ab 2007 - Erste Ansätze schon ab 2005

Ebenso wird das Unternehmen in den nächsten Monaten Konkreteres zu seinen Plänen für die Next-Generation-SGI®-Systeme bekannt geben, die im Jahr 2005 auf den Markt kommen. Erste Schritte in Richtung Multi-Para­digm-Computing werden in ihnen dann bereits implementiert sein. Das Roll-out für den ersten ausgewachsenen, echten MPC-Rechner ist für etwa 2007 geplant.



Kompetenz bei Shared-Memory-Architekturen

SGI sieht sich in seinem Engagement, als Pionier die Implementierung von Multi-Paradigm-Computing voranzutreiben, gut positioniert. Das Unterneh­men kann auf langjährige Erfahrung und führende Kompetenz mit skalierbaren Shared-Memory-Systemen aufbauen.



Seit 1996 hat das Unternehmen mit der Server- und Supercom­puter-Familie SGI®Origin® die Grenzen bei System-Kommunikation und System-Management verschoben, so dass heute Hunderte von Mikropro­zessoren gemeinsam einen Pool von Daten in einem einzigen großen zusammen­hängenden Systemspei­cher bearbeiten können. Shared-Memory bedeutet: Sämtliche Rechner-Res­sour­cen können gleichzeitig an einem einheitlichen großen Modell, ohne dass man es in viele kleinere Teilstücke zerlegen muss. Der Nutzer oder Program­mie­rer ist nicht gezwungen, das Modell in passgerechte Portionen aufzusplitten, die für die einzelnen Ressourcen dann verdaubar sind. Ebensowenig muss er sich auf komplizierte Kommunikationsprozesse zwischen den Ressourcen verlassen, um sicher zu gehen, dass das Gesamtmodell konsistent bleibt, wenn Daten sich ändern.



Führende Institutionen wie das NASA Ames Research Center und das Fleet Numerical Meteorological and Oceanographic Center sowie Einrichtungen des US-Vertei­dungs­ministeriums setzen Origin-Supercomputer aufgrund der Tat­sache ein, dass Forscher und Wissenschaftler in dem Shared-Memory extrem große und komplexe Datenmodelle analysieren können.



In Form der Server- und Supercluster-Systeme SGI®Altix® hat das Unter­neh­men die branchenführende Technologie für Shared-Memory-Computing auch auf die 64-Bit-Linux®-Plattform übertragen. Altix basiert - wie die Origin-Linie - auf der Architektur SGI®NUMAflex™. Sie integriert 100e von Intel®-Itanium®2-Prozessoren in eine Systemumgebung, in der diese alle auf ein bis zu 4 TB (TeraByte) großes Globales Shared-Memory zuarbeiten können. Das ist einzigartig in der Welt des Linux-basierten Hochleistungsrechnens.



Die den Altix-Systemen zugrunde liegende NUMAflex-Architektur befindet sich bereits in 3ter Generation und stellt eine echte Supercomputer-Architektur dar, mit besten Skalierbarkeits- und Bandbreiten-Eigenschaften. Es lassen sich selbst die größten Datensätze mit beispielhafter Einfachheit und in Rekordzeiten analysieren. Altix erschließt für den High-Performance-Computing-Workflow unter 64-Bit-Linux ein Höchstmaß an Stabilität und Produktivität. Aufgrund der einzigartigen NUMAflex-Architektur eignet sich Altix indessen nicht nur ideal für komplexe Applikationen, die nach dem Shared-Memory-Programmiermodell erstellt sind. Altix unterstützt ebenso effizient auch kommunikations-intensive Anwendungen, die nach dem Message-Passing-Programmiermodell arbeiten, für Cluster-Konfigurationen optimiert sind und in Umgebungen eingesetzt werden, die primär auf den Durchsatz-Workflow ausgerichtet sind.

Kontakt

Silicon Graphics International
Werner-von-Siemens-Ring 1
D-85630 Grasbrunn
Dr. Gernot Schaermeli
Social Media