OpenHPC – Wikipedia
Die OpenHPC-Initiative ist ein kollaboratives Projekt unter dem Dach der Linux Foundation. Es hat zum Ziel, eine einfach installier- und benutzbare Software-Umgebung (Framework) für High-Performance-Computing zu entwickeln und zu verbreiten. Die für das grundlegende Aufsetzen eines HPC-ComputeClusters notwendigen Komponenten stehen als Open Source zur Verfügung. Weitere, optionale Komponenten (Intel-C/Fortran-Compiler, diverse Performance-Analyse-Tools) erfordern den Erwerb von Lizenzen ihrer jeweiligen Hersteller.
Gründung
[Bearbeiten | Quelltext bearbeiten]Das Projekt wurde am 12. November 2015 während der SC '15 von den unter Gründungsmitglieder genannten Firmen und Forschungseinrichtungen gegründet.[1]
Ziele
[Bearbeiten | Quelltext bearbeiten]Das Projekt will erreichen, dass openHPC[2]
- als ein robustes und vielfältiges System aus miteinander integrierten Komponenten eine stark vereinfachte Nutzung von HPC-Techniken ermöglicht
- eine stabile Software-Umgebung zum Testen und Validieren eines breiten Spektrums an HPC-Anwendungen bietet
- als integriertes Open-Source-Framework die Gesamtkosten für die Inbetriebnahme einer eigenen HPC-Umgebung verringert
- mit seinem flexiblen Konfigurationsmanagement und zueinander kompatiblen Software-Paketen viele Einsatzfälle von HPC abdeckt, und trotzdem die Integration mit anderen HPC-Komponenten erlaubt
Das Aufsetzen eines ComputeClusters erfordert eine Menge administrativer Arbeit. Spezialisierte Systemadministratoren planen
- mit welcher Cluster-Verwaltungssoftware sie ihr Cluster installieren und verwalten wollen
- mit welchen Werkzeugen sie es überwachen und
- mit welchem ResourceManager (Job Scheduler) sie es durch die Benutzer mit Jobs (Teilaufgaben) beschicken wollen.
Dann installieren und konfigurieren sie auf dem/n MasterNode(s) die ausgewählte Software, mittels der sie dann die ComputeNodes erfassen, ihrerseits mit einem Betriebssystem versehen und in Betrieb nehmen.
OpenHPC will diese Vorgänge dadurch vereinfachen, dass ein einziger Software-Stack – bestehend aus weitgehend standardisierten und gegeneinander getesteten Komponenten – aus einem einzigen Repository heraus installiert wird, der sofort lauffähig ist und die Inbetriebnahme der ComputeNodes unmittelbar ermöglicht. Den Integrationsaufwand der verschiedenen Komponenten hat dabei das openHPC-Projekt bereits weitgehend erledigt, so dass dem Betreiber nur geringer Konfigurationsaufwand entsteht.
Erstausgabe
[Bearbeiten | Quelltext bearbeiten]Am 5. Februar 2016 erschien mit „OpenHPC 1.0.1“[3] das erste Release des Frameworks.
Unterstützte Betriebssysteme
[Bearbeiten | Quelltext bearbeiten]Zurzeit wird openHPC nur gegen CentOS 7.1 entwickelt und getestet. Es ist aber davon auszugehen, dass es mit kompatiblen Linux-Distributionen (Red Hat Enterprise Linux oder Scientific Linux) ebenso betrieben werden kann.
Nutzung
[Bearbeiten | Quelltext bearbeiten]Da HPC im Allgemeinen das „scale-out“-Prinzip (Verteilung aufwendiger Rechnungen auf mehrere Compute-Nodes) vorsieht, benötigt man einen Master-Node, der die Compute-Nodes mit der openHPC-Software und später mit Teilaufgaben versorgt.
Zur Nutzung von openHPC reicht es, im unterstützten Basis-Betriebssystem des Master-Nodes das openHPC-Repository einzutragen, um den integrierten Software-Stack herunterladen und installieren zu können.
Die Komponenten werden nach /opt/ohpc/
installiert, was ein für Master-Node und alle Compute-Nodes gemeinsames (NFS-)Verzeichnis sein sollte.
Die im openHPC-Projekt benutzten Komponenten sind:
- Warewulf als image-basierendes Compute-Node-Verwaltungssystem
- SLURM als Ressourcenmanager / Batch-Scheduler
- MPI-Bibliotheken (Intel-MPI, MVAPICH2, OpenMPI)
- verschiedene wissenschaftliche Bibliotheken wie FFTW, HDF5 (mit serieller und paralleler I/O-Unterstützung) und die GNU Scientific Library (GSL)
- InfiniBand-Treiber und -Tools (OFED, PSM, RDMA, IPoIB)
- Lustre-Client für das verteilte Filesystem
- Nagios-Client zur Verfügbarkeitsüberwachung
- Ganglia zur Performance- und Auslastungsüberwachung des Clusters
- Intel Cluster Checker zur Diagnose von Hard- und Softwareproblemen (lizenzpflichtig)
- Intel Parallel Studio XE C/C++ und Fortran-Compiler (u. U. lizenzpflichtig)
Gründungsmitglieder
[Bearbeiten | Quelltext bearbeiten](in alphabetischer Reihenfolge)
- Allinea Software
- Altair Engineering
- ANSYS des Argonne National Laboratory
- Atos
- Barcelona Supercomputing Center
- The Center for Research in Extreme Scale Technologies at Indiana University
- Cray
- Dassault Systemes SIMULIA
- Dell
- Fujitsu Systems Europe
- Hewlett Packard Enterprise
- Intel Corporation
- Jülich Supercomputing Centre
- Lawrence Berkeley National Laboratory
- Lawrence Livermore National Laboratory
- Leibniz Supercomputing Centre
- Lenovo
- Los Alamos National Laboratory
- MSC Software
- NEC
- Oak Ridge National Laboratory
- Pacific Northwest National Laboratory
- ParTec
- Penguin Computing
- Pittsburgh Supercomputing Center
- Sandia National Laboratories
- SENAI CIMATEC
- SUSE
- Texas Advanced Computing Center
Weblinks
[Bearbeiten | Quelltext bearbeiten]- Website des openHPC-Projekts
- GitHub-Seite des Projekts
- HPCwire: Altair plant Open-Source-Ausgabe seines PBSPro-HPC-Workload-Managers
- Gründungsbekanntmachung
- Heise Developer zum openHPC-Projekt
- The Inquirer über das openHPC-Projekt
- ZDNet zum openHPC-Projekt
- HPCwire über das openHPC-Projekt
- Scientific Computing über das openHPC-Projekt
- Das britische The Register über openHPC
- Intel Blogs: openHPC als „Grab-and-Go-Meals with Recipes“ für die schnelle Inbetriebnahme moderner ComputeCluster
Einzelnachweise
[Bearbeiten | Quelltext bearbeiten]- ↑ linuxfoundation.org ( des vom 9. März 2016 im Internet Archive) Info: Der Archivlink wurde automatisch eingesetzt und noch nicht geprüft. Bitte prüfe Original- und Archivlink gemäß Anleitung und entferne dann diesen Hinweis.
- ↑ openhpc.community
- ↑ openhpc.community