5th HPC Status Conference of the Gauß-Allianz

Europe/Berlin
Forschungskolleg Humanwissenschaften

Forschungskolleg Humanwissenschaften

Am Wingertsberg 4 61348 Bad Homburg v.d. Höhe Germany
Volker Lindenstruth (Johann-Wolfgang-Goethe Univ. (DE))
Description
Die Veranstaltung richtet sich an die gesamte Hochleistungsrechnen-Community in Deutschland. Die nationalen Aktivitäten sollen möglichst vollständig präsentiert werden. Die Konferenz fördert die Netzwerkbildung und den Austausch der verschiedenen Disziplinen zum gesamten Themenkontext des Hochleistungsrechnens. Im Mittelpunkt stehen die vom BMBF geförderten Forschungsprojekte, die ihren Status und ihre Zwischenergebnisse präsentieren und zur Diskussion stellen.
Participants
  • Alexander Reinefeld
  • Andreas Jeutter
  • André Brinkmann
  • Anja Gerbes
  • Arno Ziebart
  • Christian Bischof
  • Christian Plessl
  • Christian Terboven
  • Colin Glass
  • Dieter an Mey
  • Dirk Franke
  • Dörte C. Sternel
  • Erich Focht
  • Fabian Hempert
  • Fisnik Kraja
  • Franz-Josef Pfreundt
  • Gerd Rönsch
  • Hans Jürgen Lüdde
  • Henning Weber
  • Horst Schwichtenberg
  • Jadran Vrabec
  • Jan Eitzinger
  • Jan Wender
  • Jens Breitbart
  • Jens Doleschal
  • Jonas Stolle
  • Josef Weidendorfer
  • Kai Diethelm
  • Karsten Balzer
  • Kurt Binder
  • Lech Nieroda
  • Luciano Rezzolla
  • Lutz Schubert
  • Malte Hoffmann
  • Marc Hartung
  • Martin Kühn
  • Martin Thomas Horsch
  • Matthias S. Mueller
  • Michael Gerndt
  • Michael Klemm
  • Nicolas R. Gauger
  • Olaf Kaczmarek
  • Olaf Schneider
  • Pavel Saviankou
  • Ralph Müller-Pfefferkorn
  • Ramin Yahyapour
  • Robert Dietrich
  • Ronny Tschüter
  • Sergei Shudler
  • Simon Pickartz
  • Stefan Lankes
  • Thomas Ludwig
  • Thomas Röhl
  • Thomas Soddemann
  • Thomas Steinke
  • Tom Vierjahn
  • Torsten Asselmeyer-Maluga
  • Torsten Wilde
  • Ulrich Lang
  • Uwe Iben
  • Viktor Achter
  • Volker Lindenstruth
  • Wolfgang E. Nagel
  • Wolfram Hesse
  • Yvonne Percan
  • Monday, 14 December
    • 08:00 08:45
      Registration 45m
    • 08:45 09:00
      Grußworte 15m
      Speaker: Prof. Enrico Schleiff (Goethe-Universität Frankfurt)
    • 09:00 09:30
      Eröffnung 30m
      Opening of the 5th HPC Status Conference of the Gauß-Allianz.
      Speaker: Volker Lindenstruth (Johann-Wolfgang-Goethe Univ. (DE))
    • 09:30 09:40
      Die Gauss-Allianz 10m
    • 09:40 10:40
      How to simulate the most catastrophic events in the universe 1h
      Einstein's theory of general relativity predicts the existence of compact objects such as black holes and neutron stars, whose properties are the most extreme known and behind some of the most catastrophic events in the universe. I will present the numerical techniques and supercomputing infrastructure that is needed to explore the physics and astrophysics of these objects and predict their manifestations in terms of electromagnetic and gravitational waves.
      Speaker: Luciano Rezzolla (Institute for Theoretical Physics, Frankfurt, Germany)
    • 10:40 11:10
      Coffee break 30m
    • 11:10 11:40
      ELP – Effektive Laufzeitunterstützung für zukünftige Programmierstandards 30m
      Hybride Parallelisierung, also die Kombination von MPI und OpenMP und ggfs. einem weiteren Paradigma zur Programmierung von Beschleunigern bzw. Vektoreinheiten wird zunehmend wichtiger, um moderne Cluster effizient ausnutzen zu können. Im Rahmen von ELP wird unter Zuhilfenahme von Methoden der Compiler- und Laufzeittechnologie eine effektive Laufzeitunterstützung entwickelt, um leistungsfähige Softwarewerkzeuge in den Arbeitsfluss zu integrieren und insgesamt die Komplexität der Entwicklung paralleler Programme zu reduzieren. Ein besonderer Schwerpunkt liegt auf der Unterstützung der aktuellen Standards OpenMP 4.0 und OpenACC, welche die Programmierung von Beschleuniger- bzw. Vektoreinheiten moderner Rechnerarchitekturen unterstützen und standardisieren. In diesem Vortrag präsentieren wir die Beiträge von ELP zur Weiterentwicklung und Verbreitung der beiden Standards sowie zur Korrektheits- und Performanceanalyse hybrid-paralleler Programme mit den Werkzeugen MUST und VAMPIR.
      Speakers: Christian Terboven (RWTH Aachen University), Jan Wender (science+computing ag)
    • 11:40 12:10
      MyThOS – Operating System for Many Threaded Applications 30m
      Das vom BMBF im Rahmen des 3. HPC Calls geförderte Projekt „Operating System for Many Threaded Applications“ (MyThOS), adressiert die Entwicklung eines Betriebssystems, das insbesondere hochskalierbare Prozesse mit vielen, potentiell kurzen und dynamischen Threads effizient unterstützt. Traditionelle, monolithisch aufgebaute Betriebssysteme sind insbesondere für moderne Mehrkernprozessoren ungeeignet, da sie einen enormen Overhead nach sich ziehen. Dies wirkt sich v.a. bei der Erstellung von Threads aus, welches derzeit mehrere 10.000 Rechenzyklen benötigt. Dazu kommen Jitter, gelockte Datenzugriffe etc., die die Performanz weiter beeinträchtigen. Eine neue Betriebssystem-Struktur, die sich den Anforderungen moderner Höchstleistungsrechner und deren Anwendungen stellt, ist deshalb unverzichtbar. Die Projektergebnisse sollen unmittelbar anhand von Anwendungsszenarien aus den Bereichen Molekulardynamik, Strömungssimulation & Elektrodynamik sowie der verteilten Verarbeitung von Multimediadaten validiert werden. Darüber hinaus wird das Betriebssystem insbesondere für die Analyse sehr großer Datenmengen und den Umgang mit hoch-dynamischen Szenarien geeignet sein. Das Verbundprojekt wird von der Universität Ulm koordiniert und bringt mit Wissenschaftlern des HLRS, der BTU Cottbus, und der Universität Siegen sowie dem Alcatel-Lucent Bell Labs die Bereiche Höchstleistungsrechnen und Betriebssysteme mit der Industrie zusammen
      Speaker: Lutz Schubert (University of Ulm)
    • 12:10 12:40
      FAST – Dynamisches Scheduling in höchstskalierenden Umgebungen 30m
      Das Scheduling in HPC-Umgebungen ist bisher statisch, eine einmal getroffene Entscheidung zur Platzierung eines Jobs wird nicht mehr korrigiert. Dynamische Umgebungen mit einer Vielzahl gleichzeitig laufender Jobs unterschiedlicher Größe können jedoch zu einer unglücklichen Zuordnung von Anwendungen zu Knoten führen. Im Rahmen des FAST-Projekts wird ein Scheduling-Framework entwickelt, dass über ein verteiltes Monitoring-System die Qualität des aktuellen Schedules bewerten kann, diese an das Batch-System meldet und es ermöglicht, Jobs auf Anweisung des Batch-Systems transparent zwischen Knoten zu verschieben, um hierdurch dynamisch eine höhere Ausführungseffizienz zu erzielen.
      Speaker: Prof. André Brinkmann (Johannes Gutenberg-Universität Mainz)
    • 12:40 14:00
      Lunch break 1h 20m
    • 14:00 14:20
      SPPEXA Phase II – Übersichtsvortrag 20m
      N/A
    • 14:20 14:35
      SPPEXA Phase II: ADA-FS 15m
      N/A
    • 14:35 14:50
      SPPEXA Phase II: AIMES 15m
      N/A
    • 14:50 15:05
      SPPEXA Phase II: Exa-DG 15m
      N/A
    • 15:05 15:20
      SPPEXA Phase II: MYX 15m
      N/A
    • 15:20 15:50
      Coffee break 30m
    • 15:50 16:20
      SkaSim – Skalierbare HPC-Software für molekulare Simulationen in der chemischen Industrie 30m
      Durch den Einsatz von kraftfeldbasierten Molekulardynamik (MD) Simulationen sind zahlreiche praxisrelevante Probleme in den Ingenieurwissenschaften erstmals der Modellierung und Simulation zugänglich. Auf der Grundlage physikalisch sinnvoller molekularen Wechselwirkungen können technisch relevante Systeme sicher und zuverlässig analysiert werden. Die industrielle Entwicklung neuer Produkte und ressourceneffizienter Verfahren wird sich durch den Einsatz höchstskalierbarer molekularer Simulationen grundlegend verändern. Dadurch wird es Unternehmen der chemischen Industrie ermöglicht werden, molekulare Simulationen zur Lösung ingenieurwissenschaftlicher Aufgaben effizient anzuwenden und zunehmend Experimente zu ersetzen. Dabei müssen Genauigkeiten wie in hochwertigen realen Experimenten erzielt werden. Voraussetzung für den Erfolg sind hierbei optimierte molekulare Modelle, sowie eine extreme Effizienz der Simulation in jeder Hinsicht, die nur durch eine abgestimmte Entwicklung von Modellen, Simulationsmethoden und Software erreicht werden kann. Dieses Projekt erforscht höchstparallele MD und neue Methoden für die hochparallele mathematische Optimierung. Diese Ansätze fließen in die Verbesserung der molekularen Modelloptimierung und Simulation. Der anwendungsseitige Fokus liegt auf der Vorhersage von Eigenschaften reiner Stoffe, dem realen Gemischverhalten fluider Phasen und der Untersuchung von nanoskaligen Prozessen, sowie auf der Entwicklung darauf basierender neuer Methoden im Bereich fluider Phasengrenzen und Nukleation in reagierenden Systemen. Auf die Lösung dieser Aufgaben ist das interdisziplinäre SkaSim-Konsortium hervorragend vorbereitet: Das Verbundprojekt wird durch das Bundesrechenzentrum HLRS in Stuttgart koordiniert. Beteiligt sind zwei führende Unternehmen der chemischen Industrie BASF und Solvay, die KMUs Eurotechnica und DDBST, international anerkannte Universitätsinstitute der Ingenieurwissenschaften (TU Kaiserslautern und Universität Paderborn) und des wissenschaftlichen Rechnens (TU München), die forschungsstarke Hochschule Bonn-Rhein-Sieg, der Supercomputerhersteller Cray und die beiden Fraunhofer-Institute ITWM und SCAI. Die molekulare Modellierung und Simulation ist eine Schlüsseltechnologie der chemischen Industrie der Zukunft. Das Projekt SkaSim wird es ermöglichen, auf diesem Gebiet eine Spitzenposition zu erreichen und zu halten.
      Speaker: Dr Colin Glass (HLRS, University of Stuttgart)
    • 16:20 16:50
      HONK – Industrialisierung von hochauflösender Numerik für komplexe Strömungsvorgänge in hydraulischen Systemen 30m
      In der Produktentwicklung spielt die CFD-Simulation eine zentrale Rolle. Mit ihr ist es möglich, Wirkzusammenhänge in und zwischen Komponenten zu erarbeiten und die Funktion des Produktes durch Optimierung zu verbessern. Hierzu wird allerdings ein Software-Werkzeug benötigt, welches in der Lage ist, moderne Hardwarearchitektur effizient zu nutzen und so komplexe Strömungsvorgänge wirklichkeitsgetreu darzustellen. Das Projektteam arbeitet daran, eine solche Software zur Verfügung zu stellen. Als Basis dient ein Forschungscode, der auf der Discontinuous-Galerkin-Methode aufbaut. Während des Projektes wurde bereits demonstriert, dass eine detaillierte Analyse des Strömungsverhaltens einer realen Gaseinspritzung mit hoher Genauigkeit möglich ist. Der Strömungslöser wurde auf reale und hoch exakte Zustandsgleichungen erweitert und ist somit in der Lage, auch Mehrphasenströmungen mit Kavitation abzubilden. Zur Verbesserung der Bedienbarkeit können nun die erzeugten Daten direkt und parallel visualisiert und analysiert werden. Im weiteren Projektverlauf steht die weitere Verbesserung der Effizienz auf Höchstleistungsrechnern im Fokus. Diese wird begleitet durch die Entwicklung von in-situ Visualisierungtechniken zur Auswertung der immensen anfallenden Datenmengen. Ein weiteres zentrales Projektziel ist es, die gewonnenen Erkenntnisse der Allgemeinheit zu Gute kommen zu lassen. Daher werden die im Rahmen des Projekts erarbeiteten Software-Werkzeuge als Open Source allgemein zur Verfügung gestellt.
      Speaker: Fabian Hempert
    • 16:50 17:20
      Analysis of a Sound Source Mechanism in an Axial Fan 30m
      The prediction of the turbulent flow field in the tip clearance region of axial fans is of great technical interest for the determination of aerodynamic losses and the generation of fluid mechanically generated noise. Especially the tip-gap width has a substantial influence on the emitted acoustic pressure level. For the analysis of the unsteady turbulent flow field in the tip area of the axial fan blades, a newly developed flow solver for viscous, compressible flows, which is based on hierarchical Cartesian grids [1] is used. A major advantage of Cartesian-based solvers is the possibility to automatically generate the computational grid with arbitrary boundary refinement in parallel [3]. Predictions of the turbulent flow field are performed in a rotating axial fan at a Reynolds number of 9.36x105 based on the outer casing diameter. In order to handle complex boundaries the finite-volume method uses a fully conservative cut-cell method with a flux-redistribution technique for the treatment of small cells [2]. Furthermore, a parallel, rotationally periodic boundary condition for arbitrary refined Cartesian meshes was implemented. A mesh resolution study for a 72° segment of the fan was conducted with a number of mesh cells ranging from 50 to 1600 million cells where used. The operating point of the fan is defined by a volume flow rate of 0.65 m3/s and a rotational speed of 3000 rpm. The computation was performed with up to 90000 CPU Cores on the CRAY System Hornet and Hazel Hen at the High Performance Computing Center in Stuttgart (HLRS). In the present study the Navier-Stokes equations are solved in a rotating frame of reference, with a rotating outer casing wall and non-moving blades. At the inlet boundary the mass flow rate is prescribed. Adiabatic no-slip boundary conditions are applied along all walls and a fixed pressure is prescribed at the exit boundary. Sponge-layers are used to damp the reflecting waves at the inlet and outlet boundaries. A periodic boundary condition is applied in the circumferential direction. In order to apply the periodic boundary condition an overlapping region is used, in which at least two cell layers are used to maintain the second-order spatial accuracy. Since the grid itself is not periodic all primitive variables of the overlapping cells are reconstructed from the internal region using non-linear least squares interpolation. Simulations are performed for different tip gap widths where the results of the analysis as well as a comparison with RANS results will be included in the presentation of the paper. In particular, it will be shown that the turbulent flow field in the tip gap region represents a dominant noise source. References [1] Hartmann, D., Meinke, M., and Schröder, W., “A strictly conservative Cartesian cut-cell method for compressible viscous flows on adaptive grids,” Computer Methods in Applied Mechanics and Engineering, Vol. 200, No. 9-12, 2011, pp. 1038–1052. [2] Schneiders, L., Hartmann, D., Meinke, M., and Schröder, W., “An accurate moving boundary formulation in cut-cell methods,” Journal of Computational Physics, Vol. 235, 2013, pp. 786–809. [3] Lintermann, A., Schlimpert, S., Grimmen, J. H., Günther, C., Meinke, M., and Schröder, W., “Massively Parallel Grid Generation on HPC Systems,” Computer Methods in Applied Mechanics and Engineering, Vol. 277, 2014, pp. 131–153.
      Speakers: Mr Alexej Pogorelov (Institute of Aerodynamics, RWTH Aachen University), Dr Matthias Meinke (Institute of Aerodynamics, RWTH Aachen University)
    • 19:00 21:00
      Dinner 2h
  • Tuesday, 15 December
    • 09:00 09:45
      HPC in der Science Alliance Kaiserslautern e.V. 45m
      Seit September 2015 ist der Verbund aus dem Regionalen Hochschulrechenzentrum (RHRK) der TU Kaiserslautern und dem Competence Center für HPC des Fraunhofer ITWM unter dem Dach der Science Alliance Kaiserslautern Mitglied der Gauß-Allianz. Im Verbund der beiden Einrichtungen werden mehrere HPC Systeme betrieben, die den Einrichtungen der Fraunhofer Gesellschaft am Standort , den Fachbereichen und SFBs der TU Kaiserslautern sowie den angeschlossenen Forschungsinstituten der Science Alliance zur Verfügung stehen. In unserem Vortrag werden wir kurz unsere Hardwaresysteme und die Aufgabe der beiden Einrichtungen innerhalb des Forschungsstandortes Kaiserslautern beschreiben. Den Schwerpunkt des Vortrages werden aktuelle Forschungsprojektes des Lehrstuhls für Scientific Computing (Prof. N. Gauger) und des CC-HPC des ITWM (Dr. F.-J. Pfreundt) bilden. Franz-Josef Pfreundt wird über HPC Anwendungen in der Seismik, über ein neues Werkzeug (GPI-Space) zur Auto-Parallelisierung von Anwendungen sowie über erste Erfahrungen mit dem 1500 Node SoC Cluster OCEAN One berichten. Nicolas Gauger wird über den semi-automatischen HPC-tauglichen Übergang von Simulationssoftware hin zu Optimierungssoftware sprechen und Beispiele aus der optimalen aktiven Strömungskontrolle zeigen.
      Speakers: Franz Pfreundt (Unknown), Prof. Nicolas Gauger (TU Kaiserslautern)
    • 09:45 10:15
      FEPA – Projektstatus und weitere Schritte 30m
      Durch gestiegene Energiekosten haben sich die Randbedingungen für den Betrieb großer HPC- Rechenzentren verschoben. Die Betriebskosten machen einen immer weiter steigenden Anteil der Gesamtkosten über den Lebenszyklus eines Systems aus. Neben der Effizienz der Rechenzentrumsinfrastruktur wurde bisher das Potenzial für weitere Energieeinsparungen in Form der Software, die auf den Systemen läuft, weitgehend außer Acht gelassen. Der Energieverbrauch eines Systems hängt in hohem Maße von den Eigenschaften der ausgeführten Applikationen ab (z. B. Art und Intensität der Nutzung von Instruktionen, Cache und Memory). Im FEPA Projekt werden Werkzeuge und Methoden entwickelt um ein effektives systemweites Performanceprofiling und Monitoring der Applikationsperformance zu ermöglichen. Dadurch wird es Betreibern von HPC-Systemen ermöglicht Applikationen mit einem hohen Optimierungspotential zu erkennen und Beratern und Softwareentwicklern flächendeckend Zugriff auf Profilingdaten zu geben. Dieser Vortrag wird den derzeitigen Status des FEPA Projekts vorstellen und weitere Schritte aufzeigen
      Speaker: Dr Jan Eitzinger (FAU Erlangen-Nürnberg - RRZE)
    • 10:15 10:45
      Coffee break 30m
    • 10:45 11:15
      Score-E – Erweiterung von Performance-Analyse-Werkzeugen um Funktionen zur Energiebedarfsanalyse und -optimierung 30m
      Die im Rahmen früherer BMBF-Projekte entwickelte [Score-P-Bibliothek][1] stellt eine leistungsfähige und hoch skalierende Messinfrastruktur zur Verfügung, die von zahlreichen etablierten Werkzeugen zur Performance-Analyse und -Optimierung wie z. B. Vampir, Scalasca, dem Periscope Tuning Framework und TAU gemeinsam genutzt wird. Das Projekt *Score-E* hat es sich zum Ziel gesetzt, das hierbei entstandene Know-How zu nutzen, um die Werkzeuge auch für energiebezogene Analysen und Optimierungen nutzbar zu machen. Darüber hinaus werden im Projekt weitere Ergänzungen des Systems entwickelt wie beispielsweise fortschrittliche Visualisierungstechniken, die weitergehende, detailliertere Analysen ermöglichen. Von deren Einführung werden auch die klassischen performancebezogenen Anwendungen der Bibliothek profitieren. [1]: http://www.vi-hps.org/projects/score-p
      Speakers: Kai Diethelm (Gesellschaft für numerische Simulation mbH), Mr Thomas Vierjahn (RWTH Aachen)
    • 11:15 11:45
      SIMOPEK – Project Update 30m
      The steady rise in energy consumption by data centers world wide over the last decade and the future 20MW exascale-challenge in High Performance Computing (HPC) makes saving energy an important consideration for HPC data centers. A move from air-cooled HPC systems to indirect or direct water-cooled systems allowed for the use of chiller-less cold or hot water cooling. However, controlling such systems needs special attention in order to arrive at an optimal compromise of low energy consumption and robust operating conditions. This talk highlights first results from the SIMOPEK project which is developing new concept along with software tools for modeling the data center cooling circuits, collecting data, and simulating and analyzing operating conditions. A first model for the chiller-less cooling loop of the Leibniz Supercomputing Center (LRZ) will be presented and lessons learned will be discussed, demonstrating the possibilities offered by the new concept and tools.
      Speaker: Torsten Wilde (Leibniz Supercomputing Centre)
    • 11:45 12:15
      HPC-OpenModelica für Multiskalen-Simulationen technischer Systeme und Anwendung bei der Entwicklung energieeffizienter Arbeitsmaschinen 30m
      Ziel des Forschungsvorhabens HPC-OM ist die anwendungsbezogene Entwicklung von innovativen Algorithmen und HPC-Software für die Durchführung von Multiskalen-Maschinensimulationen. Kerngedanke des Projekts ist es, mathematische und syntaktische Kontextinformationen von Teilmodellen auszunutzen, um per Software ein gekoppeltes Gesamtmodell zu erzeugen, das trotz dessen Multiskalen-Phänomenen in hoher paralleler Effizienz simuliert werden kann. Die Entwicklungen werden direkt an der Open-Source-Software OpenModelica vorgenommen. Diese dient unter Anderem dazu technische Systeme, beschrieben mit Hilfe der Modellierungssprache Modelica, in Simulationsprogramme zu übersetzen. Das im Rahmen des Projektes entwickelt OpenModelica-Modul ermöglicht es automatisiert parallele Simulationen zu erstellen. Dies wird ermöglicht, indem die Berechnungsschritte in einen Taskgraphen ueberfuehrt werden. Die Tasks werden mit Hilfe von Scheduling-Algorithmen zur Compile-Zeit last-balanciert verteilt. Zudem wurden Löser zur parallelen Zeitintegration implementiert, um Parallelität auf mehreren Ebenen zu ermöglichen. Die verfolgten Ansätze und erzielten Ergebnisse werden in der Präsentation vorgestellt.
      Speaker: Marc Hartung (TU Dresden - ZIH)
    • 12:15 13:45
      Lunch 1h 30m