Autor: henkela

Support-Chat

Liebe Nutzer,

wir wollen es Ihnen leichter machen schneller Antworten auf Ihre Fragen zu erhalten und haben dafür neben unserer Ticket-Hotline einen Mattermost-Kanal eingerichtet. Während die Intention einen direkteren Kontakt anbieten zu können überwiegt hoffen wir auch, dass damit vielleicht auch eine Interaktion von Nutzern verschiedenster Fachrichtungen angeregt wird.

Projektanträge, Installationswünsche und größere Probleme melden Sie bitte weiterhin per Mail an unsere Ticket-Hotline

Wenn Sie sich unsicher sind, ob es ein großes Problem ist, ob ein Installationsanfrage überhaupt Sinn macht oder einfach kurz eine Frage los werden wollen versuchen Sie unseren Support-Chat.

Ihr HPC-Team

Veröffentlicht am | Veröffentlicht in Aktuelles

NVIDIA DGX-1 available

Dear users,

we are happy to announce that we can offer the access to two NVIDIA DGX-1 systems. NVIDIA promotes those as “the most powerful AI system in the world for the most complex challenges”. NVIDIA DGX-1 offers an AI supercomputer (in a box) for superior performance in the fields of artificial intelligence, machine learning and deep learning. Read more on NVIDIA Website.

The machines are equipped with 8 NVIDIA Tesla v100 GPUs with 16GB/GPU or 32GB/GPU, two Intel Xeon E5-2698 v4 2.2 GHz CPUs and 512GB 2nd generation high bandwidth memory yielding a peak performance of 1PFLOPS. The GPUs are interconnected via the NVIDIA NVLink and the network connection consists of 4x InfiniBand 100 Gbps EDR and 2x 10GbE

If you’re intested in using those machines send us an email at hpc@uni-mainz.de

MOGON II weiter an der Spitze deutscher Hochleistungsrechner

09.07.2018: Der Mainzer Supercomputer MOGON II weiterhin an der Spitze der schnellsten Hochleistungsrechner an deutschen Universitäten und unter den 100 schnellsten Supercomputern der Welt.

Die Johannes Gutenberg-Universität Mainz (JGU) hat 2016 und 2017 die zwei Phasen des Hochleistungsrechners MOGON II in Betrieb genommen, der mit einer Rechenleistung von zwei PetaFLOPS respektive 2.000.000.000.000.000 Gleitkommaoperationen pro Sekunde in der Liste der weltweit 500 schnellsten Rechner im November 2017 auf Platz 65 startete und auch im Juni 2018 mit Platz 87 noch unter den 100 schnellsten Rechnern der Welt rangiert. Damit ist der Mainzer Supercomputer zugleich weiterhin der schnellste Hochleistungsrechner an einer deutschen Universität. In der Liste der energieeffizientesten Supercomputer wird MOGON II weltweit nun auf Position 62 geführt (November 2017: Position 51). Der Name MOGON wurde in Anlehnung an das römische Mogontiacum, dem lateinischen Namen der Stadt Mainz gewählt.

Die Landesregierung, der Bund, die Johannes Gutenberg-Universität Mainz und das Helmholtz Institut Mainz (HIM) haben seit 2016 insgesamt 10,6 Millionen Euro in den neuen Hochleistungsrechner investiert, um die rheinland-pfälzischen Wissenschaftlerinnen und Wissenschaftler im Rahmen der Allianz für Hochleistungsrechnen Rheinland-Pfalz (AHRP) bis 2020 mit Rechenleistung der internationalen Spitzenklasse zu unterstützen.

MOGON II: einer der schnellsten Rechner der Welt

27.11.2017: Der Mainzer Supercomputer MOGON II ist schnellster Hochleistungsrechner an einer deutschen Universität und gehört zu den schnellsten 100 Supercomputern der Welt.

Die Johannes Gutenberg-Universität Mainz (JGU) hat im Oktober 2017 die zweite Phase von MOGON II in Betrieb genommen, der mit einer Rechenleistung von zwei PetaFLOPS respektive 2.000.000.000.000.000 Gleitkommaoperationen pro Sekunde in der Liste der weltweit 500 schnellsten Rechner die Position 65 einnimmt. Damit ist der Mainzer Supercomputer zugleich der schnellste Hochleistungsrechner an einer deutschen Universität. In der Liste der energieeffizientesten Supercomputer wird MOGON II weltweit auf Position 51 geführt. Der Name MOGON wurde in Anlehnung an das römische Mogontiacum, dem lateinischen Namen der Stadt Mainz gewählt.

Die Landesregierung, der Bund, die Johannes Gutenberg-Universität Mainz und das Helmholtz Institut Mainz (HIM) haben seit 2016 insgesamt 10,6 Millionen Euro in den neuen Hochleistungsrechner investiert, um die rheinland-pfälzischen Wissenschaftlerinnen und Wissenschaftler im Rahmen der Allianz für Hochleistungsrechnen Rheinland-Pfalz (AHRP) bis 2020 mit Rechenleistung der internationalen Spitzenklasse zu unterstützen.

Diese Investition ermöglichte es der JGU, einen Supercomputer aus 1.876 einzelnen Knoten aufzubauen, von denen 822 Knoten mit jeweils zwei 10-Kern Broadwell-Prozessoren und 1.046 Knoten mit jeweils zwei 16-Kern Skylake-Prozessoren von Intel ausgestattet sind. Die mehr als 49.000 Kerne sind mit einem 50 GBit/s Intel Omnipath-Netzwerk zwischen den Knoten gekoppelt und an ein Speichersystem mit 7,5 Petabyte nutzbarer Kapazität angeschlossen. MOGON II wird an der JGU durch das Zentrum für Datenverarbeitung (ZDV) und das Helmholtz-Institut Mainz (HIM) gemeinsam betrieben.

"Die Fortschritte der Computer-Technologie ermöglichen es, dass der neue Hochleistungsrechner bei nahezu siebenfacher Peak-Leistung gegenüber seinem Vorgängersystem mit einer Leistungsaufnahme von 657 kW nur 40 Prozent mehr Strom als dieses benötigt", erklärt Prof. Dr. André Brinkmann, Leiter des Zentrums für Datenverarbeitung der JGU. "Wir können unseren Wissenschaftlern somit bei vergleichsweise nur leicht ansteigenden Unterhaltskosten ein Hochleistungsrechnen der internationalen Spitzenklasse auf dem aktuellen Stand der Technik anbieten."

Veröffentlicht am | Veröffentlicht in Allgemein

Mogon 2 coming soon

Liebe HPC-Nutzer,

Das Hochleistungsrechnen ist eines der dynamischsten Bereiche in der ohnehin schnelllebigen IT-Welt. Nun wird die Technik in Kaiserslautern und Mainz erweitert. Mit dem Ziel, weiterhin Kapazitäten im Hochleistungsrechen nach dem Stand der Technik für die Wissenschaftlerinnen und Wissenschaftler des Landes bereitzustellen.

Für Mogon II werden in Mainz 8,7 Millionen Euro investiert. Die Investition umfasst dabei ein neues Cluster sowie einen neuen Fileserver. Bereits mit der ersten Ausbaustufe des neuen Hochleistungsrechner Mogon II an der JGU ist Rheinland-Pfalz wieder in der Liga der 500 leistungsstärksten Rechner der Welt vertreten (Platz 265, November 2016). Besonders stolz ist man darauf, dass man im Vergleich mit den anderen Clustern identischer Prozessorarchitektur (Broadwell, Xeon E5-2630v4) das effizienteste System in der TOP500 betreibt und damit eine Platzierung in der Top100 in der GREEN500 erzielen konnte (Platz 70).

Die aktuelle Systemkonfiguration von Mogon II findet Sie hier.

Weitere Informationen werden in Kürze veröffentlcht.

Ihr HPC-Team

Matlab-flags changed

Dear Users,

since we observe a considerable amount of Matlab-Jobs in the cluster, and observe some troubles in context with the Batch-System, we have made some changes on the matlab startup-script.

Before talking about the changes we want to remind you that your scripts should be compiled using the Matlab-Compiler since we have only a few licenses in the cluster and those are meant to be used for interactive use, mainly (code-checking, profiling,...).

One major issue that repeatedly is coming up is a mismatch of ressource reservation. Matlab tries to use all hardware on a machine by default. This might be fine on your local workstation but it's not on a cluster. As for Matlab there's just the option of taking one core or taking them all. This can be controlled by the use of the flag -singleCompThread. It seems like not many users are aware of this, which made us changing the startup to use this flag -singleCompThread by default. If you have a script that takes advantage of internal, parallelized routines of Matlab and want to allow it to take the full machine, you have to use the new flag -multiCompThread and reserve a full node, of coure.

Let's look at two examples how to start Matlab, just to elaborate it:

1.) Matlab-Script that needs only one computational thread

matlab -nosplash -r my_singleComp_script

2.) Matlab-Script that makes use of a lot of internal, parallelized routines (only inside an interactive job):

matlab -nosplash -multiCompThread -r my_multiComp_script

As mentioned above, the code should be compiled when run in the cluster as a job. Accordingly, the compiling should look like:

1.) mcc -R -m my_singleComp_script or
2.) mcc -R -multiCompThread -m my_multiComp_script

Note that it's NOT '-R -multiCompThread' but just '-multiCompThread'.

Your job reservation has to be adapted to the needs of your script, of course.

We have added the environment variable MATLABROOT to the module files to make the call of your compiled code a little more convenient:
./run_myCompiledCode.sh $MATLABROOT arg1 arg2 arg3 ...

In case you have a strong use of the Floating-Point-Unit you might consider using -R 'affinity[core(2)]' or more advanced reservations.

Your HPC-Team

Veröffentlicht am | Veröffentlicht in Software

NVidia OpenACC Kurs

Liebe Nutzer des Mogon-Hochleistungsrechners,

Liebe Kollegen aus Rheinland-Pfalz und im Rhein-Main-Gebiet,

wir freuen uns Ihnen einen OpenACC Kurs anbieten zu können. Die Firma NVIDIA, Mitentwickler von OpenACC, präsentieren Semi-Automatische Parallelisierung mit OpenACC in einem zweitägigen Kompaktkurs. Der Kurs richtet sich an alle Code-Entwickler, die ihren Code parallelisieren möchten.

OpenACC ist ähnlich zu OpenMP.  Bei der Nutzung dieser Interfaces werden pragmas verwendet,mit denen der Code annotiert wird, und damit eine Parallelisierung der Ausführung erreicht. OpenACC ermöglicht die Parallelisierung für CPU und GPU.

Sie erhalten bei Anmeldung (s.u.) eine Bestätigung über die Anmeldung. Zusagen zum eigentlichen Kurs werden nach Sichtung der Anmeldungen zeitnah versendet.

Anmeldeschluss ist der 29. August.

Ihr HPC-Team

 

Veranstaltungsort

Zentrum für Datenverarbeitung (ZDV) der Johannes Gutenberg-Universität Mainz, Anselm-Franz-von-Bentzel-Weg 12, 55128 Mainz

Termin

2016, Montag 5. September - Dienstag 6. September - 9:00 - 17:00 Uhr

Raum

Kursraum N33

Beschreibung

Semi-Automatische Parallelisierung mit OpenACC

Sprache

Englisch

Dozent

N.N. - NVIDIA GmbH

Registrierung

Sie können Sich unter diesem Link zum Kurs anmelden.

Voraussetzungen

C/C++ oder Fortran

Veröffentlicht am | Veröffentlicht in Aktuelles, Lehre

Forschungshighlight: Molecular Dynamics on MOGON’s GPU’s

Es ist uns eine Freude Sie auf eine aktuelle Veröffentlichung aus dem Fachbereich Physik hinzuweisen, die durch die Nutzung der GPU-Knoten von MOGON möglich wurde:
"Anomalous Fluctuations of Nematic Order in Solutions of Semiflexible Polymers" von S.A.Egorov, A.Milchev, K.Binder, erschienen inPhysical Review Letters 116, 187801 (2016).
(Alternativ hier)

(a) (a) Snapshot of a system of semiflexible polymers with length N = 32, stiffness \(\epsilon_b = 100 \) , at concentration \(\rho = 0.6 \) (deep in the nematic phase) (b) Typical conformation of a semiflexible polymer in the nematic phase (N = 64, \(\epsilon_b = 16\), \(\rho = 0.4\). (c) Schematic description of nematic order: each chain has its own cylindrical (bent) tube of diameter \(2r_{\rho}\), defined such that it contains only monomers from the considered chain. The tube is placed inside a straight wider cylinder of diameter \(2r_{eff}\). The definition of the deflection length \(\lambda\) is indicated.
(a) Snapshot of a system of semiflexible polymers with length N = 32, stiffness \(\epsilon_b = 100 \) , at concentration \(\rho = 0.6 \) (deep in the nematic phase) (b) Typical conformation of a semiflexible polymer in the nematic phase (N = 64, \(\epsilon_b = 16\), \(\rho = 0.4\). (c) Schematic description of nematic order: each chain has its own cylindrical (bent) tube of diameter \(2r_{\rho}\), defined such that it contains only monomers from the considered chain. The tube is placed inside a straight wider cylinder of diameter \(2r_{eff}\). The definition of the deflection length \(\lambda\) is indicated.
Plot of the deviation from perfect nematic order, \(1-S\), vs the relative reduction \(1 - \langle R^2_e \rangle^{1/2}/L\) of the end-to-end distance for three choices of N = 32, 64, and 128, and three choices of the \(N/\epsilon_b =\) 1, 2, and 4, as indicated. Different points with the same symbol refer to different choices of the density \(\rho\). The fully stretched chain would be the origin of the plot whereas the straight line shows \(1-S = 3\frac{\lambda}{\ell_p}\). Rigid rods would correspond to the ordinate axis here.
Plot of the deviation from perfect nematic order, \(1-S\), vs the relative reduction \(1 - \langle R^2_e \rangle^{1/2}/L\) of the end-to-end distance for three choices of N = 32, 64, and 128, and three choices of the \(N/\epsilon_b =\) 1, 2, and 4, as indicated. Different points with the same symbol refer to different choices of the density \(\rho\). The fully stretched chain would be the origin of the plot whereas the straight line shows \(1-S = 3\frac{\lambda}{\ell_p}\). Rigid rods would correspond to the ordinate axis here.

The nematic ordering in semiflexible polymers with contour length \(L\) exceeding their persistence length \(\ell_{p}\) is described by a confinement of the polymers in a cylinder of radius \(r_{eff}\) much larger than the radius \(r_{\rho}\) expected from the respective concentration of the solution. Large scale Molecular Dynamics simulations combined with Density Functional Theory are used to locate the Isotropic-Nematic \((I−N)\)-transition and to validate this cylindrical confinement. Anomalous fluctuations, due to chain deflections from neighboring chains in the nematic phase are proposed. Considering deflections as collective excitations in the nematically ordered phase of semiflexible polymers elucidates the origins of shortcomings in the description of the \(I−N\) transition by existing theories.

Veröffentlicht am | Veröffentlicht in Allgemein

Customizing bqueues

Many of you have noticed the increasing number of queues. This can be confusing when you just want to check the current status of the queues you're allowed to use. But there is an easy way to change this. You can tell bqueues to show just "your" queues by calling it using

If you want bqueues to always show your queues only, you can just add an alias to your .bashrc (found in your home-directory). Here, is a simple command to add it to your .bashrc-file:

Now, either you call

Or you wait until your next login to Mogon and the changes will be active.

Remark:
If you want to see all queues again, you have to call unalias bqueues . Then bqueues is back to "normal" for the current shell.

Your HPC Team

Veröffentlicht am | Veröffentlicht in TipsnTricks