teaching:wintersemester_2024_2025:supercomputer_forschung_innovation

Seminar Supercomputer: Forschung und Innovation

Beschreibung

In diesem Seminar geht darum, aktuelle Entwicklungen im Bereich des High-Performance Computings zu betrachten.

Beachten Sie auch unsere allgemeinen organisatorischen Hinweise zu Seminaren.

Zielgruppe

Das Seminar eignet sich für Studierende der Informatik in den Diplom- und Bachelorstudiengängen. Studierende anderer Studiengänge müssen die Anrechnung mit dem jeweiligen Prüfungsausschuss klären.

Interessierte Zuhörer sind auch herzlich willkommen.

Daten der Veranstaltung

Zeit Di. 10-12
Ort DKRZ Raum 034
Mailingliste SFI-2425

Dozenten

  1. Grundlagen von Künstlicher Intelligenz (AI) und Maschinellem Lernen (ML) – Alkan Kaya
  2. Neuronale Netzwerke: Aufbau und Funktionsweise – Mohamad Rashid Naimi
  3. Supervised vs. Unsupervised Learning – Hauke Hornecker
  4. Deep Learning und HPC: Potenziale und Herausforderungen – Farah Saif
  5. Hardware-Beschleunigung für ML/AI: GPUs und TPUs – Marius Niveri
  6. Parallelisierung von ML/AI-Modellen auf HPC-Systemen – Gregor Stange
  7. Speicherarchitektur und I/O für AI-Workloads – Jakob Rinsdorf
  8. Verteiltes Training von ML-Modellen in HPC-Umgebungen – Hark Merkau
  9. Bibliotheken und Frameworks für ML auf HPC-Systemen – Noah Münstermann
  10. Einsatz von AI/ML zur Optimierung von HPC-Systemen – Luis Amend
  11. Zukunft der AI und ML im HPC: Exascale Computing und darüber hinaus – Mateen Khalid
  12. Use Cases: AI und ML in der wissenschaftlichen Forschung auf HPC-Systemen – Eduard Fejl
  13. Erasure Coding, RAID – Leo Grimme
  14. Application Tracing – Jan Mägdefrau
    1. Beispiele: scorep, tinyprof, tau, darshan, hpctoolkit, caliper, likwid
    2. Non-invasives Application-tracing
    3. Instrumentiertes Application Tracing
  15. … as a Service – Christian Iltner
  16. GPUs – Ben Giese
  17. GPU Alternativen: FPGA, DPU, IPU, QPU, Vektorkarten – Jarne Münster
  18. Rechnen auf distributed Memory – Laurent Reher
  19. Quantum Computing (konkrete Anwendungen) – Helena Jäger
  20. Green HPC – Luka Dinic
  21. Debugging (gdb, DDT, compiler sanitizer, static code analysers [z.B. MPI-Checker]) – Florian Eigendorf

Noch offene Themen

  1. Weathergenerator
  2. Monitoring
  3. Workflow Engines
  4. Statische Verhaltensanalyse
  5. NeuralGCM

Zeitplan

  • 15.10.24 Themenvorstellung und Organisatorisches, Kurzvortrag zur Übersicht und HPC-Kontext
  • 22.10.24 frei - Themenwahlverkündung hier auf der Webseite
  • 29.10.24 frei
  • 05.11.24 frei
  • 12.11.24 frei
  • 19.11.24 10:15
    • Feedback Abgabe: 26.11.24, 13:59
    • 01. … as a Service 1) – Christian Iltner
    • 02. Green HPC 2) – Luka Dinic
    • 3. Quantum Computing (konkrete Anwendungen) 3) – Helena Jäger
  • 26.11.24 10:15
    • Feedback Abgabe: 26.11.24, 13:59
    • 04. Erasure Coding, RAID 4) – Leo Grimme
    • 05. Grundlagen von Künstlicher Intelligenz (AI) und Maschinellem Lernen (ML) 5) – Alkan Kaya
  • 03.12.24 10:15
    • Feedback Abgabe: 03.12.24, 13:59
    • 06. Neuronale Netzwerke: Aufbau und Funktionsweise 6) – Mohamad Rashid Naimi
    • 07. Supervised vs. Unsupervised Learning 7) – Hauke Hornecker
  • 10.12.24 10:15 Raum 023
    • Feedback Abgabe: 10.12.24, 13:59
    • 08. Use Cases: AI und ML in der wissenschaftlichen Forschung auf HPC-Systemen 8) – Eduard Fejl
    • 09. Deep Learning und HPC: Potenziale und Herausforderungen 9) – Farah Saif
  • 17.12.24 10:15
    • Feedback Abgabe: 17.12.24, 13:59
    • 10. Einsatz von AI/ML zur Optimierung von HPC-Systemen 10) – Luis Amend
    • 11. Zukunft der AI und ML im HPC: Exascale Computing und darüber hinaus 11) – Mateen Khalid
    • 20. Debugging 12) -– Florian Eigendorf
  • 07.01.25 10:15
    • Feedback Abgabe: 07.01.25, 13:59
    • 12. Speicherarchitektur und I/O für AI-Workloads 13) – Jakob Rinsdorf
    • 13. GPUs 14) – Ben Giese
  • 14.01.25 10:15
    • Feedback Abgabe: 14.01.25, 13:59
    • 14. Hardware-Beschleunigung für ML/AI: GPUs und TPUs 15) – Marius Niveri
    • 15. GPU Alternativen: FPGA, DPU, IPU, QPU, Vektorkarten 16) – Jarne Münster
  • 21.01.25 10:15
    • Feedback Abgabe: 21.01.25, 13:59
    • 16. Rechnen auf distributed Memory 17) – Laurent Reher
    • 17. Verteiltes Training von ML-Modellen in HPC-Umgebungen 18) – Hark Merkau
  • 28.01.25 10:15
    • Feedback Abgabe: 28.01.25, 13:59
    • 18. Parallelisierung von ML/AI-Modellen auf HPC-Systemen 19) – Gregor Stange
    • 19. Bibliotheken und Frameworks für ML auf HPC-Systemen 20) – Noah Münstermann
1) , 2) , 3) , 4) , 6) , 7) , 8) , 9) , 11) , 12) , 14) , 15) , 16) , 17) , 18) , 19) , 20)
Jannek Squar
5) , 10) , 13)
Anna Fuchs
teaching/wintersemester_2024_2025/supercomputer_forschung_innovation.txt · Last modified: 2024-11-19 19:02 by Jannek Squar

Donate Powered by PHP Valid HTML5 Valid CSS Driven by DokuWiki