Grundlagen von Künstlicher Intelligenz (AI) und Maschinellem Lernen (ML) – Alkan Kaya
Neuronale Netzwerke: Aufbau und Funktionsweise – Mohamad Rashid Naimi
Supervised vs. Unsupervised Learning – Hauke Hornecker
Deep Learning und HPC: Potenziale und Herausforderungen – Farah Saif
Hardware-Beschleunigung für ML/AI: GPUs und TPUs – Marius Niveri
Parallelisierung von ML/AI-Modellen auf HPC-Systemen – Gregor Stange
Speicherarchitektur und I/O für AI-Workloads – Jakob Rinsdorf
Verteiltes Training von ML-Modellen in HPC-Umgebungen – Hark Merkau
Bibliotheken und Frameworks für ML auf HPC-Systemen – Noah Münstermann
Einsatz von AI/ML zur Optimierung von HPC-Systemen – Luis Amend
Zukunft der AI und ML im HPC: Exascale Computing und darüber hinaus – Mateen Khalid
Use Cases: AI und ML in der wissenschaftlichen Forschung auf HPC-Systemen – Eduard Fejl
Erasure Coding, RAID – Leo Grimme
Application Tracing – Jan Mägdefrau
Beispiele: scorep, tinyprof, tau, darshan, hpctoolkit, caliper, likwid
Non-invasives Application-tracing
Instrumentiertes Application Tracing
… as a Service – Christian Iltner
GPUs – Ben Giese
GPU Alternativen: FPGA, DPU, IPU, QPU, Vektorkarten – Jarne Münster
Rechnen auf distributed Memory – Laurent Reher
Quantum Computing (konkrete Anwendungen) – Helena Jäger
Green HPC – Luka Dinic
Debugging (gdb, DDT, compiler sanitizer, static code analysers [z.B. MPI-Checker]) – Florian Eigendorf