Projekt „Big Data“

Beschreibung

Das Buzzword “Big Data” bezeichnet umgangssprachlich große Datenmengen aber auch eine Industrie, welche aus diesen Daten mit Hilfe der Datenanalyse Wert schöpft. Big Data wird typischerweise neben ihrer Größe durch vier weitere Charakteristiken ausgezeichnet: ihrer Variabilität, dem stetigen und massiven Zuwachs an neuen Daten, potenziell schlechter Datenqualität und ihrer Komplexität.

Methoden aus der Statistik und des maschinellen Lernens ermöglichen es computergestützt Modelle von Sachverhalten zu erzeugen und zu verifizieren. Neue Erkenntnisse können so durch die automatisierte Auswertung dieser Daten gewonnen werden. Global-Players wie Google und Facebook nutzen diese Techniken beispielsweise um Werbung zielgerichtet zu platzieren und somit den Werbeerlös zu maximieren. Die Techniken sind jedoch auch in der Wissenschaft vielseitig einsetzbar, stellen jedoch einen Paradigmenwechsel in der wissenschaftlichen Arbeitsweise dar.

Im Projekt wird eine Einführung zu Big Data gegeben und aktuelle wissenschaftliche Fragestellungen vorgestellt. Anschließend werden über das Semester hinweg, die Aufgaben selbständig in Kleingruppen bearbeitet.

Diese Aufgaben umfassen u.A.

  • Die Analyse von bestehenden Daten unter Verwendung von maschinellem lernen
  • Die Weiterentwicklung von Werkzeugen aus dem Bereich Data Engineering oder die Leistungsanalyse der Werkzeuge
  • Die Umsetzung von Analyseverfahren, Algorithmen oder Visualisierungstechniken

Das exakte Thema als auch der Anteil aus Programmiertätigkeit, Theorie und Evaluation kann gemeinsam mit den Betreuern nach Wunsch der Teilnehmer gestaltet werden.

Beachten Sie auch unsere allgemeinen organisatorischen Hinweise zu Projekten.

Zielgruppe

Das Seminar eignet sich für Studierende im Bachelorstudiengängen mit Bezug zur Informatik sowie Masterstudiengängen. Interessierte Zuhörer sind auch herzlich willkommen.

Daten der Veranstaltung

Ort DKRZ, Raum 034
Zeit Montag, 16:15-17:45 Uhr
Vorbesprechung Montag, 16.10.2017
Mailingliste BDP-1718

Dozenten

Themenliste

Die Themenliste ist nicht vollständig. Gerne gehen wir auf Eure Vorschläge ein.

  • Wolkenkamera
    • Ziel: anhand von Photographien einer stationären Kamera den Bewölkungsgrad zu ermitteln.
    • Hierfür sollen neuronale Netze verwendet werden.
  • Semantische Suche
    • Ziel: Untersuchung in wieweit Apache Solr für die semantische Suche, d.h., ähnliche Begriffe genutzt werden kann
  • Big Data Platform für Erdsystemdaten
    • Ziel: Untersuchung der Leistungsfähigkeit von Ophidia
  • Effizientes Management von wissenschaftlichen Metadaten
    • Ziel 1: Effiziente Speicherung und Suche von Metadaten wissenschaftlicher Anwendungen in bspw. MongoDB
    • Ziel 2: Dynamische hierarchische Namensräume der Metadaten über FUSE
  • DAG/Workflow processing engines
    • Ziel: Untersuchung bestehender Engines zur Definition und Verarbeitung von azyklischen Graphen welche Bearbeitungsschritte in Datengetriebenen Anwendungen darstellen.
    • Optimierungen solcher Graphen
  • Apache Flink Leistungsanalyse
    • Ziel: Verständnis der Flink-Architektur und Ermittlung dessen Effizienz
    • Nutzung von Flink testen mit Beispielworkflows und Erstellung von Benchmarks
  • Analyse und Optimierung der Leistungsfähigkeit von FUSE

Zeitplan

Als Vorgehensweise werden wir uns monatlich zu einem Status-Update treffen. Gerne können Arbeiten in der Vorlesungsfreien Zeit abgeschlossen werden. Ansonsten können individuelle Termine mit den Betreuern vereinbart werden.

  • 16.10. 2017 – Vorbesprechung
    • Einführung in Big Data (45 min)
    • Themenideen
    • Vorläufige Themenvergabe
  • 06.11. 2017 – Vorstellung der einzelnen Gruppen
    • Detaillierte Themenvorstellung
    • Ansatz/Methodik
    • Zeitplan
  • 04.12. 2017 – Statusupdate
  • 08.01. 2018 – Statusupdate

Literaturhinweise