Table of Contents
Projekt „Big Data“
Beschreibung
Das Buzzword “Big Data” bezeichnet umgangssprachlich große Datenmengen aber auch eine Industrie, welche aus diesen Daten mit Hilfe der Datenanalyse Wert schöpft. Big Data wird typischerweise neben ihrer Größe durch vier weitere Charakteristiken ausgezeichnet: ihrer Variabilität, dem stetigen und massiven Zuwachs an neuen Daten, potenziell schlechter Datenqualität und ihrer Komplexität.
Methoden aus der Statistik und des maschinellen Lernens ermöglichen es computergestützt Modelle von Sachverhalten zu erzeugen und zu verifizieren. Neue Erkenntnisse können so durch die automatisierte Auswertung dieser Daten gewonnen werden. Global-Players wie Google und Facebook nutzen diese Techniken beispielsweise um Werbung zielgerichtet zu platzieren und somit den Werbeerlös zu maximieren. Die Techniken sind jedoch auch in der Wissenschaft vielseitig einsetzbar, stellen jedoch einen Paradigmenwechsel in der wissenschaftlichen Arbeitsweise dar.
Im Projekt wird eine Einführung zu Big Data gegeben und dann aktuelle wissenschaftliche Fragestellungen vorgestellt. Anschließend werden über das Semester hinweg, die Aufgaben selbständig in Kleingruppen bearbeitet.
Diese Aufgaben umfassen u.A.
- Die Analyse von bestehenden Daten unter Verwendung von maschinellem Lernen
- Die Weiterentwicklung von Werkzeugen aus dem Bereich Data Engineering oder die Leistungsanalyse der Werkzeuge
- Die Umsetzung von Analyseverfahren, Algorithmen oder Visualisierungstechniken
Das exakte Thema als auch der Anteil aus Programmiertätigkeit, Theorie und Evaluation kann gemeinsam mit den Betreuern nach Wunsch der Teilnehmer gestaltet werden.
Beachten Sie auch unsere allgemeinen organisatorischen Hinweise zu Projekten.
Zielgruppe
Das Seminar eignet sich für Studierende im Bachelorstudiengängen mit Bezug zur Informatik sowie Masterstudiengängen. Interessierte Zuhörer sind auch herzlich willkommen.
Daten der Veranstaltung
Dozenten
- Prof. Dr. Julian Kunkel (Ansprechpartner)
- Andrej Fast
- Heinrich Widmann
Themenliste
Die Themenliste ist nicht vollständig. Gerne gehen wir auf Eure Vorschläge ein.
- Wolkenkamera
- Ziel: anhand von Photographien einer stationären Kamera den Bewölkungsgrad zu ermitteln.
- Hierfür sollen neuronale Netze verwendet werden.
- Effizientes Management von wissenschaftlichen Metadaten
- Ziel 1: Effiziente Speicherung und Suche von Metadaten wissenschaftlicher Anwendungen in bspw. MongoDB
- Ziel 2: Dynamische hierarchische Namensräume der Metadaten über FUSE
- Analyse des Linux Kernel Overheads
- Exploration der Eigenschaften von News
- Semantische Suche
- Ziel: Untersuchung in wieweit Apache Solr für die semantische Suche, d.h., ähnliche Begriffe genutzt werden kann
- Big Data Platform für Erdsystemdaten
- Ziel: Untersuchung der Leistungsfähigkeit von Ophidia
- DAG/Workflow processing engines
- Ziel: Untersuchung bestehender Engines zur Definition und Verarbeitung von azyklischen Graphen welche Bearbeitungsschritte in Datengetriebenen Anwendungen darstellen.
- Optimierungen solcher Graphen
- Apache Flink Leistungsanalyse
- Ziel: Verständnis der Flink-Architektur und Ermittlung dessen Effizienz
- Nutzung von Flink testen mit Beispielworkflows und Erstellung von Benchmarks
- Analyse von News zur Suizidprevention
- Allgemeine News Analyse bspw. welche Abhängigkeiten zwischen News besteht
- Wieviel Zeit vor Veröffentlichung der News fand der Event der in den News beschrieben steht statt
- Korrelation zwischen Firma und Sentiment
- Machine learning AI for a computer game
- Intelligent chat bot responding to user questions, see PeCoH
- Webpage Crawler and Indexer
Themenzuteilung (provisorisch)
Exploration der Eigenschaften von News
Teilnehmer: Alexander Spikofsky, Sara Yüksel, Tatyana Galitskaya
Analyse von News zur Suizidprevention
Teilnehmer: Nina Arndt, Melanie Budde, Ariana Sliwa
Betreuer: Julian Kunkel
Analyse von News-Artikeln – Sentimentanalyse mit Word2vec
Teilnehmer: Raffael Diestel, Maike Schubert
Wolkenkamera
Teilnehmer: Marcel Steger, Jan Zickermann
Betreuer: Tobias Finn, Julian Kunkel
Semantische Suche mit Apache Solr
Teilnehmer: Eike Knopp, Minh Hieu Nguyen
Betreuer: Andrej Fast, Heinrich Widmann, Julian Kunkel
Big Data Platform für Erdsystemdaten
Teilnehmer: Nele Lips, Dominik Scherer
Betreuer: Jakob Lüttgau, Julian Kunkel
AI for a computer game
Teilnehmer: Friedrich Braun, Valentin Krön
Betreuer: Julian Kunkel, Eugen Betke
Chat bot
Teilnehmer: Felicitas Castrian, Paul Offner, Merlin Sewina
Betreuer: Julian Kunkel, Andrej Fast
Klassifizierung von Musik-Genres mit ANN
Zeitplan
Als Vorgehensweise werden wir uns monatlich zu einem Status-Update treffen. Gerne können Arbeiten in der Vorlesungsfreien Zeit abgeschlossen werden. Ansonsten können individuelle Termine mit den Betreuern vereinbart werden.
- 16.10. 2017 – Vorbesprechung
- Vorgehensweise bei Projekten
- Einführung in Big Data (30 min)
- Vorläufige Themenvergabe
- 06.11. 2017 – Vorstellung der einzelnen Gruppen
- Detaillierte Themenvorstellung
- Ansatz/Methodik
- Zeitplan
- 04.12. 2017 – Statusupdate
- 15.01. 2018 – Statusupdate
- 19.02. 2018 – Zwischenpräsentation
- 19.03. 2018 – Abschlusspräsentation
Literaturhinweise
- Sentiment:
- Flink:
- Tensorflow