Inhalt und Ablauf

Mit der wachsenden Vielfältigkeit und Masse an Daten steigen auch die Herausforderungen zur Verarbeitung und Verwaltung von (Big) Data. Dieser Workshop gibt einen Überblick über das daraus entstandene Profil und die entsprechenden Tätigkeiten eines Data Engineers und führt über die klassische Welt von Data Warehouse und strukturierten Daten in die Konzepte und Prozesse von Big Data ein. Die Teilnehmer werden zunächst mit Begrifflichkeit und den dahinter stehenden Technologien sowie mögliche Einsatzgebiete von Data Warehouse und Business Intelligence auf Basis ihrer täglichen Arbeit vertraut gemacht.
Zusätzlich zur Aufklärung der traditionellen Datenorganisationen und Modelle werden die Grenzen dieser Ansätze diskutiert und das Themengebiet Big Data Verarbeitung und Architekturen eingeführt. Dieser Workshop richtet sich an Mitarbeiter und Verantwortliche aus den klassischen Bereichen Data Warehousing, BI und Data Engineering, und vermittelt einen Einstieg in die traditionellen und neuen Methoden zur Modellierung und Verwaltung von strukturierten sowie unstrukturierten Date ein.

Simon-Kaltenbacher

Short Facts

  • Referent: Simon Kaltenbacher
  • Sprache: Englisch
  • 19. März 2019
  • 10:00 – 17:15
  • Sofitel Hotel Munich Bayerpost, Bayerstraße 12, 80335 München

Lernziele

Einblick in die Welt eines Data Engineers

Einstieg in Verwaltung und Modellierung von strukturierten und unstrukturierten Daten

Verständnis für moderne Datenplattformen

Referent

Simon Kaltenbacher

ist Head of Technology bei der Alexander Thamm GmbH. Dort berät er Kunden beim Aufbau von Datenplattformen und unterstützt sie bei der Implementierung von Daten-Pipelines. Er verfolgt das Apache-Spark-Projekt intensiv seit Version 0.9 und hat bereits mehrere Schulungen und Vorträge zu dieser Technologie gehalten.

Agenda

federica-galli-449563
  • Grundsätzliches Konzept rundum Daten
    • Einführung in Datenmodelle und Datenbanken
    • Datawarehouse-Architektur – Schichten, Komponenten und Charakteristika
  • SQL für Data Warehousing
    • Normalisierte und de-normalisierteDatenmodelle
  • Einführung in Big Data
    • Wieviele V’s?
    • Grenzen traditioneller Ansätze
  • Batch-Modelle
    • Hadoop, Map-Reduce, HDFS
    • Pipelining mit Spark
  • Data Lakes Architekturen

Voraussetzungen

Grundlegende Kenntnisse in Statistik, Mathematik und Informatik sind notwendig. Für die Durchführung der praktischen Übungen wird ein Laptop benötigt.

Sind Sie an diesem Workshop interessiert?