Seminarsuche

Big Data Analysis mit (Py-)Spark

Julian von der Ecken

Kurzinformationen

18. Aug. 2020 - 19. Aug. 2020

Frankfurt/Main
€ 1790.00 zzgl. MwSt
€ 2130.10 inkl. MwSt

Neu Mit eigenem Laptop

Auf Anfrage

08. Dez. 2020 - 09. Dez. 2020

Köln
€ 1790.00 zzgl. MwSt
€ 2130.10 inkl. MwSt

Neu Mit eigenem Laptop

Auf Anfrage

Detailinformationen

Massive Datenströme aus industriellen Anwendungen führen schnell zu echten Big-Data-Problemen, deren Lösung verteiltes Rechnen auf einem Cluster erfordert. Wir stellen das Open-Source-Framework Apache Spark vor, um Datenanalyse auf einem Cluster skalierbar zu machen.

Der zweitägige Kurs steht unter dem Motto: Nicht reden, sondern machen! Wir holen die Teilnehmer bei ihrem Python-Wissen ab und wiederholen dieses, stellen die wichtigsten Konzepte und Tools (u.a. RDDs, Transformation, Actions, (Map-)Reduce, …) vor, und ermöglichen den Teilnehmern Programmiererfahrung mit PySpark anhand von Praxisaufgaben von leicht bis komplex zu sammeln.

  • Recap Python und PyData Stack
  • Einführung in Big Data Analysis mit PySpark
  • Grundlagen Spark (u.a. RDDs, Transformations & Actions, MapReduce)
  • Datenimport und erste einfache Datenanalysen (mit Spark SQL & DataFrames)
  • Interaktives Material und durchgehende interaktive Übungen (Jupyter Notebooks)

Dr. von der Ecken, Julian

Dr. Julian von der Ecken ist Senior Data Scientist und Trainer bei Point 8. Durch seine Arbeit sowohl im Bereich von industriellen Kundenprojekten im Anlagen- & Maschinenbau bis hin zur Schwerindustrie kann er auf ein breites Erfahrungsspektrum verschiedenster User Cases zurückgreifen. Für Point 8 entwickelt und gibt er zudem Trainings für verschiedene Zielgruppen. Julian war zuvor langjährig in der Datenanalyse in der(Bio-)Physik tätig und bringt damit oft den Querblick mit ins Projekt.

Seminarziel

Die Teilnehmer erhalten einen breiten Einblick in Spark, lernen Anwendungsfälle zu erkennen und die Pros und Contras des Frameworks abzuschätzen. Wir erleichtern den Einstieg in die Grundlagen von Spark (RDDs, Transformations & Actions…) und führen die Teilnehmer dann vom Datenimport über einfache Datenanalysen (mit Spark SQL & DataFrames) bis hin zu ersten eigenen Programmen für die Anwendung auf dem Cluster.

Zielgruppe

Wir richten uns an Data Scientists und Datenanalysten, die im Unternehmenskontext den Übergang und die ersten Schritte der Datenanalyse mit Spark suchen.

Voraussetzungen

Als Erweiterungsworkshop benötigen die Teilnehmer praxisnahe Grundlagen im Bereich der Datenanalyse. Python-Pakete für die Datenanalyse, -visualisierung und Statistik (z.B. pandas, numpy, matplotlib, scipy) sollten nicht fremd sein. Beispielsweise bedient der Kurs “Data Science Boot Camp” aus der TDWI Akademie relevantes Vorwissen für dieses Training.

Hard- Software Voraussetzungen

Eine besondere technische Anforderung an Hard- oder Software gibt es nicht. Ausreichend ist ein eigener Laptop mit einem aktuellen Internetbrowser. Unsere digitale Laborumgebung und unsere dokumentierten Jupyter-Notebooks für das interaktive Arbeiten bringen alles Weitere mit.

Sprachen

Seminar: Deutsch

Unterlagen: Englisch

Methode

Der Workshop nutzt umfangreiche, interaktive Übungen zur direkten Anwendung und anschließenden Vertiefung des Verständnisses. Wir legen Wert auf eine ausgewogene Mischung aus Vortrag, Diskussion und Praxisübungen (individuell und im Team).

Informationen

In der Teilnahmegebühr sind folgende Leistungen enthalten:

  • der Seminarvortrag und eine digitale Lernumgebung, Jupyter-Notebooks werden auch nach dem Kurz zur weiteren Nutzung zur Verfügung gestellt
  • Ihre persönliche Teilnahmebescheinigung
  • Catering inkl. Begrüßungskaffee, Mittagessen plus 2 Getränke, diverse Tagungsgetränke sowie 2 Kaffeepausen mit Snacks
  • ein kostenloses, 1-jähriges Abonnement der Fachzeitschrift BI-Spektrum


Teilnahmegebühr:

Weitere Informationen zu den Teilnahmegebühren finden Sie hier.

Disclaimer: Wir sind für die eigenen Inhalte, die wir zur Nutzung bereithalten, nach den allgemeinen Gesetzen verantwortlich. Von diesen eigenen Inhalten sind Querverweise (externe Links) auf die von anderen Anbietern bereit gehaltenen Inhalte zu unterscheiden. Diese fremden Inhalte stammen nicht von uns und spiegeln auch nicht unsere Meinung wider, sondern dienen lediglich der Information. Wir machen uns diese Inhalte nicht zu eigen und übernehmen trotz sorgfältiger inhaltlicher Kontrolle keine Haftung für die Inhalte externer Links. Für den Inhalt der verlinkten Seite sind ausschließlich deren Betreiber verantwortlich.