Community Artikel

Unterstützung der Aufmerksamkeit in Videokonferenzen durch KI // TDWI Young Guns Mailing Mai 2021

Veronika Demykina

 

Veronika schreibt zum Thema "Unterstützung der Aufmerksamkeit in Videokonferenzen durch KI". Unterstützt hat sie Dr. Andreas Totok.
Habt ihr ein spannendes Thema, welches ihr teilen wollt? Tretet mit uns in Kontakt. Wir freuen uns von euch zu hören.

Über Veronika und Andreas

Veronika ist als Master-Studentin seit einigen Monaten bei den Young Guns. Über ihr Studium der angewandten Kognitions- und Medienwissenschaften an der Universität Duisburg-Essen, das darin gewonnene Interesse an Statistik und Business Intelligence, gelangte sie in die spannende Welt der Daten. Seit 2019 arbeitet Veronika bei der adesso SE in der Line of Business Data & Analytics und ist im Bereich Business Engineering in Workshops und Projekten tätig. In diesen geht es thematisch um den Aufbau und die Nutzung zentraler Datenplattformen, unternehmensweitem Data Management sowie die Entwicklung von Data & Analytics Strategien und KI Use Cases.

Andreas Totok beschäftigt sich seit Studium und Promotion mit der Integration und der Auswertung von Unternehmensdaten. Er ist seit 2004 Mitglied im TDWI und steht den Young Guns als Mentor zur Seite. Beruflich leitet er das in der Finanz Informatik Solutions Plus beheimatete KI Competence Center für die Sparkassen-Finanzgruppe.

Persönliche Worte über Beweggründe, Motivation und Themeneinleitung

Schon über ein Jahr hält die Corona-Krise die Welt in Atem. Doch sind gerade Krisen wertvolle Ideengeber und Motivatoren, bestehende Prozesse zu überdenken, neue Möglichkeiten und ihre Grenzen auszukundschaften, zu evaluieren sowie daraus entstehende Erkenntnisse zukunftig gewinnbringend zu nutzen. So auch der Einsatz von Videokonferenzen. In einer Studie des Borderstep Instituts wurden 500 Geschäftsreisende zu den Themen Homeoffice und Videokonferenzen in Corona-Zeiten online befragt und über 60 Prozent der Befragten gaben an, an mindestens zwei Tagen der Woche an Videokonferenzen teilzunehmen. Schüler und Studenten sind wahrscheinlich aufgrund von Home-Schooling bzw. E-Learning noch häufiger in virutellen Meetings vertreten.

Mit steigenden Impfzahlen und den damit verbundenen Debatten rund um Öffnungsstrategien sowie einer Rückkehr zur Normalität, wie man sie vor der Pandemie kannte, stellt sich unweigerlich die Frage: Welche Erfahrungen nehmen wir aus dieser Zeit mit und was passiert mit all den vorteilhaften Erkenntnissen aus Online-Konferenzen? Denn viele sind sich einig: auch nach der Corona-Pandemie wird deren Einsatz bestehen bleiben. Die Vorteile liegen auf der Hand: der Wegfall von Anfahrts- und ggf. Übernachtungskosten schonen nicht nur den Geldbeutel der Unternehmen, sondern auch die zeitlichen Ressourcen der Mitarbeiter. Im Lehrkontext kann der Wegfall des Pendelns zur (Hoch-) Schule zu mehr Kapazitäten für den Wissenserwerb und die Wissensverarbeitung führen. Ein Beitrag zum Klimaschutz könnte dadurch ebenfalls geleistet werden. So stellte die oben genannte Studie heraus, dass durch den Wegfall der Geschäftsreisen der Bahnverkehr dauerhaft um 28 Prozent, der Autoverkehr um 35 Prozent und der Flugverkehr um 22 Prozent zurückgehen könnten. Schon alleine durch den Geschäftsreiseverkehr könnten so die Treibhausgasemissionen um 3 Millionen Tonnen jährlich reduziert werden.

Die Nutzung von Videokonferenzen bringt jedoch auch Herausforderungen mit sich. Es treten Effekte wie Überforderung, Ermüdung sowie Ablenkung auf. Durch den Wegfall von kurzen Kaffeepausen oder auch einfach nur dem Gang zum nächsten Konferenzraum (oder Hörsaal), erhöht sich die Arbeitsbelastung. In den einzelnen Online-Meetings mit wechselnden Themen und Teilnehmenden, die sich terminlich aneinander reihen, wird volle Aufmerksamkeit und Konzentration erwartet. Als wäre das nicht genug, können verstärkt Unsicherheiten auftreten, da unsere Wahrnehmung für die Stimmung und Haltung der Teilnehmenden über das Videobild stark eingeschränkt ist. Gestik und Mimik geben uns im realen Leben ein klares Feedback, wie auch die Körperhaltung. Wie sitzt jemand da? War das ein Nicken oder ein leichtes Augenbrauchenzucken? All diese Signale geben uns Rückmeldung über Zustimmung oder Ablehnung aber auch darüber, ob sich Müdigkeit breit macht. Die Suche nach diesen Signalen, verbunden mit der verstäkten Arbeitsbelastung, kostet uns viel Energie. Eine zentrale aber leider auch endliche Ressource rückt somit in den Fokus: unsere Aufmerksamkeit.

Diese Erkenntnis sowie der wachsende Datenverkehr durch den Einsatz der Video-Telefonie und ihre absehbar weitere Nutzung könnte jedoch auch zur Optimierung genutzt werden. Wenn uns Fahrassistenzsysteme darauf hinweisen können, dass wir müde werden und eine Pause brauchen, warum sollte das dann nicht auch in Videokonferenzen der Fall sein? Weiter gedacht könnte anonymisiert an den Sprecher gespiegelt werden, ob vielleicht eine Auflockerungseinheit oder Pause eingelegt werden sollte, da die Audienz nicht mehr fokussiert oder zu sehr abgelenkt scheint. Gleichzeitig würde so die Effizienz von Video-Konferenzen und die Produktivität jedes Einzelnen gesteigert werden können. Durch eine verbesserte Balance von Belastung und Pausen, verbesserte Selbstwahrnehmung und -regulation würde weiter ein wertvoller Beitrag für das psychische Wohlbefinden am Arbeitsplatz geleistet werden können.

In einem Studentenprojekt zum Anfang der Pandemie entwickelte ich mit Kommilitoninnen eine Projektidee, bei der auf Basis von Videodaten Signale der Unaufmerksamkeit anhand der Kopfposition sowie Gesichts- und Augenmerkmale identifiziert werden. Ziel war es, ein System zu entwerfen, das in der Lage ist, umgehend einzugreifen und Lernende in ihrer Selbstregulation zu unterstützen. In diesem Kontext wurde ein Konzept für ein System entwickelt, das Aufmerksamkeit mittels Machine Learning vorhersagt und Empfehlungen zur Verbesserung dieser, z.B. durch verschiedene kleine Übungen, generiert. Vorstellbar wären entsprechende unmittelbare Hinweise über Unaufmerksamkeit als PopUp-Nachricht. Mittels Deep Learning und neuen Feedback-Daten für das System, also ob es richtig lag oder nicht, sollte die Trefferwahrscheinlichkeit verbessert werden. Auch der Lehrende sollte über die aktuelle Aufmerksamkeit der Studierenen Feedback erhalten. Desweiteren könnte am Ende einer Online-Konferenz eine Zusammenfassung der Aufmerksamkeit sowohl den Studierenden als auch Lehrenden als weiterer Bestandteil der Optimierung der virtuellen Zusammenarbeit dienen.

Videodaten würden hauptsächlich die visuelle Aufmerksamkeit messen. Als Weiterentwicklung wäre daher denkbar auch biometrische oder diverse Daten von Input-Devices wie Tastatur, Maus, Mikrofon (Geräuschepegel der Umgebung) in das System und dessen Aufmerksamkeitsdetektion einfließen zu lassen. Eine laute Umgebung kann zum Beispiel nachweislich zu Konzentrationsschwierigkeiten und verminderter Arbeitsleistung führen. Selbst bei Hintergrundgeräuschen mit niedrigem Niveau kann die Verarbeitung im Kurzzeitgedächtnis, das logische Denkvermögen und das Wohlbefinden signifikant beeinträchtigt werden. Daher wäre es denkbar, dass ein hoher Geräuschpegel als Einflussvariable in die Klassifikation einfließen sollte.

Der Einsatz eines solchen Systems (ggf. auch im Kontext von Videokonferenzen in Unternehmen) bietet vielversprechende Möglichkeiten, muss aber weitere Themenbereiche berücksichtigen. Da wäre u.a. die Echtzeitverarbeitung der Daten zu nennen, deren Leistung und Performance von vielen verschiedenen Parametern abhängig ist. Außerdem wird der Nutzer in seiner häuslichen und privaten Umgebung aufgezeichnet, weshalb dieser sich in seiner Privatsphäre gestört und dadurch verunsichert fühlen könnte. Der Datenschutz muss oberste Priorität haben, sodass die gewonnen Informationen nicht missbräuchlich genutzt werden können. Eine falsch-negative Einschätzung der Aufmerksamkeit könnte außerdem einen gegenteiligen Effekt nach sich ziehen, indem es erst aufgrund des falschen Feedbacks zu Unaufmerksamkeit kommt. Außerdem muss im Zuge der Gleichberechtigung und Fairness berücksichtigt werden, dass das System niemanden benachteiligt oder diskriminiert.

Zu Anfang der Pandemie brachte Zoom ein Feature auf den Markt, das sich ähnlichen Ideen bediente – vielleicht ein Beispiel, wie es nicht gehen sollte. Bei dem Feature wurde die Aufmerksamkeit der Zuhörer nicht auf Grundlage ihrer Bild- oder Audiodaten gemessen, sondern auf Grundlage dessen, ob der Nutzer die Zoom Meeting-Ansicht geöffnet und aktiv hatte oder nicht. Wenn ein Teilnehmer den Zoom Desktop Client oder die Mobile App für mehr als 30 Sekunden nicht „im Fokus“ behielt, so wurde dem Gastgeber eine Uhranzeige neben dem Namen des Teilnehmers aufgeblendet. Diese Verfolgungsfunktion konnte zwar auch deakiviert werden, der Administrator konnte sie aber für alle Benutzer verbindlich machen. Zum 2. April 2020 wurde dieses Feature eingestellt.

Microsoft plant, das Wohlbefinden mit Hilfe von biometrischen Daten zu messen und damit die laufende Arbeit in MS-Office-Anwendungen zu unterstützen. Wenn das Belastungsniveau vom System als zu hoch beurteilt wird, soll der Algorithmus darauf hinweisen und Vorschläge machen, wie das Stressniveau reduziert werden könnte.

Dies zeigt die unendliche Weite von Möglichkeiten und Potenzialen, wie Daten aus sowie für Videokonferenzen nutzbringend verwertet werden könnten. In einem privaten Studenten-Projekt versuchen wir nun, diese Idee umzusetzen und daraus Expertise zu gewinnen. Im Sinne: Der Weg ist das Ziel. Wer uns darin unterstützen möchte, ist herzlich eingeladen sich bei mir zu melden.

 Zu Veronikas Konzept – Andreas kommentiert

Wie reagiert man auf das geänderte Kommunikationsverhalten in Corona-Zeiten? Video- bzw. Webkonferenzen sind allgegenwärtig und aus unserem Büroalltag nicht mehr wegzudenken. Nicht jeder ist diese Arbeitsform allerdings gewöhnt und wie schnell lässt man sich in Meetings durch Sofortnachrichten, eintreffende E-Mails oder andere Reize ablenken? Dabei lässt die Aufmerksamkeit nach und man verpasst wichtige Informationen. Man selbst wird möglicherweise unzufrieden und fühlt sich überfordert. Im Unterschied zum klassischen Meeting im Konferenzraum erhält der Sender von Informationen nur ein schwaches Gefühl dafür, ob seine Inhalte wirklich den Empfänger erreicht haben.

Veronika stellt in Ihrem Beitrag einen spannenden Ansatz dar, wie man Menschen bei ihrer Kommunikation im Home-Office bzw. der Kommunikationen zwischen räumlich verteilten Standorten durch automatisierte Hinweise unterstützen kann. Dabei setzt sie auf Erkenntnisse aus der Kognitionspsychologie auf und kombiniert diese mit den aktuellen Möglichkeiten von visuellen Erkennungsmethoden des maschinellen Lernens. Nach meiner Einschätzung ist der Ansatz voraussichtlich kurzfristig technisch umsetzbar wie beispielsweise die automatische Verfolgung von Blickrichtungswechseln. Es ist plausibel, dass dies kombiniert mit weiteren Faktoren zu einer guten Wahrscheinlichkeitseinschätzung der Aufmerksamkeit der Teilnehmer führen kann. Auf dieser Basis können den Teilnehmern Hinweise wie "macht doch mal Pause" oder "bitte zuhören" in eine laufende Sitzung eingeblendet werden.

Auch wenn der Ansatz in der Theorie sehr schlüssig konzipiert ist, kann dieser in der Praxis schnell zu Konflikten führen. So besitzen wir in Deutschland eine gesetzlich verankerte starke betriebliche Mitbestimmung. Ein gerade hinsichtlich des Einsatzes von IT-Systemen immer wieder sehr kontrovers diskutiertes Thema ist die automatisierte Leistungskontrolle. So ist es beispielsweise nicht erlaubt, Mitarbeiter am Arbeitsplatz dauerhaft mit einer Videokamera zu überwachen. Wie schnell kann die vorgestellte Aufmerksamkeitserkennung aber in diese Richtung gedeutet werden?

Aus meiner Sicht sollte das Konzept von vornherein diese kritischen Punkte behandeln und diesen durch passende Maßnahmen entgegenwirken. Eine Möglichkeit ist, in der Implementierung jeden Personenbezug zu vermeiden. Es sollten keine Aufmerksamkeitsdaten über die einzelnen Teilnehmer gespeichert oder protokolliert werden. Mögliche Ergebnisdaten für den Moderator einer Konferenz sollten nur auf aggregierter Ebene ausgewiesen werden und auch nur, wenn eine vorher festgelegte Teilnehmerzahl erreicht wurde. Selbst dann können Ergebnisdaten aber noch kritisch gesehen werden. Am besten wäre es wahrscheinlich, wenn Aufmerksamkeitshinweise dem Moderator und den Teilnehmern nur situativ angezeigt und in keiner Form gespeichert bzw. ausgewertet würden.

Ansonsten warte ich gespannt auf die Realisierung eines Prototyps. Ich könnte mir als Basis hierfür gut einen Fork des quelloffenen Jitsi-Meet vorstellen.

Ausgewählte Themen/Artikel

Inspirierendes Buch:

KI verändert die Spielregeln: Geschäftsmodelle, Kundenbeziehungen und Produkte neu denken (Volker Gruhn, Andreas von Hayn)

Artikel zu Microsofts Vorhaben (Danke Andreas!):

Microsoft will mit Biometrie Wohlbefinden messen https://www.com-magazin.de/news/microsoft/microsoft-biometrie-wohlbefinden-messen-2661998.html

Presseartikel zu Mindeststandards für Videokonferenzen vom Bundesamt für Sicherheit in der nformationstechnik:

Mindeststandards für Videokonferenzen: Damit Vertrauliches vertraulich bleibt https://www.bsi.bund.de/DE/Service-Navi/Presse/Pressemitteilungen/Presse2021/210316_Mindeststandards-Videokonferenzen.html

Meine Frage an die Community

Welche weitere Themen sollten aus Eurer Sicht bei einer Einführung eines solchen Systems berücksichtig werden?

Welche Algorithmen würden sich Eurer Meinung nach für eine schnelle aber auch gute Vorhersage der Aufmerksamkeit anbieten?

Würdest Du so ein Plug-In/Feature nutzen? Warum oder warum nicht?

Was meint ihr? Beteiligt euch jetzt an der Diskussion bei LinkedIn oder Slack.

Meine Highlights

Veronika: Hier möchte ich auf die F*ckUp Night am 20.05.2021 eingehen: Virtuell und trotzdem eine super spannende Veranstaltung, die grade Einsteigern die Angst vor dem Scheitern nimmt. Unter dem Motto „Irren ist menschlich“ zeigten verschiedene Sprecher auf, dass Projekte nicht immer nach Plan laufen und generell Flexibilität der Projektbeteiligten einen hohen Stellenwert einnimmt. Es ist die Art und Weise, wie wir mit Fehlern umgehen und das diese bei richtiger Kommunikation einen echten Mehrwert zur Weiterentwicklung beitragen können. Dies wiederrum kann dann immer noch zum Erfolg führen. Sich vom Schock erholen, Selbstreflektion sowie Weiter- und Bessermachen – das ist meine persönliche Lesson Learned aus der Veranstaltung.

 

 

 

TDWI Young Guns Mailing Oktober 2020 | Ein Blick hinter die Kulissen

Alex Krolla & Christoph Kreutz

Herzlich Willkommen zum Young Guns-Orga Mailing. Heute möchten wir euch einen Blick hinter die Kulissen bieten und euch die Möglichkeiten zur Mitgestaltung der Young Guns Welt aufzeigen.

Vorstellung

Alex' Steckenpferd ist Kommunikation. Sie ist Teil vom TDWI Young Guns Kernteam und schon seit Gründung mit dabei. Sie stellt die komischen Fragen und versucht mit neuen Formaten und Möglichkeiten, einen wertvollen Rahmen für unsere Young Guns zu generieren. Sie arbeitet als Projektleiterin für Markenstrategien in einer Brandingagentur.

Christoph ist der direkte Draht zwischen den Young Guns und dem TDWI Verein. Als Vorstandmitglied ist er unser Mann für alle Entscheidungen. Mit seinem großen Vertrauen in die Eigenverantwortlichkeit der Young Guns ermöglicht er das Ausprobieren neuer Formate und die Stärkung der Community. Und packt auch gerne mit an, die Formate umzusetzen.

 

BarCamp Nachbericht

Unser heimliches Lieblingsformat für den Austausch innerhalb der Community. Im September haben wir das zweite digitale Data & Analytics BarCamp durchgeführt. Das Feedback: Durchweg positiv! Das freut uns so sehr, da wir so vor allen Dingen auch den überregionalen Austausch stärken können. Das ist ja auch unglaublich wichtig, wenn man sich sonst eher so in seiner eigenen kleinen Welt und Informationsblase bewegt. Im Blogartikel könnt ihr alles ganz genau nachlesen. Und die Planung für Vol. 3 ist schon voll im Gange.

Du möchtest mitplanen?

Melde dich gerne unter young-guns(at)tdwi.eu! Wir freuen uns schon auf dich :)

 

Young Guns Strategiemeeting 2021 Nachbericht

Am 16.10. fand unser jährliches Strategiemeeting statt. Hier schaffen wir uns gemeinsam Zeit, um Pläne für unsere Aktivitäten im nächsten Jahr zu schmieden. 2021 steht unter dem Motto „noch mehr Eigenverantwortlichkeit schaffen“. Besonders freuen wir uns darüber, dass auch unser Strategiemeeting von Mal zu Mal wächst. Wo sich letztes Jahr 6 engagierte Menschen getroffen haben, sind wir diesmal sogar mit 11 Personen in die konkrete Planung gegangen: Wir möchten Chapter aufbauen und neue Formate etablieren. Wir möchten weiter Mehrwert für dich schaffen und das Tor zur einfachen Wissensvermittlung und TDWI Community bilden.

Alle ToDos und Pläne und was wir uns weiter vorstellen präsentieren und kommunizieren wir auf unserer Hauptplattform SLACK – Komm gerne dazu, schau’s dir an und werde Teil der Community!

 

Allgemeine Präsentationsmöglichkeiten

Was können wir Young Guns eigentlich für dich sein? Wir verstehen uns als Rahmen und Präsentationsplattform. Unsere unterschiedlichen Formate bieten dir die Möglichkeit dich und dein Thema vor unserer Community und auch im gesamten Verein zu präsentieren. Da wir herstellerunabhängig und inhaltsgetrieben arbeiten, finden dich so alle, die nach Inhalten und Mehrwert suchen.

Und wo kannst du dich genau präsentieren und einbringen?

  • Young Guns Mailing: Wir vernetzen dich mit einem passenden Mentor zu deinem Thema. Ihr schreibt zusammen ein kurzes Mailing, was euch an dem Thema besonders interessiert und wieso es für die Community so wertvoll ist. Ergänzt um weiterführende Leseempfehlung war es das auch schon. Wenig Aufwand, große Wirkung :)
  • BI-SPEKTRUM Artikel: Sehr fachlich und wissenschaftlich fundiert schreibst du einen Artikel zu deinem Thema. Hier bekommst du Feedback durch den Fachbeirat/TDWI Vorstandsvorsitz Prof. Dr. Carsten Felden. Die BI-SPEKTRUM wird an alle Vereinsmitglieder versendet.
  • TDWI Blog: Egal ob einmalig oder regelmäßig. Du kannst unsere Plattform nutzen um themengetrieben gefunden zu werden. Du musst dir nicht die Mühe machen deinen eignen Blog aufzubauen. Du kannst unsere Plattform nutzen.
  • TDWI Podcast: Themen aus dem Blog können hier gut weiterverarbeitet werden (und andersherum). Welches Format darfst du bestimmen. Interview oder Betrag oder noch was ganz anderes?
  • Eigene Publikation: Wir helfen dir und vernetzen dich mit passenden „Mitschreibern“.
  • Young Guns Telko: Jeden 1. Freitag im Monat halten wir uns über aktuelle Entwicklungen auf dem Laufenden. Du kannst einmalig teilnehmen und punktuell erleben wie es so bei uns abläuft, oder du willst langfristig Mitgestaltung und die anderen aktiven Young Guns besser kennenlernen. Komm einfach mal dazu :)

 

Eventempfehlungen

TDWI Virtual:

Sei bei der TDWI Virtual dabei! Folgende Themen werden an den drei Terminen vorgestellt:

06. Oktober 2020 (die Vorträge können alle im Check-In auf der Webseite nachträglich gehört werden)
Framing the data-driven company: Data Strategy // Data Governance

27. Oktober 2020
Building the data-driven company: Architecture // Data Management

10. November 2020
Working in the data-driven company: Advanced Analytics and AI // Data Science

Melde dich kostenfrei an!


Kick-Off TDWI Themen-Zirkel:

Als neues Format plant der TDWI Verein Themen-Zirkel aufzubauen. Auch diese leben vom Engagement eines jeden Einzelnen. Am 26.10.2020 findet der „Kick-Off TDWI Themen-Zirkel“ statt, wo Themen gesucht und definiert werden.

Melde dich gerne unter young-guns(at)tdwi.eu, wenn du Interesse hast, ein Thema vorzustellen oder auch, wenn dich interessiert, welche Themen vorgestellt werden, um Teil der Themen-Zirkel zu werden. Wir freuen uns sehr auf dich und was wir gemeinsam auf die Beine stellen können.

 

Young Guns Insight

Wir versuchen immer weiter zu wachsen. Das geht natürlich nicht ohne Strukturen zu schaffen, die sich selber tragen. Wir möchten keine starre Regierung vorgeben, der man einfach hinterherläuft. Wir möchten so viel Flexibilität bieten, wie eben nur möglich ist. Dafür haben wir mal die unterschiedlichen Stufen von Engagement zusammengefasst, damit jeder auch für sich entscheiden kann, wieviel kann und möchte ich mich einbringen.

Habt ihr Fragen zu uns? Besucht uns bei LinkedIn oder Slack.

___________________________________________________________________________________

TDWI Young Guns Mailing August 2020 | Interaktive Datenanalyse mit wenig Ressourcenverbrauch

Finn Klophaus & Saskia Wachs

Vorstellung

Finn ist seit Anfang des Jahres in Kontakt mit dem TDWi und richtet, sobald wieder möglich, ein BarCamp in seinem Studienort Siegen aus. Parallel zu seinem BWL-Studium ist er als studentischer Berater tätig und begeistert sich für intelligente Datenanalyse, gerne in Bezug auf Marketing- und Strategieentscheidungen.

Saskia hat im vergangenen Jahr ihr Wirtschaftsinformatikstudium mit Data Science Schwerpunkt abgeschlossen und im Anschluss daran das Data Science Traineeprogramm bei der Infomotion GmbH absolviert. In ihrem aktuellen Kundenprojekt beschäftigt sie sich mit der intelligenten Analyse von Kundendaten und entwickelt dafür automatisierte Workflows in KNIME.

Persönliche Worte über Beweggründe, Motivation und Themeneinleitung

Während es Großkonzernen aufgrund ihrer Marktposition und Größe leichter fällt, neue Abteilungen und Zuständigkeiten für Big Data und KI zu etablieren oder entsprechende Budgets freizugeben, fehlt es im Mittelstand oft an den dafür erforderlichen Ressourcen. So sind dreistellige Millionenbeträge für Data-Projekte bei DAX-Konzernen keine Seltenheit. Bei Mittelständlern hingegen ist bereits der Schritt zur externen Beratung eine Hürde - entsprechende Fachkräfte für den eigenen Betrieb zu finden sowieso schwierig. Der nächste Schritt bleibt somit aus und wird mit an ihre Grenzen stoßenden Excel-Tabellen kompensiert. Um nicht abgehängt zu werden, braucht es daher Lösungen, die keine zu großen Einstiegshürden bedeuten.

Als derartige Lösungen eignen sich insbesondere interaktive Softwareprodukte, welche intuitiv und ohne Programmierkenntnisse nutzbar sind. Zu nennen ist hier vor allem das spannende Tool KNIME, vergleichbar mit dem IBM SPSS Modeler. KNIME wurde entwickelt von der Uni Konstanz und bietet neben der einfachen Bedienung auch eine große, hilfsbereite Community.

Prozesse werden in KNIME als Workflow grafisch dargestellt und daher gleich dokumentiert. Ein Workflow besteht aus mehreren Bausteinen, hinter denen Befehle in verschiedenen Programmiersprachen liegen, was unerfahrenen Nutzern zu Gute kommt. Sie sind in einer Liste sortiert und über ihre Funktion leicht auffindbar, auch ohne sie vorher zu kennen. Die Bausteine sind außerdem nach Kategorien farblich markiert, so dass leicht ersichtlich ist, in welchem Bereich des Workflows Daten aus verschiedenen Datenbanken oder Quellen eingelesen, aufbereitet oder zu einer Graphik verarbeitet werden. Erfahrene Nutzer, die bereits eigene, erprobte Skripte geschrieben haben, können diese jedoch genauso gut hinter einem eigenen Baustein ablegen und verwenden.

Diese kostenfreien Software-Lösungen zur interaktiven Datenanalyse, die sich auch ohne Vorkenntnisse verwenden, oder zumindest nach einmaliger Einführung entsprechend bedienen lassen, können außerdem auch ohne Anfangsinvestitionen vollumfänglich genutzt werden. Grafische Benutzeroberflächen erlauben eine Bedienung ohne Beherrschen von Programmiersprachen. Anwendungsbeispiele sind aus eigener Erfahrung das einmalige Automatisieren von wiederkehrenden ETL-Prozessen, aufwendige Analysen und Reporting, die Auswertung von Kundenverhalten oder Vorhersagemodellen. Auch von repetitiven Aufgaben, wie dem Versenden von Messdaten an Kunden aus verschiedenen Datenquellen, ließen sich vereinfachen, sodass mehr Zeit für andere Aufgaben bleibt. Ein gutes Beispiel in dem Kontext ist ein Kunde, der Informationen ans Bundesstatistikamt übermitteln musste und jeden Monat Daten aus etlichen Excel-Dateien kopiert und in eine große eingefügt hat. Dank eines Workflows kann er sich die Zeit nun sparen ihn bei Bedarf intuitiv anpassen.

Mit der Zeit und steigender Erfahrung des Benutzers ist in KNIME neben den Möglichkeiten des Data-Mining vor allem auch der Einsatz von Machine Learning möglich und bietet so eine gute Basis für weitere Entwicklungen in Unternehmen.

Aber bilde dir deine eigene Meinung - Hier ein paar spannende Links und Empfehlungen:

Meine Fragen:

  1. Da ich noch im Studium bin: Wann kamen in eurem Werdegang die Begeisterung und Spezialisierung für Data auf?
  2. Kennt Ihr gute Beispiele, wie Unternehmen mit wenig Ressourcen größere Datenprojekte aus eigener Kraft gefahren haben?
  3. Welche Tools benutzt ihr für die Datenanalyse?
  4. Was sind für euch Best Practice Beispiele im Bereich Datenanalyse?

Was meint ihr? Beteiligt euch jetzt an der Diskussion bei LinkedIn oder Slack.

 

Mein Highlight:

Mein Highlight bei den Young Guns lässt sich gar nicht auf ein bestimmtes Event beziehen, sondern es ist vielmehr der Umgang miteinander. Ganz gleich welchen beruflichen Hintergrund oder akademischen Grad man besitzt, es wird über alle Ebenen hinweg auf Augenhöhe kommuniziert. Ich habe mich von Anfang an super wohl gefühlt und glaube, dass die Young Guns-Kultur jedem einen leichten Einstieg, Teamarbeit und vor allem gemeinsame Produktivität fördert.

___________________________________________________________________________________

TDWI Young Guns Mailing Juni 2020 | Transparency in Machine Learning

Christian Url und Raphael Branger

Vorstellung

Christian ist seit einem halben Jahr bei den Young Guns in Wien. Er hat soeben sein Statistikstudium abgeschlossen und arbeitet bei mayato, einem BI-Consultingunternehmen. Ein großes Interesse liegt in der Tranzparenz von Machine Learning Modellen und damit befasst sich auch seine Masterarbeit.

Raphael studierte Wirtschaftsinformatik und hält einen MA in Information Management. Heute arbeitet er als Principal Consultant Data & Analytics bei der IT-Logix AG mit über 18 Jahren Praxiserfahrung im Business Intelligence und Datawarehousing Umfeld. Seit 2019 engagiert er sich für den Aufbau der TDWI Young Guns Community in der Schweiz.

Persönliche Worte über Beweggründe, Motivation und Themeneinleitung

Transparenz von Machine Learning Modellen wird ein immer wichtigeres Thema, denn gerade „Black-Box-Modelle“ erfreuen sich großer Beliebtheit ob ihrer guten Vorhersagegüte. Black-Box-Modelle sind, wie der Name es schon sagt, Modelle, die einem Algorithmus folgen, dessen Entscheidungen allerdings nicht direkt nachvollziehbar sind. Damit die Vorhersagen aber möglichst transparent sind, also z.B. einzelne Gruppen nicht ungleich behandelt werden, oder der Einfluss einzelner Variablen auf das Ergebnis gemessen werden soll, ist es wichtig, diese Modelle und vor allem die Entscheidungen der Modelle auch als Mensch nachvollziehen zu können.

Betrachten wir beispielsweise folgende Fragestellung: „Wie viele Fahrräder werden an einem Tag ausgeliehen?“ Hier kann nun von Interesse sein, warum die Vorhersage für die Tage schwankt, also „welche Variable hat einen wie starken Einfluss auf die vorhergesagten Werte?“ In diesem Fall können Methoden wie Partial-Dependence-Plots hilfreich sein, die modellagnostisch sind und somit nicht auf einen bestimmten Algorithmus basieren. Eine weitere Möglichkeit ist es, das komplexe Modell – nehmen wir ein Neuronales Netz – mit einem Einfacheren, z.B. einer logistischen Regression, zu nähern. In Letzterer können die Ergebnisse einfach interpretiert werden und eventuell sieht man auch einige Zusammenhänge, die das Neuronale Netz modelliert.

Ein weiterer Ansatz liegt in der Modellierung von Vorhersageintervallen, denn oftmals ergeben Machine Learning Modelle nur Punktschätzer. Vorhersageintervalle können hier hilfreich sein, um eine Güte dieser Vorhersagen ableiten zu können. Diese Problematik kann unter anderem bei Random Forests beobachtet werden - ein Modell, bei dem als Vorhersage lediglich ein einzelner Wert geschätzt wird. Ein Lösungsansatz sind die Quantilen Random Forests. Das sind Modelle, die neben des Schätzers auch noch weitere Werte für Intervallgrenzen liefern. Man kann also schon folgern, in welchem Bereich der Vorhersagewert mit 95%-iger Wahrscheinlichkeit liegt. Nachdem die Schätzer der Intervallgrenzen recht unstabil sind, haben wir in meiner Masterarbeit ein anderes Verfahren entwickelt: Man schätzt die IQR (interquartile range, also die Quantile, in denen jeweils 25% und 75% der Ergebnisse liegen) mittels eines Quantilen Regression Forests und streckt diese durch multiplikative Dehnungsfaktoren zu validen Vorhersageintervallen eines selbstgewählten Levels (conformal inference). Somit kann also die Fragestellung „Wie viele Fahrräder werden an einem Tag ausgeliehen“ nicht nur mit einer einzelnen Zahl beantwortet werden, sondern man kann sagen „mit 95%-iger Wahrscheinlichkeit zwischen 50 und 100, im Mittel 80“. Hier sieht man auch gleich, dass die Intervalle eben nicht symmetrisch sein müssen, was gerade bei echten Daten ohnehin kaum der Fall ist.

Aber bilde dir deine eigene Meinung - Hier ein paar spannende Links und Empfehlungen:

Meine Fragen

  1. Wart ihr schon mal mit Fragestellungen der Interpretierbarkeit von Machine Learning Ergebnissen konfrontiert?
  2. Welche Methoden habt ihr verwendet, um diese Fragestellungen zu adressieren?
  3. Glaubt ihr, dass sich der Fokus stärker auf die Themen von Fairness und Transparenz in Machine Learning richten wird?

Was meint ihr? Beteiligt euch jetzt an der Diskussion bei LinkedIn oder Slack.

Mein Highlight

Mein bisheriges Highlight bei den Young Guns war das virtuelle BarCamp im Mai 2020. Es gab die bisher einzigartige Möglichkeit ortsungebunden Erfahrungen miteinander auszutauschen. So konnten sich Teilnehmer*innen aus dem gesamten DACH-Raum vernetzen. Die Themen waren entsprechend breit aufgestellt, so dass für jeden etwas dabei war. Diskutiert wurde z.B. über Data Lakes und Data Governance - weit gefächerte Begriffe also, mit denen alle Anwesenden zuvor in verschiedenstem Ausmaß in Berührung kamen. Das beflügelte einen lebhaften Austausch und die zeitliche Begrenzung der Sessions wurde bis aufs Äußerste ausgereizt. Insgesamt empfinde ich – und so war auch das Feedbeck der Teilnehmer*innen – dieses Format als eine ideale Ergänzung zu den BarCamps vor Ort.

Tipps

Vienna Deep Learning Meetup
Import AI Newsletter
The Banana Data Podcast von Dataiku

____________________________________________________________________________________

TDWI Young Guns Mailing April 2020 | Umsetzung eines Data Lakes

Dr. Sebastian Rose und Dr. Gero Presser

Vorstellung

Sebastian ist seit 2016 bei der MYTOYS Group (member of the otto group) im Bereich Analytics und Data Science tätig. Seine Aufgabenschwerpunkte bestehen in der Entwicklung eines adaptiven und personalisierten Produktlistenscores, eines dynamischen Marketingattributionsmodels und der Konzeption und Umsetzung von Data Science Anforderungen an eine IT –Architektur. Zuvor forschte Sebastian 5 Jahre an Humboldt-Universität zu Berlin zu neurowissenschaftlichen Grundlagen von Sprache und des Einflusses von „fake news“ auf die Wahrnehmung der betroffenen Personen. 

Gero ist Mitgründer und Geschäftsführer bei der QuinScape GmbH, einem Dortmunder IT-Dienstleistungsunternehmen mit 170 Mitarbeitern und Fokus auf Data & Analytics. Er organisiert die Meetup-Gruppe „Business Intelligence & Analytics Dortmund“ mit über 1.000 Mitgliedern und ist Vorsitzender des TDWI Roundtable Ruhrgebiet. Zuvor hat er an der TU Dortmund Informatik mit dem Nebenfach Betriebswirtschaftslehre studiert, 1999 mit Auszeichnung abgeschlossen und im Anschluss über die ressourcenschonende Entscheidungsfindung autonomer Agenten promoviert. Er ist leidenschaftlicher Skifahrer und glücklicher Familienvater mit zwei Söhnen und einem Hund.

Persönliche Worte über Beweggründe, Motivation und Themeneinleitung

Durch die Einführung eines Data Lakes öffnet sich für Unternehmen die Möglichkeit, nahezu unbegrenzte Mengen an strukturierten und unstrukturierten Daten aus unzähligen Quellen zu speichern ohne Rücksicht darauf, ob und wie diese Daten in Zukunft genutzt werden können. Durch seine Beschaffenheit fördert ein Data Lake das Experimentieren und die Datenexploration durch einen breiteren Kreis an (Nicht-)Analysten und (Citizen) Data Scientists. Doch wie geht man mit den organisatorischen und personellen Herausforderungen bei der Einführung eines Data Lakes um, nachdem die strategische Entscheidung gefallen und ein Business Sponsor gefunden wurde? Zunächst müssen sich die an der Implementierung beteiligten Parteien auf Anwendungsfälle verständigen, die klar und deutlich den Bedarf und die Vorteilhaftigkeit eines Data Lakes aufzeigen. Anhand dieser Anwendungsfälle kann dann über die hierfür relevante Architektur gesprochen werden (z.B. key value vs. spaltenorientierte Datenbanken). Diese Punkte, Identifikation von spezifischen Anwendungsfälle und die daraus resultierende Anforderung an die Architektur, sind nicht nur Voraussetzung für die nächsten konkreten Schritte, sondern dienen auch dazu, für die beteiligten Mitarbeiter ein gemeinsames Verständnis aus- und aufzubauen. Wenn dies gelungen ist, kann im nächsten Schritt darüber diskutiert werden inwieweit eine Data Lake Technologie hausintern, unter Einsatz von vereinzelten Tools oder durch Erwerb einer Komplettlösung umgesetzt werden kann oder soll. Für Letzteres ist es im nächsten Schritt sinnvoll, für die Evaluierung externer Anbieter ein Proof of Concept zu erstellen, welches abgeleitet von den Anwendungsfällen Eigenschaften definiert, die es nicht oder unbedingt haben muss. Neben diesen organisatorischen Fragestellungen stellt die Einführung einer Data Lake Lösung neue Kompetenzanforderungen an Mitarbeiter, die in Abhängigkeit der Rolle identifiziert und entsprechend erweitert werden sollten.


Aber bilde dir deine eigene Meinung - Hier ein paar spannende Links und Empfehlungen:

  1. Welche Erfahrungen habt ihr bei der Einführung eines Data Lakes gemacht? Was waren eure größten Herausforderungen? 
  2. Wie hat sich eure Arbeit und die Anforderungen an euer Jobprofil dadurch verändert?
  3. Welche Frameworks/Technologien/Infrastruktur habt ihr verwendet? 
  4. Wie habt ihr die Governance des Data Lakes umgesetzt? 

Was meint ihr? Beteiligt euch jetzt an der Diskussion bei LinkedIn oder Slack.


Meine Highlights

Sebastian: „Mich begeistert an meiner Arbeit die schiere Interdisziplinarität in Data Science und Analytics und die Möglichkeit von anderen daten-begeisterten Menschen zu lernen! Von den Young Guns habe ich über einen Artikel im BI Spektrum erfahren, welches bei uns in der Firma manchmal herumliegt. Als technologie-affiner IT-Quereinsteiger freue ich mich auf den Austausch innerhalb des TDWI Vereins und natürlich innerhalb der Young Guns. Let’s do it :)!“

Veranstaltungstipps

tba: Big Data, Berlin
tba: Berlin Data Product Meetup, Berlin
18.-19.11.: Data Natives Conference, Berlin

____________________________________________________________________________________

TDWI Young Guns Mailing Februar 2020 | Das richtige Analytics-Werkzeug – ein Schraubendreher für alle Schrauben?

Tom Fels & Oliver Cramer

Vorstellung

Tom ist seit 2011 in verschiedenen Rollen bei der Robotron Datenbank Software GmbH tätig. Er widmet sich hauptsächlich der Betreuung von Themen rund um RDBMS, Datenmodellierung, Stream Analytics, Data Science und Data Engineering.

Oliver ist seit 2001 auf BI- und DWH-Themen spezialisiert. Er führt die deutsche Full Scale Data Architect Bewegung. Besondere Interessen liegen in der Standardisierung und Automatisierung von DWH-Prozessen und in hybriden Data Warehouse Architekturen (speziell Data Vault). Zurzeit ist er für das BICC Volkswagen Nutzfahrzeuge im In- und Ausland tätig.

Persönliche Worte über Beweggründe, Motivation und Themeneinleitung

Ein großer Vorteil des TDWI liegt in der herstellerneutralen Bewertung aktueller Lösungen. Dies ermöglicht objektive Vergleiche der Stärken und Schwächen von am Markt etablierten Produkten. Durch immer leistungsfähigere Hardware werden auch neue Algorithmen und Methoden verfügbar und die Komplexität der IT-Landschaften wächst stetig.
Neue und etablierte Softwarehersteller stehen in stetigem Wettbewerb und bewerben ihre Lösungen als Beste am Markt erhältliche. Doch gibt es dies überhaupt? Software, die alle Anwendungsfälle ideal abdeckt? Verglichen wurden in unserem Fall die Frameworks Splunk Enterprise 7.3, der Elastic Stack Basic 7.3 und Oracle APEX 5.1 hinsichtlich der Nutzung für Monitoring Zustandsüberwachung) und Analytics (Auswertungen)). Denkbar ist hier auch eine Vielzahl weiterer Werkzeuge, beispielsweise auf Basis von Python-Entwicklungen. Die konkrete Auswahl ergab sich aus unserem Arbeitsumfeld, einem ersten Kriterium. Bereits bekannte Werkzeuge lassen sich oft einfacher operationalisieren.
Neben Etabliertheit und Anwendungsfall stellt auch der Grad der Strukturiertheit der Daten ein Entscheidungskriterium dar. Dabei ist das bei uns lange für datenbankgestützte Webanwendungen genutzte Oracle APEX am geeignetsten, wenn strukturierte Daten bearbeitet werden sollen. Es schwächelt aber in der Verarbeitung semi- oder unstrukturierter Daten. Für relationale Datenbestände und die Überwachung von Datenbanken ist es sehr gut geeignet. Schwächen hat es beim Einlesen der Informationen von Datenbank-externen Quellen sowie bei der Echtzeitverarbeitung. Es deckt somit andere Anwendungsfälle ab als die beiden anderen vorgestellten Tools.
Der Elastic Stack arbeitet ebenfalls mit strukturierten JSON Daten und ist nur begrenzt für unstrukturierte Daten geeignet. Auch die Bearbeitungsmöglichkeiten sind stark begrenzt, dafür kann in den Daten sehr performant gesucht werden. Das Einlesen von Daten verschiedenster Quellen kann mit nahe Echtzeitanforderung, unterstützt durch Agenten (Beats genannt), recht komfortabel erfolgen.
Splunk ist die Lösung für unstrukturierte Daten, welche nahe Echtzeit verarbeitet werden sollen. Es vermag die Struktur der Daten zur Suchzeit zu bilden. Somit können auch unstrukturierte und sich rasch ändernde Datenformate ausgewertet werden. Daneben liefert Splunk eine mächtige Abfragesprache, welche die hochgradig dynamische Erstellung von interaktiven Dashboards, Reports und Alarmen ermöglicht. Diese macht Splunk auch zur geeignetsten Lösung für individuelle, tiefergehende Analysen der Daten.
Letztlich entscheidet aber immer die Schraube, ob ein Kreuzschlitz-, Torx oder anderer Schraubenzieher nötig ist. Ebenso ist es mit Analytics-Werkzeugen und zu verarbeitenden Daten.


Aber bilde dir eine eigene Meinung –Hier ein paar spannende Links und Empfehlungen:

https://blog.tdwi.eu/vergleich-der-tools-apex-elk-und-splunk-fuer-monitoring-und-analytics/
https://www.splunk.com/en_us/software/splunk-enterprise.html
https://www.elastic.co/de/
https://apex.oracle.com/de/


Meine Fragen an die Community

  1. Arbeiten vergleichbare Firmen anders, mit anderen Tools, in anderen Umgebungen?
  2. Welches der drei vorgestellten Produkte ist für eure Anwendungsfälle am interessantesten?
  3. Welche Analytics-und insbesondere Stream-Analytics-Lösungen sind bei euch im Einsatz?
  4. Präferiert ihr quelloffene oder proprietäre Lösungen?
  5. Welche Werkzeuge sollte man unbedingt gesehen haben?
  6. Wie seht ihr die Zukunft der Stream Analytics?


Meine Highlights

Die Konferenzen, Roundtables und Anwenderforen mit ihrem regen Wissens-und Erfahrungsaustausch bilden für mich einen großen Mehrwert. Um herstellerneutral und dennoch tiefergehend insbesondere die Herausforderungen der BI und Analyticswelt zu erörtern, gibt es sonst nur wenige Gelegenheiten.


Veranstaltungstipps

28.02.2020 TDWI Anwenderforum Leipzig 2020
28.04.2020 c/o data science Hamburg 2020
22.-24.06.2020 TDWI Konferenz München 2020


Was meint ihr? Beteiligt euch jetzt an der Diskussion bei LinkedIn oder Slack.

_________________________________________________________________________________

TDWI Young Guns Mailing Dezember 2019 | KPI basierte BI Strategie – ein praxisorientierter Ansatz

Timo Baier & Ralph Ginzinger


Vorstellung

Timo gehört seit November 2018 zu den TDWI Young Guns und ist als BI Consultant im Microsoft Bereich bei der HighCoordination GmbH tätig. Neben der Betreuung von Themen rund um ETL, Data Warehousing und Reporting beschäftigt er sich mit der Konzeption von BI Strategien und der Geschäftskommunikation nach den International Business Communication Standards. Zudem interessiert er sich für Themen rund um den Bereich Analytics und potentiellen Use-Cases in Unternehmen.

Ralph ist Mitbegründer der HighCoordination Schweiz und bereits seit mehr als 12 Jahren im BI Bereich tätig. Seit Beginn seiner Karriere hat sich sein Fokus immer weiter hin zu strategischer, technologieunabhängiger BI Beratung verlagert. Dabei hilft er Unternehmen, die richtigen KPIs zu identifizieren, unternehmensweite Visualisierungsstandards zu etablieren und eine maßgeschneiderte BI Strategie umzusetzen – vom manuellen Reporting bis hin zu Advanced Analytics.


Persönliche Worte über Beweggründe, Motivation und Themeneinleitung

Neue Ideen, Entwicklungen oder erfrischende Begriffe im BI Bereich bedeuten nicht automatisch die erfolgreiche, datengetriebene Unterstützung, die Entscheider suchen. Wie man generell eine BI Strategie angehen kann, die nachhaltig zum Erfolg führt? Das möchte ich gerne im Folgenden erklären.

Unabhängig von Industrie, Geschäftsfeld oder Abteilung sollten die strategischen Ziele eines Unternehmens die Basis zur Formulierung einer BI Strategie bilden. Denn ohne klar formulierte Ziele kann der Erfolg dieser auch nicht kontrolliert werden. Wichtig dabei ist es, die richtigen Stakeholder frühzeitig einzubinden. Nur so kann sichergestellt werden, dass alle – im Sinne der definierten Strategie – diese Ziele verstehen auf der gleichen Basis agieren (kein Raum für Interpretationen!).

Sind alle Stakeholder identifiziert und informiert, wird in gemeinsamen Workshops eine gesammelte Darstellung an KPIs erstellt: Sämtliche aufgenommene Kennzahlen werden hierfür zusammengeführt und auf Abhängigkeiten sowie Wechselwirkungen überprüft – vor allem, wie sich diese effektiv auf die strategischen Ziele auswirken.

Um essentielle Kennzahlen weiter herauszuarbeiten, bietet es sich im Folgenden an, diese Kennzahlen bezüglich der Wichtigkeit und Verfügbarkeit einzuordnen, um im Anschluss den Fokus auf wichtige und verfügbare (low hanging fruits!) und wichtige aber weniger verfügbare Kennzahlen (strategisch wichtig!) zu legen.

Sind diese präzise formuliert, ausreichend dokumentiert und den beteiligten Stakeholdern zur Verfügung gestellt, bedeutet der nächste Schritt die Erstellung von Prototypen-Dashboards. Im letzten Schritt heißt es: Go live! Ein wirkliches Ende bedeutet das jedoch nicht, empfohlen wird eine intensive Auseinandersetzung mit dem Feedback und natürlich auch nach dem Start eine gelebte KPI Kultur – ganz im Sinne der (BI-) Strategie.


Aber bilde dir eine eigene Meinung – Hier ein paar spannende Links und Empfehlungen:


Meine Fragen an die Community

  1. Gibt es bei euch eine BI Strategie? Worauf basiert diese? Ist diese auf eure
    Unternehmensstrategie ausgerichtet?
  2. Wie sind eure Erfahrungen im Umgang mit KPIs – gibt es bei euch eine einheitliche Definition
    für Kennzahlen im gesamten Unternehmen? Besteht auch ein einheitliches Verständnis?
  3. Was sind für euch die wichtigsten Meilensteine bei der Konzeption oder Umsetzung einer BI
    Strategie?


Was meint ihr? Beteiligt euch jetzt an der Diskussion bei LinkedIn oder Slack.

_________________________________________________________________________________

TDWI Young Guns Mailing September 2019 | Culture Analytics

Culture Analytics - Mit Daten die Organisationskultur nachhaltig gestalten

Julia Mehrtens & Prof. Dr. Peter Chamoni

Vorstellung

Julia ist seit August 2019 bei den TDWI Young Guns und beschäftigt sich mit der Analyse einer nachhaltigen Organisationskultur. Als Kulturgestalterin kann sie sich bei der Organisationsberatung, der Be in touch GmbH ausleben und bildet ihr Analysewissen Schritt für Schritt weiter aus. Dieses Wissen möchte sie Anfang 2020 in ihrer Masterthesis zum Thema „Cultural Data“ anwenden und vertiefen. Sie freut sich auf weiteren inspirierenden Erfahrungsaustausch mit den anderen TDWI Mitgliedern.

Peter ist Ehren- und Gründungsmitglied des TDWI e.V. Nach dem Studium der Mathematik und Betriebswirtschaft promovierte er an der Ruhr-Universität Bochum in Operations Research und habilitierte dort zum Thema Entscheidungsunterstützungssysteme und Datenbanken. Seitdem erschienen von ihm zahlreiche Publikationen zum Thema Data Warehouse und Business Intelligence. Auf einschlägigen nationalen und internationalen Tagungen ist er Organisator, Autor und Fachgutachter.


Persönliche Worte über Beweggründe, Motivation und Themeneinleitung

Wenn die Rede von Daten, Digitalisierung und Transformation im Zusammenhang mit der Wettbewerbsfähigkeit ist, dann müssen sich Organisationen mit einem zentralen Thema grundlegend auseinandersetzen - der Organisationskultur. Denn die Kultur ist das Gerüst einer gesunden Organisation. Sie sorgt für den Zusammenhalt und gibt Orientierung zwischen allen Beteiligten (Mitarbeiter, Kunden und Organisationsentscheider).

Die Idee einer Organisationskultur-Analyse besteht aus zwei Schritten, wobei der erste Schritt die Basis für weitere Kulturanalysen ist und sich der zweite Schritt auf eine fortgeschrittene Analyse fokussiert. Im ersten Schritt wird die Organisationskultur mit Hilfe von heterogenen Daten analysiert. Dazu werden Daten aus unterschiedlich strukturierten und verteilten Datenquellen in einem Data Warehouse integriert, um spätere Auswertungen zu ermöglichen. Das Ziel ist es, alle Anforderungen seitens Mitarbeiter, Kunden und Organisationsstrategie für die Entwicklung einer gemeinsamen Kultur auszuwerten. Im zweiten Schritt wird mit Hilfe von Data Science-Analysen Prognosen hergeleitet – Wissen was passiert, bevor es die Konkurrenz ahnt. Das Ziel einer fortgeschrittenen Organisationskultur-Analyse ist, auf Veränderungen frühzeitig reagieren zu können, um Mitarbeiterkompetenzen weiterzuentwickeln und Arbeitsplätze und Arbeitsprozesse zu optimieren. In beiden Schritten ist die Herausforderung, alle bereichsübergreifenden Daten einer Organisation mit den Externen in einem Data Warehouse zu vereinen. Damit könne eine datengetriebene Organisationskultur-Analyse eine anwendbare Chance für erfolgreiche Organisationen der Zukunft werden.


Aber bilde dir deine eigene Meinung - Hier ein paar spannende Links:

Meine Fragen an die Community

  1. Was haltet ihr insgesamt von der Idee, die Kultur einer Organisation zu analysieren?
  2. Habt ihr bereits Erfahrungen damit gemacht oder kennt ihr jemanden, der sich dazu auch austauschen möchte?
  3. Lässt sich ein Data Warehouse mit allen Organisationsdaten (intern / extern) (inkl. HR) realisieren – Stichwort DSGVO?
  4. Habt Ihr Interesse, das Thema zu begleiten? Dann würde ich euch in Zukunft gerne auf dem Laufenden halten :)

Was meint ihr? Beteiligt euch jetzt an der Diskussion bei LinkedIn oder Slack.


Meine Highlights

Der schnelle und unkomplizierte Einstieg in die TDWI Young Guns Community und das Vertrauen untereinander, hat mich direkt beeindruckt und motiviert. Ich freue mich richtig auf die geplanten Meetups in Bonn und Köln. Des Weiteren bin ich neugierig, die anderen Community-Mitglieder auf den geplanten Veranstaltungen auch persönlich kennenzulernen. Ich bin super gespannt auf euer Feedback zu meinem Thema im September-Mailing.


Veranstaltungstipps von Julia

23.10.19: Meetup Bonn - Tritt unserer Meetup-Gruppe bei
12.11.19: c/o data science: Das neue Wissenscamp für Data Scientists!
29.+30.10.19: Corporate Culture Jam in Frankfurt
08.+09.06.20: Digital Misfits Festival in Köln

________________________________________________________________________________

Process Mining

Maximilian Walz & Timo Muntz

Vorstellung

Maximilian ist als Student seit einem Jahr bei den Young Guns und vertritt uns in Wien. Er beendet gerade sein Studium mit dem Fokus auf Process Mining und ist für die Master Thesis in München bei BMW im Entwicklungsressort. Einige von euch hatten die Chance Max auf der TDWI Konferenz in München kennen zu lernen und ihr wurdet bestimmt von ihm gescannt.

Timo ist erfahrener Projektleiter im Entwicklungsressort bei BMW in München und seit einigen Jahren mit Prozessen, deren Optimierung, Automatisierung und Digitalisierung betraut. Sein Hintergrund in Maschienenbau und Informatik hilft ihm dabei sehr. Bei allen Fragen rund um Mobilität, Autos und Volleyball ist Timo mehr als gerne für euch da.


Persönliche Worte über Beweggründe, Motivation und Themeneinleitung

Information Systems Prozesse sind viel mehr als nur einfache Abfolgen von Arbeiten, die gemacht werden müssen. Prozesse, die unter Einbindung von Daten UND Personen aufgebaut und strukturiert sind, bieten einen sehr spannenden und vielsagenden Einblick in egal welche Organisation. Es spielt dabei keine Rolle, ob es Value-Adding- oder Unterstützungsprozesse und Aktivitäten sind. Sauber definierte und strukturierte Abläufe sichern das Wissen und nicht zuletzt die Handlungsfähigkeit der jeweiligen Organisation. Als Beispiele dafür, wie es nicht geht, könnten zahllose Ämter gelten, während – man will es kaum glauben – die Deutsche Bank mit ihrer Kreditvergabe im Privatkundenbereich als Leuchtturm dienen kann. Wenn die meisten dieser Abläufe nun durch digitalisierte Workflow-Systeme automatisiert unterstützt werden, können Ressourcen effektiv zugewiesen, verwendet und schnelle Durchlaufzeiten sichergestellt werden. Ganz nebenbei entsteht natürlich noch das Öl unserer Zeit: Daten – genauer Log Files. Mit exakt diesen Zeitreihen-Daten ist es möglich nachzuvollziehen, was wann geschehen ist, wo Engpässe sind, welche Altivitäten parallel laufen könnten oder wo es stockt. Häufiges Zirkeln einzelner Aktivitäten kann dabei auf eine mangelnde Qualität, langes Verharren bei einzelnen Personen, hohe Komplexität oder Überlastung hindeuten. Mittels Process Mining sowie der Analyse der Log Files, kann man die offensichtlichen und noch viel wichtiger, die nicht offensichtlichen strukturellen Schwächen erkennen und lokalisieren, um diese zu beheben und temporäre Abhilfe zu schaffen, bis der Umbau abgeschlossen ist. Das Feld rund um Process Mining ist ein sehr rapide Aufsteigendes. Eine Münchner Firma hat es tatsächlich vom kleinen Startup bis zum Unicorn geschafft. Wenn ich es geschafft habe, meine Faszination mit euch zu teilen, sind unten ein paar Links zu spannenden Artikeln.


Ausgewählte Themen/Artikel

Unleash the value of PROCESS MINING - A powerful capability for (citizen) data scientists
Process Mining Manifesto
Coursera - Process Mining: Data Science in Action


Meine Fragen an die Community

  • An alle BI-Spezialisten: Seid ihr schon mal mit Log Files in Berührung gekommen? Genauer mit Log Files aus Workflow Systemen?
  • Seht ihr Potential in Process Mining Technologien? Wie seht ihr Prozesse in Kombination mit RPA?
  • Bestehen Riskien, wenn ja welche?

Was meint ihr? Beteiligt euch jetzt an der Diskussion in SLACK oder XING.


Meine Highlights

In kurz: das TDWI Young Guns BarCamp, das ich in Wien organisieren durfte! Es war eine fantastische Mischung aus Menschen – jung und alt, städische Verwaltung und Privatwirtschaft, Start-Up und altes KMU – da. Der Geschlechtermix war sehr ausgewogen und eher zugunsten der Damen. Von Conference Doodles über ein Weltcafé bis hin zu langen Diskussionen weit nach Mitternacht, war alles dabei. Natürlich war auch die Konferenz in München, auf der ich das erste Mal war, sehr beeindruckend. Die Stimmung war super, viele spannende Leute und Themen, sehr gutes Catering und natürlich die 15 Jahres Party! :)

__________________________________________________________________________________

Neue Ideen, Weiterentwicklung und mehr Sichtbarkeit

Was unser Stand auf der TDWI Konferenz alles bewirkt hat

Jahr #3 für die Young Guns auf der TDWI Konferenz in München und wir nehmen Fahrt auf! Dieses Jahr waren wir erstmalig mit einem eigenen Stand vertreten. Was das für ein Gefühl war? MEGA! „Wenn man gerade nicht weiß wohin, geht man an den Young Guns Stand und trifft immer jemanden, um sich zu unterhalten. Es fühlt sich schon etwas nach Heimat an.“ Mit diesem Gefühl war Melina nicht alleine. Für Raphael fühlte es sich nach einer Art „Klassentreffen, aber im positiven Sinne“ an. Auch Max und Julian finden, dass der Stand einen neuen Punkt für die Young Guns gesetzt hat. Nicht zuletzt natürlich durch die Menschen, die offen sind und neue Menschen direkt herzlich in Empfang nehmen. Aber auch die Gestaltung und Ausstattung waren „allererste Sahne“ (wir hatten nämlich einen Rasberry Pi mit Mario Kart, Tekken 3 und Streetfighter dabei).

Unsere 6m² waren Dreh- und Angelpunkt unserer kleinen, aber feinen Community. „So viele interessierte, neue Kontakte auf einmal hatten wir noch nie!“ sagt Alex, die seit der Gründung Teil vom Kernteam ist. „Es war wirklich ein voller Erfolg. Ich freue mich jetzt schon auf die nächsten Young Guns Aktivitäten und auch schon wieder auf die Konferenz 2020!“

Für die nächsten Treffen und Veranstaltungen sind wir schon in der Planung: deutschlandweite Apéros, Frühlings-Barcamps und neue Veranstaltungsformate.

Hast du Lust Teil der Community zu werden? Melde dich einfach oder komm in unsere Slack-Kommunikationswelt.

Wir freuen uns auf dich!