Von Big Data zu Smart Data – mit den drei Daten-Programmen von Udacity!

Weiterlesen

Foto: Unsplash/Ricardo Gomez Angel

Paul Hofmann
Aug 24, 2017

Foto: Unsplash/Ricardo Gomez Angel

Wir vergöttern die Information. Das war schon immer so.

Ausgehend von Zentren, die zunächst einfach verbale Umschlagplatz für Neuigkeiten waren, bildeten sich die ersten Dörfer. Die Menschen hingen an den Mündern der Handelsreisenden, um aus fernen Gegenden zu erfahren. Damit sie nicht länger warten mussten, wurde die Telegrafie erfunden. Die Menschen sahen der morgendlichen Zeitung mit einer Spannung entgegen, als würde sie nicht täglich kommen. Und ausschließlich mit guten Nachrichten. Schließlich gewöhnten wir uns daran, Informationen “in Echtzeit” zu erhalten und unseren Alltag – wie wir kommunizieren, fernsehen, joggen, essen oder schlafen – als Informationspool zu handeln. Interaktion und Kommunikation, Daten, Personen, Dienste und Gegenstände werden flächendeckend und kontinuierlich zu mess-, speicher- und analysierbaren Daten.

Von Big Data zu Smart Data – mit den drei Daten-Programmen von Udacity ©Unsplash/Ricardo Gomez Angel

So haben die letzten fünfzehn Jahren größere Veränderungen für die Verfügbarkeit und Zuordnung von Daten gebracht als das halbe Jahrtausend zwischen Gutenberg und Google. Hochrechnungen zufolge werden im Jahr 2020 pro Kopf sechs Terabyte Daten gespeichert sein. In die gewohnte Einheit Text gebracht, entspricht das ungefähr dem Inhalt von drei Millionen Büchern. Pro Kopf wohlgemerkt! Wir sprechen deshalb von Big Data.

Big Data ist ein modernes Heilsversprechen, gilt als Erkenntnisinstrument für Mediziner, Stadtplaner, Verkehrsregler, für den Strafvollzug, sogar für Übersetzer, Sprach- oder Literaturwissenschaftler.

Vergessen wird bei der Segnung der Datenmenge oft, dass Masse allein noch keinen Vorteil bringt.

Nach der ersten Phase des Sammelns, nennen wir sie Datenpubertät, haben diverse Branchen erkannt, dass es auf Smart statt auf Big Data ankommt. Nicht also auf eine horizontale Aneinanderreihung von Daten, sondern auf Vertikalisierung, die Erkennung von Mustern, Korrelationen und eventuellen Lücken in den Datensätzen. "Thick Data" nannte die Daten-Ethnografin Tricia Wang diesen Wende kürzlich in einem TED-Talk.

"Erst die Einordnung von Big Data in Thick Data ermöglicht es, das komplette, komplexe Bild zu sehen und zu verstehen", sagt Wang.

Sie verweist dabei auf Netflix, dessen UX-Team aus Nutzerdaten erkannte, dass am Ende eines Serienstreams direkt die nächste Folge beginnen sollte anstatt dem Nutzer andere, geschmacksbenachbarte Angebote zu machen. Dieser Ablauf scheint aus heutiger Sicht logisch. Dereinst aber wurde aus Datenanalyse ein Versuch, aus dem Versuch eine Erkenntnis, aus der Erkenntnis ein Trend: Bingewatching. Diesen Marktvorteil hat Netflix bis heute. Er ist Thick Data zu verdanken.

Thick oder Smart Data also zielt nicht auf Daten um ihrer selbst willen, sondern auf Datenbelesenheit, die dem Gespeicherten und Gelesenen sinnhaft Gestalt gibt. Machen wir eine einfache Gleichung auf:

Smart Data = Big Data + Semantik + Datenqualität (+ Datenschutz)

Alle Anstrengungen der Datenanalysten gelten letztlich der Ambition, auf Datenbasis bessere Entscheidungen treffen zu können. Dafür muss ein tiefes Verständnis für Daten entwickelt werden. Datenanalysten überblicken, wie und was (vor allem: was nicht) die Geräte, Anlagen und Sensorien messen, welche Fragen sich daraus entwicklen lassen, welche Daten eine Antwort ergeben, was diese Antwort wiederum über die Welt aussagt und wie die Antwort verständlich präsentiert werden kann. Dieser Fülle an Herausforderungen tragen wir bei Udacity in drei Nanodegree-Programmen Rechnung:

  • Seit heute ist unser Data Foundation Nanodegree-Programm verfügbar. Das Programm dauert drei Monate, umfasst vier Projekte und ist ein optimaler erster Schritt zur Datenkundigkeit. Lernende vertiefen sich in die Datenkalkulation mit Excel, den Umgang mit Datensätzen in SQL und Visualisierungsmöglichkeiten mit Tableau – die perfekte Agenda für Daten-Einsteiger!

  • Für Lernende mit Vorkenntnissen können wir unser Data Analyst Nanodegree-Programm empfehlen. Es gibt einen tieferen Einblick in die Arbeit eines Datenanalysten: Mit Python, SQL und praktischer Statistik werden Muster aus Datensätzen extrahiert, datenbasierte Vorhersagen getroffen und die Analysen verständlich und wertig präsentiert.

  • Unser Business Analyst Nanodegree-Programm fokussiert sich weniger auf Programmierung als vielmehr auf den Umgang mit prädiktiven Modellen. Lernende beschäftigen sich mit Alteryx und Tableau, um als Datenexperten in diversen Kontexten arbeiten zu können. Denn Unternehmen aller Branchen können ihre Prozessketten durch gut gelesene Daten effizienter gestalten.

Wir denken, dass diese Programme der enormen Datendynamik und breiten Veränderung unserer Gesellschaft und Wirtschaft gerecht werden. Sie erlauben sowohl ein Grundverständnis für Daten als auch Spezialisierungen. Unsere datenbasierte Zukunft wird beides in hohem Maße benötigen: Smart Data ist nicht auf Knopfdruck eingeführt, kein individuelles Unterfangen und erst recht nichts, was, einmal hergestellt, Bestand hat.

"Es gibt immer das nächstgrößere Bild", sagt Wang. Wer einmal zu einer Erkenntnis gelangt ist, beginnt wiederum damit, diese zu hinterfragen.

Wichtig für die faszinierende Anstrengung Data Science sind also fürs Erste weniger gesetzten Wissensbestände, sondern die persönliche Bereitschaft, Datenkundigkeit als Werkzeug anzuerkennen und zu experimentieren. Auch deshalb haben wir unser Portfolio kürzlich um ein Grundlagen-Programm erweitert.