17.05.2018

Computer Vision – Vom Pixelhaufen zum maschinellen Sehen

Weiterlesen

Foto: Screenshot/Udacity

Paul Hofmann
Paul Hofmann Editor, Udacity Europe

Foto: Screenshot/Udacity

Von der anderen Seite des Raumes wirft dir jemand einen Stift zu. Du fängst ihn. Einfach oder?

Eigentlich ist die Situation eine der komplexesten Prozesse, die man nachzuvollziehen versuchen, geschweige denn maschinell nachbilden kann. Ein System zu entwickeln, das seine Umwelt wahrnimmt und interagiert wie wir ist eine komplizierte Angelegenheit. Nicht nur, weil es Computern schwer beizubringen ist, sondern auch, weil selbst wir noch nicht ganz sicher sind, wie wir das Fangen eigentlich koordinieren.

Computer … was?

Stellt euch vor, wie ein Computer seine Umwelt wahrnimmt. Selbst bei ausreichender Sensorik, also etwa Kameras für verschiedene Winkel und Entfernungen, sind die entstehenden Aufnahmen für den Rechner selbst nicht mehr als ein Haufen Pixel. Software war vor KI schlicht nicht in der Lage, Inhalte von Bildern zu erkennen.

Mit der Computer Vision ist in den vergangenen Jahrzehnten ein spezielle Kategorie der KI entstanden. Sie konzentriert sich darauf, Rechnern die Welt visuell wahrnehmbar und prozessierbar zu machen.


So wie der Mensch lernt, erst einen Baum von einem Gesicht und dann verschiedene Bäume und Gesicht untereinander zu unterscheiden, soll Computer Vision den Maschinen die Möglichkeit verleihen, Objekte maschinell nicht nur zu sehen, sondern zu erkennen.

Vereinfacht gesagt ziehen Computer Vision-Algorithmen dazu einzelne Pixel aus ihren Inputaufnahmen und transferieren deren Farben, Texturen und Formen in numerische Werte, um das Identifikat in Bildmuster einzuordnen. Gesicht zu Gesicht, Baum zu Baum, so werden die Algorithmen mit jedem Datensatz besser.

Warum?

Computer Vision ist ein Schlüssel zu etlichen KI-Anwendungen – und somit ein Treiber für Innovation. Wie soll sich ein Vehikel autonom über Straßen oder durch die Luft bewegen, wenn sein Steuerungsalgorithmus nicht zwischen roter Ampel oder fallendem Laub unterscheiden kann?

Auch Carla, das selbstfahrende Auto von Udacity, setzt auf fein abgestimmte Computer Vision-Systeme, um den visuellen Input ihrer Laser, Kameras und Radarsysteme aus GPS, IMU und Ultraschall zu verarbeiten. Ohne Computer Vision könnte Carla nicht sicher durch ihre Umwelt, andere Autos oder Fußgänger navigieren.

Vorgestellt: Carla, das selbstfahrende Auto von Udacity
So sieht Udacitys autonomes Auto, Carla, ihre Umwelt

Computer Vision ist als vergleichsweise junge Technologie immer noch in ihrer Frühphase, aber bereits erstaunlich nützlich. Die Systeme erkennen nicht nur Verkehrsschilder und -teilnehmer, sondern auch Gesichter, mit großem Erfolg Krebszellen oder synchronisieren Logistikroboter und menschliche Lagermitarbeiter.

Warum jetzt?

In vielerlei Hinsicht arbeiten die Computer Vision-Systeme bereits exakter als der Mensch. Bis Maschinen ihre Umwelt so granular erfassen wie wir, wird es – wenn das überhaupt möglich ist – allerdings noch eine Weile dauern. Deshalb ist jetzt die Zeit, die Fähigkeiten in der Computer Vision zu lernen, die morgen gesucht werden.

Bei der Jobplattform Indeed rangiert der Computer Vision Ingenieur etwa auf Rang 3 der besten Jobs in 2018, bei ZDNet gilt die Position als "most in-demand job in 2020", TechRepublic nennt sie als eine der sechs meistgesuchten KI-Jobs und ein jüngster Artikel in Inc. erklärte Computer Vision zum "Most Disruptive Innovation Driver".

Und wie?

Zum Beispiel mit unserem Begleitkurs Einführung in Computer Vision oder dem neuen Computer Vision Nanodegree-Programm.

Wie lernt man bei Udacity Computer Vision? Kostenlose Kursvoschau

Das Programm gibt einen dreimonatigen Einstieg in die neusten Techniken. Lernende wenden Deep Learning-Architekturen wie R-CNN und YOLO (You Only Look Once) an und implementieren eigene Objekterkennungsmodelle wie SLAM (Simultaneous Localization and Mapping).

Was du genau lernst, hat unsere Kursleiterin Cezanne Camacho in ihrem Medium-Post aufgeschrieben.

Weiterlesen

📌 Nächster Buchstabe: D wie Definition. Wann sprechen wir eigentlich von einer künstlichen Intelligenz?

📌 New York Times: Computer Vision: On the Way to Seeing More

📌 Der KI-Newsletter von Mat Leonard, Udacitys Kursleiter für KI-Programme This week in AI

Anmerkungen? Ihr wollt selbst einen Post schreiben? Euch fehlt ein Thema? Schreibt uns!

About the author
Paul Hofmann
Paul Hofmann Editor, Udacity Europe

Paul heuerte bei Udacity an, weil hier Wesentliches zusammenkommt: Menschen, Neugier, Ideen, Fragen. An guten Tagen schreibt er fettfrei, die Komplexität der Dinge anerkennend und ohne Emojis.