25.05.2018

Ethik in der künstlichen Intelligenz – Wann nehmen wir Opfer in Kauf, um Leben zu retten?

Weiterlesen

Foto: CC/Unsplash

Paul Hofmann
Paul Hofmann Editor, Udacity Europe

Foto: CC/Unsplash

Beginnen wir mit ein paar Fragen.

Gesetzt dem Fall, du fährst in Zukunft ein autonomes Auto. Wirst du den Urheber des Steueralgorithmus deines Fahrzeugs je kennenlernen?

Wird es verschiedene Algorithmen für verschiedene Fahrzeugklassen geben? Für verschiedene Automarken? Wirst du als Fahrzeughalter über einen Algorithmus entscheiden können? Oder wird “die” Politik “der” Wirtschaft die Entscheidung aus der Hand nehmen und Algorithmen anordnen? Wird es einen Schwarzmarkt geben? Werden verschiedene Staaten verschiedene Algorithmen haben? Würdest du ein Fahrzeug kaufen, das die Interessen deiner Mitmenschen im Ernstfall über deine stellt? Unter welchen Umständen darf ein Algorithmus Opfer in Kauf nehmen, um Leben zu retten?

Das autonome Auto ist eine Testfahrt für künstliche Intelligenz in größerem Stil. Neue Technologie wie das Self-Driving Car bringt neben technischen auch psychologische, politische, vor allem aber ethische Fragen mit sich, die hier angerissen werden sollen.

Schon Platon polemisierte gegen eine neue Technologie: die Schrift

Das war schon immer so. Bereits Platon polemisierte gegen die Schrift – Menschen verlören ihre Gedächtniskapazität, wenn sie aufschreiben statt zu erzählen, so seine These. Politik, Moral und Ethik hinken der technologischen Entwicklung naturgemäß hinterher, weil sie gesamtgesellschaftlich verhandelt werden müssen.

Technisches Know-how + Ethik = Zukunft Finde dein KI-Programm bei Udacity School of AI

So wie wir beim autonomen Auto davon ausgehen, dass es nicht absichtlich Unfälle herbeiführt, hoffen wir auch in anderen (weniger lebenskritischen) Fällen der Automation, die KI werde sich als nobel – also mit unseren Werten übereinstimmend – erweisen.

Mit zunehmender Komplexität und abnehmender Transparenz intelligenter Systeme steigt jedoch die Skepsis. Das World Economic Forum benannte kürzlich die häufigsten Bedenken rund um KI:

  • erhöhte Arbeitslosigkeit durch Automation, also die Substitution des Menschen durch Maschinen
  • wachsende Ungleichheit, verursacht durch die ungleichmäßige Verteilung des durch Maschinen erzeugten Reichtums
  • fundamentale Veränderungen im menschlichen Verhalten und zwischenmenschlichen Beziehungen
  • Fehlerhaftigkeit autonomer Maschinen, die Menschenleben aufs Spiel setzt
  • Verstärkung von Ressentiments in Datenbanken, die von Maschinen und Systemen reproduziert werden
  • Risiken autonomer Waffen
  • Konsequenzen aus künstlicher Intelligenz, die für den Menschen heute noch unvorstellbar sind
  • Befürchtung, dass KI menschliche Fähigkeiten und Intelligenz eines Tages übersteigen wird
  • Interaktion zwischen Menschen und Robotern

Diese Besorgnis teilen nicht nur KI-Laien. Elon Musk, der der Technologieskepsis grundsätzlich unverdächtige Gründer von SpaceX und Tesla, gründete 2015 OpenAI. Die gemeinnützige Organisation will sichere Wege in eine künstlich-intelligente Zukunft holistisch abbilden und zugänglich machen.

“Das Beste oder Schlimmste, was der Menschheit jemals widerfahren ist”

"Es ist schwer vorherzusagen, wie die Zukunft genau aussehen wird", sagt Musk. "Deshalb wollen wir bei OpenAI alles tun, um die Chancen auf eine gute Zukunft zu erhöhen." Die Ergebnisse der gut 60 Forscher und Ingenieure werden in einem Blog und auf Konferenzen veröffentlicht.

Auch der kürzlich verstorbene Physiker Stephen Hawking mahnte wiederholt zur Verantwortung. Nach Ansicht Hawkings könne gezielter KI-Einsatz zur Ausrottung von Krankheiten und Armut, aber auch zu ernsthaften Problemen führen: autonome Waffen, Wirtschaftskrisen, Maschinen mit eigenem Willen. "Der Aufstieg der KI ist vielleicht das Beste oder Schlimmste, was der Menschheit jemals widerfahren ist. Wir wissen es noch nicht", sagte er auf einem Vortrag im Jahr 2016.

Für Googles AI-Forscherin Margaret Mitchell ist das Beunruhigende die Auswahl der Datenbanken, mit denen künstliche Systemen gespeist werden. „Jeder Datensatz, den wir zur Weiterentwicklung unserer KI nutzen, weist blinde Flecken auf“, sagt sie. "Die Daten sind auf vorgefasste Meinungen kodiert und verlängern damit vorhandene menschliche Vorurteile und Stereotypen aus dem Datensatz in die KI und damit in unsere Welt hinein“, sagt sie. Deshalb dürften solche Systeme nie allein auf einer einzigen prekären Datenmenge fußen.

Die Algorithmen einer ganzen Gesellschaft

Die kommende Gesellschaft wird eine kybernetische sein, in der die Computer nicht nur das tun, was die Menschen ihnen sagen, sondern aus dem, was Menschen sagen und tun, auch eigene Schlüsse ableiten. Die große Frage ist, wie wir maschinelle Intelligenzen kreieren, die unsere Werte teilen.

Lösungsansätze sind durchaus vorhanden. Viel wird über Diversität diskutiert, wenn intelligente Systeme – programmiert von einer überwiegend männlichen, weißen Gruppe – aus Datenmengen Muster lernen, die das derzeitige Verhalten der Gesellschaft mit allen blind spots und Ressentiments widerspiegeln. Es wird auch um Transparenz gehen, die etwa durch ein TÜV-Siegel für Algorithmen oder gar ein neue Berufsgruppe durchgesetzt werden könnte, die Algorithmen unabhängig kontrollieren. Eine vergleichbare Situation gab es bereits in den dreißiger Jahren, die in der Einführung der Wirtschaftsprüfers endeten. Er sieht sich Zahlen von Unternehmen an, die nach dem Abschluss der Prüfung wieder der Geheimhaltung unterliegen.

Ist es möglich, der Technik einen ethischen Standard zu geben, der global verbindlich ist?

Grundsätzlich ist es entscheidend, überhaupt konstruktiv zu formulieren, wie wir als Gesellschaft die gesellschaftlich relevanten Algorithmen denn gern aufgestellt sähen. Was dabei nicht vergessen werden darf: Gesellschaft ändert sich, und zwar rasant. Und ethische Werte können sich – je nach ethischem Selbstverständnis und Mehrheitsentscheid – schon über die Grenze eines Bundeslandes hinweg unterscheiden.

Sicher ist es technisch möglich, Algorithmen auf territorial geltenden Normen umzukodieren, zugleich stellt sich die Frage, wie es möglich wäre, der Technik einen ethischen Standard zu geben, der global verbindlich ist.

Ließe sich ein transkulturelles Einvernehmen erreichen, jenseits unterschiedlicher Wertvorstellungen, die bisher ja auch die Bemühungen um universelle Menschenrechte behindern?

Technisches Know-how + Ethik = Zukunft Finde dein KI-Programm bei Udacity School of AI

Weiterlesen

📌 Nächster Buchstabe: D wie Definition. Wann sprechen wir eigentlich von einer künstlichen Intelligenz?

📺 Kürzlich diskutierten wir Ethical Engineering in AI in einem Webinar mit dem Good Technology Collective, einem Berliner ThinkTank, das explizit über ethische Fragen der Technologie nachdenkt.

📌 Das Projekt Ethik der Algorithmen der Bertelsmann-Stiftung beschreibt lesenswert, wie algorithmische Systeme sinnvoll gestaltet werden können.

📌 Tech-ethische Wettervorhersage an HTW Berlin: Dr. Katharina Simbeck über Diskriminierung durch KI, subjektive Maschinen und die Zukunft der KI

📌 Der KI-Newsletter von Mat Leonard, Udacitys Kursleiter für KI-Programme This week in AI

Anmerkungen? Ihr wollt selbst einen Post schreiben? Euch fehlt ein Thema? Schreibt uns!

About the author
Paul Hofmann
Paul Hofmann Editor, Udacity Europe

Paul heuerte bei Udacity an, weil hier Wesentliches zusammenkommt: Menschen, Neugier, Ideen, Fragen. An guten Tagen schreibt er fettfrei, die Komplexität der Dinge anerkennend und ohne Emojis.