Lesezeit 32 Min
Technik

Wohin soll’s gehen?

Die grundsätzliche Frage, ob Menschen Schöpfer spielen sollten, ist längst beantwortet. Denn von Beginn der Menschheitsgeschichte an greifen wir in die Natur ein und formen sie nach unserem Willen. Nun geben uns neue Technologien wie das Gen-Editing oder die künstliche Intelligenz mehr Macht als je zuvor. Doch damit ist auch unsere Verantwortung so groß wie nie zuvor. Ein Dossier

Shutterstock
von
Ralf Grötker
,
Gregor Honsel
,
Denis Dilba
,
Inge Wünnenberg
,
Wolfgang Stieler
,
Christian Honey
,
Clemens Gleich
und
Veronika Szentpétery-Kessler
Lesezeit 32 Min
Technik

Was früher das Schicksal war, ist heute eine Entscheidung. Wir müssen sie treffen, ob zur Genveränderung unserer Kinder oder der Frage, welchen Einfluss wir einer KI geben wollen. Denn keine Entscheidung ist auch eine.

Gleichzeitig rücken die Technologien immer näher an den Menschen heran. Die Entscheidungen werden damit zunehmend persönlicher. Wir haben 12 große Fragen zusammengetragen, die auf uns warten – und nach den Antworten gesucht.

Darf ich einer KI Entscheidungen überlassen?

von Ralf Grötker

In vielen Lebensbereichen steuert künstliche Intelligenz bereits das Geschehen – zumindest zeitweise. An den Autopiloten im Flugzeug, automatisierte Kreditwürdigkeitsprüfungen und algorithmengesteuerten Aktienhandel haben wir uns gewöhnt. In der Medizin bekommt künstliche Intelligenz immer größere Bedeutung bei Diagnose und Therapie. KI-Systeme für die Leistungsbeurteilung von Studierenden und Arbeitnehmern befinden sich im Praxistest. Regulär eingesetzt wird auch Predictive Policing – vorausschauende Polizeiarbeit –, um damit Straftaten zu verhindern. Das Instrumentarium, auch aus dem Film „Minority Report“ bekannt, nutzt seit 2012 unter anderem das Santa Cruz Police Department in den USA. Noch treffen die Systeme aber keine weitreichenden Entscheidungen. Sie verschreiben keine Medikamente und fällen keine Gerichtsurteile. Viele Forscher sind jedoch überzeugt, dass dies in wenigen Jahren kommen wird. Aber wäre der Schritt auch ethisch vertretbar?

Viele Experten sind der Ansicht, dass es eine Grenze geben muss. „Entscheidungen, die mit der Ausübung von körperlicher Gewalt einhergehen, dürfen nicht an Maschinen delegiert werden“ – so lautet beispielsweise der Konsens, auf den sich das International Committee for Robot Arms Control verständigt hat

Wie plausibel oder zwingend ist der Gedanke einer solchen Grenze? Susanne Burri, Assistant Professor am Department of Philosophy Logic & Scientific an der London School of Economics, hat sich eingehend mit der ethischen Debatte über „Killerroboter“ befasst. Ein Argument, das von KI-Skeptikern häufig vorgebracht wird, lautet: Um die Würde des Gegenübers zu respektieren, müsse man ihm oder ihr als Person gegenübertreten. Aber ist Würde mehr wert als zuverlässiges Funktionieren? Die Wissenschaftlerin meint: Wenn es im Falle einer kriegerischen Auseinandersetzung moralisch legitim sei, feindliche Soldaten zu töten, dann sollten Zivilisten und die eigenen Streitkräfte einer möglichst geringen Gefahr ausgesetzt werden. Unter der Voraussetzung, dass autonome Waffen dies am besten bewerkstelligen könnten, sei es fraglich, dass „Menschlichkeit“ mehr zählen solle als die Sicherheit der Beteiligten.

Ein anderes, oft vorgetragenes Argument unterstellt, dass Maschinen keine Verantwortung tragen können. Dazu sagt Burri: „Entweder sie können dies tatsächlich nicht – dann sind Menschen verantwortlich, die die Maschinen programmieren. Oder sie sind verantwortlich und können auch bestraft werden: Maschinen können schließlich zerstört, ausgeschaltet oder umprogrammiert werden.“ Für die Wissenschaftlerin handelt es sich bei den „Killerrobotern“ um Werkzeuge. „Viel Weitblick, Vorsicht und Sorgsamkeit sind nötig, um solche Werkzeuge in einer moralisch verantwortlichen Weise zu entwickeln und einzusetzen. Aber prinzipiell sehe ich keinen Grund, warum dies nicht möglich sein sollte.“

Solche Überlegungen lassen sich auf andere Bereiche übertragen. Darf man etwa Gerichtsentscheide einer künstlichen Intelligenz überlassen? Der Ansatz wäre zumindest unkonventionell. Wir sind es gewohnt, dass Personen in Rechtsfragen entscheiden – die dafür auch einstehen können. Für Fehlurteile haftet ein Richter schließlich mit seinem Ruf und seiner Karriere.

Aber auch hier kommt diesem persönlichen Aspekt nur ein relativer Wert zu. Dies wird deutlich anhand einer kürzlich in Israel durchgeführten Studie. Sie offenbarte, dass Strafrichter in ihrem Urteil davon beeinflusst werden, wie nah oder fern die nächste Essenspause ist. Mit gefülltem Magen richtet es sich offenbar milder.

Umgekehrt zeigen jüngste Erfahrungen aber auch, dass eine künstliche Intelligenz nicht so objektiv urteilt wie häufig angenommen. Ob bei der Auswahl von Jobkandidaten oder der Bewertung des Rückfallrisikos von Straftätern – auch Maschinen können Vorurteile haben…

Jetzt weiterlesen für 0,78 €
Nr. 10/2017