Algorithmen und Ethik

„Nicht das technisch Mögliche, sondern das gesellschaftlich Sinnvolle muss Leitbild sein.“ Algorithmen sind überall und erleichtern in vielen Bereichen unser Leben. Watson rettet Leben, autonomes Fahren wird dies auch tun, denn die Fehlerquote im Straßenverkehr ist bei Maschinen um vieles geringer, als bei uns Menschen. Algorithmen manipulieren uns, beeinflussen unser (Kauf-)Verhalten und haben Einfluss auf Individuen, Organisationen, auf unsere Gesellschaft, auf Demokratie. Durch Algorithmen werden viele Arbeitsplätze abgeschafft, werden Rationalisierungen und Effizienzsteigerungen weiter möglich. Jedoch werden Algorithmen nicht die Weltherrschaft übernehmen.

Mehr Objektivität durch Algorithmen? Warum möchten wir mehr objektive Entscheidungen? Gibt es diese überhaupt? Mein naives Verständnis von Algorithmen ist eine ausgelagerte, erweiterte Datenverarbeitungsmaschine. Sie schaffen es in sehr viel weniger Zeit massenhaft mehr Zusammenhänge herzustellen, Daten zu verarbeiten, Grundlagen für Entscheidungen aufzubauen. Das ist effizienter, umfassender und weltweit verbindender.

Somit beeinflussen Algorithmen Entscheidungen, die wir dann treffen. Es werden unsere Entscheidungen von den Menschen beeinflusst, die ADM-Systeme (Algorithmische Entscheidungssysteme) entwickeln. Wobei es um die Unterscheidung von logischen Schlussfolgerungen und ECHTEN Entscheidungen geht. Denn bei ECHTEN Entscheidungen wählen wir Menschen mit Risiko aus Möglichkeiten aus, ohne zu vorab zu wissen, ob diese gewählte Möglichkeit die beste ist. Das finden wir erst heraus, nachdem wir entschieden haben. Alles andere sind keine ECHTEN Entscheidungen, sondern logische Schlussfolgerungen aufgrund der vorliegenden Daten-Fakten Lage. Somit treffen Algorithmen nie Entscheidungen, sondern zeigen logische Schlussfolgerungen auf. Die Grundlage dieser Logiken sind die Daten, die wir Menschen zur Verfügung stellen,
die Ziele, die wir Menschen festlegen und die Kriterien, die wir Menschen vorgeben. ECHTE Entscheidungen können wir also nicht abgeben. Auch nicht an Algorithmen. Algorithmen müssen immer genau wissen, was sie zu tun haben. Ermessensspielräume sind nicht durch Algorithmen darstellbar. Ein Ermessensspielraum erfordert immer menschliche Fähigkeiten, Intuition, Können, Gefühl, Erfahrung. Das ist gut so und in dynamisch-komplexen Zeiten und all dem kulturellen Wandel wesentlich. Subjektive, menschliche Fähigkeiten sind gefragter denn je. Ist es somit sinnvoll, vermeintliche Entscheidungen an Algorithmen auszulagern? Sollten wir nicht einfach mehr in unsere Reflexionsfähigkeit und Dialoge investieren?

Bei all der Hilfe durch Algorithmen bleibt die Verantwortung jedoch immer bei uns Menschen. All jene, die ADM-Systeme füttern und maschinelles Lernen begleiten müssen auch dabei sein, Fehlannahmen, fehlerhafte Schlussfolgerungen, Fehlverbindungen zu korrigieren. Objektiver werden diese Maschinen nur, wenn wir sie beobachten, Evaluierungen durchführen, Fehler korrigieren, aufpassen. Wir kommen da nicht raus.

Warum es eine „Ethik für Algorithmen“ braucht:

Algorithmus ist eine eindeutige Handlungsvorschrift zur Lösung eines Problems oder einer Klasse von Problemen. Algorithmen bestehen aus endlich vielen, wohldefinierten Einzelschritten. Bei der Problemlösung wird eine bestimmte Eingabe in eine bestimmte Ausgabe überführt. Alles was an Algorithmen entsteht und wofür sie genutzt werden, sind Zeichen dafür, wie wir die Welt gestalten. Algorithmen sagen viel über uns aus, denn diese Handlungsanweisungen an Computer werden von Menschen gemacht und sind auch von uns Menschen zu verantworten. Ethische Fragen machen somit auch nicht vor Algorithmen Halt. Wobei den Algorithmen ist die Ethik egal. Sie lösen entseelt Probleme nach definierten, eindeutigen Einzelschritten. Den Menschen, die Algorithmen entwickeln, einsetzen, verwenden darf es jedoch nicht wurscht sein.

  • Es gibt Algorithmen, die die Rückfallsquote von straffällig gewordenen Menschen beurteilen. Was sagt das über uns aus?
  • Es gibt Algorithmen, die das Sterberisiko von kranken Menschen beurteilen können. Was bedeutet das? Wird die ärztliche Behandlung dann fortgeführt oder „eingespart“?
  • Welche Menschenbilder sind in welchen Algorithmen versteckt? In dem Moment wo wir entscheiden, dass Computer etwas besser können als Menschen, haben wir schon ein Urteil getroffen über das Urteilsverhalten der Menschen.
  • Viele Recruiting-Prozesse werden bereits mittels Algorithmen stark gesteuert. Bringt das die passenden Menschen mit den passenden Firmen zusammen oder verhindert das eher das Finden von Talenten? Welche psychologischen Fehlschlüsse gibt es im Bereich der Algorithmen? Ist eine Spracherkennungssoftware zur Feststellung eines Persönlichkeitsprofils wirklich möglich?
  • Welche Grenzen der Statistik gibt es und welche gesellschaftlichen Folgen kann es haben, wenn wir diese Grenzen überschreiten?
  • Welche Auswirkungen haben verkettete Verantwortlichkeiten beim Einsatz von Algorithmen?
  • Wer ist denn schlussendlich für was verantwortlich? 
  • Braucht es einen Algorithmen TÜV? Und wie soll dieser aussehen?
  • Wo dürfen und sollten Algorithmen für gesellschaftliche Prozesse eingesetzt werden und wo nicht?

Auf dass es ein Jahrhundert der Geistes- und Sozialwissenschaften wird und kein Jahrhundert der Informatik!

TechnikerInnen und SozialwissenschaftlerInnen müssen hier stark zusammen arbeiten. Ein paar Gedanken, Impulse und tolle Beiträge zur Ethik für Algorithmen. „Ich hoffe es wird nicht das Jahrhundert der Informatik!“ Prof. Dr.in. Katharina Anna Zweig ist eine deutsche Forscherin und leitet als Universitätsprofessorin am Fachbereich Informatik der TU Kaiserslautern das Algorithm Accountability Lab. Die Sozioinformatik untersucht die Auswirkungen der Digitalisierung auf Individuen, Organisationen und die Gesellschaft.

Prolog Katharina Anna Zweig 

Algorithmische Entscheidungssysteme sind lernende und damit auch verheißungsvolle Systeme: Sie sortieren Bewerbungen nach dem vermeintlich perfekten Kandidaten. Vielleicht können sie sogar die Leistung von MitarbeiterInnen einschätzen, kontrollieren. Doch sind Maschinen tatsächlich objektiver als der Mensch? Vertragen wir automatisiertes Feedback besser? Und welche Gefahren lauern in diesen neuen Entwicklungen?

Im Projekt „Ethik der Algorithmen“ der Bertelsmann-Stiftung findet eine Auseinandersetzung mit den gesellschaftlichen Folgen algorithmischer Entscheidungsfindung statt. „Wir wollen zu einer Gestaltung algorithmischer Systeme beitragen, die zu mehr Teilhabe für alle führt. Nicht das technisch Mögliche, sondern das gesellschaftlich Sinnvolle muss Leitbild sein.“

AlgorithmWatch ist eine Plattform, die ExpertInnen verschiedener Kulturen und Disziplinen zusammen bringt, die sich mit der Analyse algorithmischer Entscheidungsfindung und ihrer gesellschaftlichen Auswirkungen beschäftigen. AlgorithmWatch hat das Ziel, Prozesse algorithmischer Entscheidungsfindung zu betrachten und einzuordnen, die eine gesellschaftliche Relevanz haben – die also entweder menschliche Entscheidungen vorhersagen oder vorbestimmen, oder Entscheidungen automatisiert treffen.

Gerne würden wir uns dazu mit euch austauschen und an dieser Thematik dranbleiben. Lasst uns gemeinsam Fragen und Themen sammeln, eine Veranstaltung organisieren, Antworten von Experten/ Expertinnen erhalten!

Sämtliche Quellen zu diesem Text findet ihr auf all den eingebauten Links. bertelsmann-stiftung, zdf/dokumentation, algorithmenethik.de, aalab.informatik, humanresourcesmanager.de, algorithmwatch, Udo Keller Stiftung Forum Humanum, algorules.org