Freiflug

Algorithmenethik, oder: Warum nicht alle guten Algorithmen zu „den Guten“ gehören.

Von Volker Maiborn @vm_64 auf Twitter
14. Januar 2019

Algorithmenethik

Oder: Warum nicht alle guten Algorithmen zu „den Guten“ gehören.

Algorithmen sind „IN“. Wer etwas auf sich hält spricht nicht einfach von „Künstlicher Intelligenz“. Er und sie gruseln sich vor der Allmacht der „Algorithmen“ oder preisen deren weltrettendes Potenzial. In jedem Fall gilt, dass sich Algorithmen gefälligst anständig verhalten, fair sind, niemandem schaden, schon gar keinem Menschen. Wer etwas auf sich hält, nennt das dann „ethisch“. Was es demnach braucht, scheint eine Ethik für Algorithmen zu sein.

So intuitiv, verklausuliert, pauschal und unverbindlich diese Forderung nach Vorschriften für „gute KI“ auch klingt: Eine Algorithmenethik ist tatsächlich richtig und wichtig – wenngleich ganz anders als spontan vermutet.

Zunächst einmal sind Algorithmen einfach nur Regeln. Vorgehens- und Entscheidungsregeln. Schon jedes Kochrezept ist ein Algorithmus. Erst recht jede Software, die seit Konrad Zuse programmiert wurde. Nur, dass diese Programme heute den Alltag vieler Menschen ganz entscheidend beeinflussen. Und hochautomatisiert sind. Und in Millisekundenschnelle arbeiten. Und jede Menge Daten verarbeiten. Das zusammen genommen bringt den Gruselfaktor: Das Kochrezept konnte ich verstehen, meistens zumindest. Das Programm, das entscheidet, Reinhard Mey zu streamen, wenn ich „Grönemeyer-Radio“ wähle, verstehe ich nicht. Doch obwohl es ganz offensichtlich nicht „intelligent“ und von der Singularität weit weit entfernt ist, will ich ihm trotzdem nicht mehr ohne weiteres vertrauen.

Es bedarf also gar nicht erst der mystifizierten Idee einer „Artifical Intelligence“ und der apokalyptischen Sorge vor autonomen Kampfmaschinen, um die Notwendigkeit von Regeln zu begründen, was erlaubt ist und was nicht. Allein die Auswirkung „ganz normaler“ Softwareprogramme kann heute immens sein. Und deswegen ist es tatsächlich richtig, über Gebote für Algorithmen, also für jedes regelbasierte System, nachzudenken. Und eben nicht nur für den Spezialfall KI.

 

Dieser Aufgabe haben sich die Bertelsmann Stiftung und das iRightsLab gemeinsam angenommen, zwei ThinkTanks der Digitalisierung. Den Entwurf ihrer acht Gütekriterien für algorithmische Systeme, die so genannten #algorules (hier bei Twitter), stellten Carla Hustedt und Michael Puntschuh Anfang Januar bei MaibornWolff vor.

Die Grundidee ist einfach und schlüssig: Analog zu den Berufsethiken für Ärzte und Journalisten soll es eine „Professionsethik“ für all diejenigen geben, die algorithmische Systeme (aS) gestalten. Für Programmierer. Für Data Scientists. Für diejenigen, die entscheiden, Algorithmen für sich entscheiden zu lassen. Eine „Ethik“ sagt dabei noch nicht inhaltlich, was genau erlaubt ist und was nicht. Das macht erst die Moral. Eine Ethik schafft zunächst die Grundlagen, um sauber über Gut und Böse nachzudenken und moralische Entscheidungen überhaupt treffen, begründen, überprüfen und bewerten zu können. Sie stellt allgemeingültige Regeln auf, die im Einzelfall auszulegen sind.

Konsequenterweise formulieren die #algorules erst einmal „nur“, wie algorithmische Systeme oder Prozesse gestaltet sein müssen, damit moralische Bewertungen zu einem späteren Zeitpunkt überhaupt vorgenommen werden können. Regel 1 fordert zum Beispiel den Kompetenzaufbau von jedem Beteiligten beim Aufbau eines aS. Regel 2 will, dass verantwortliche Personen benannt werden. Nachvollziehbarkeit der erwarteten Wirkungen, Sicherheit und eine Art „Vermummungsverbot“ für Algorithmen wollen Regeln 3 bis 5. Und dann sollen aS gemäß der Algorules 6 bis 8 beherrschbar, überprüfbar und korrigierbar sein.

Das auf den ersten Blick Überraschende, ja vielleicht sogar Enttäuschende ist: Keine Rede davon, ob ein aS Randgruppen benachteiligen darf - oder sogar muss, je nachdem an welche Randgruppe man gerade denkt. Keine Spur von Kritik an Facebooks Nutzung persönlicher Daten allein zum Zweck der gezielten Werbeausspielung: Darf der Facebook-Algorithmus das?! Die Gütekriterien schweigen dazu.

 

Doch genau diese Selbstbeschränkung auf Qualitätsmerkmale ist die Superkraft des Ansatzes der beiden ThinkTanks! Über die #algorules an sich kann man kaum sinnvoll streiten. Man kann ihre Umsetzbarkeit erörtern oder ihre Vollständigkeit, aber eigentlich nicht ihre grundsätzliche Berechtigung. So, nur so, entsteht die Chance für eine nationenübergreifenden Konsens, der für aS logischerweise unverzichtbar ist, wenn er wirksam sein soll.

Die Gütekriterien sind daher Leitplanken: „nicht weiter als hier!“ Sie sind eine gemeinsame Basis für die oft kontroverse, kultur- und kontextabhängige Auseinandersetzung über die moralische Güte eines bestimmten Algorithmus. Oder wie ein kluger Diskussionsteilnehmer erschreckend treffend sagte: „Auch ein fieser Diktator sollte fordern, dass sein „evil algorithm“ den #algorules entspricht. Nur so kann er nachvollziehen, ob alle Dissident:innen sauber aus dem Staatsdienst entfernt wurden.“

Das klingt absurd. Oder doch zumindest paradox! Eine Algorithmenethik, die von Misanthropen gut geheißen wird? Was soll das?

Der Clou der Sache liegt in der Zweistufigkeit. In der Trennung des WIE vom WAS. Besteht über das WIE ein Konsens der Experten für aS, dann kann die Gesellschaft auf breiter Basis und im Vertrauen auf die Gütekriterien diskutieren, WAS algorithmische Systeme dürfen sollen und was unterbunden wird. Hier können und müssen ALLE mit diskutieren, denn es geht um die Werte der Gesellschaft. Ob zum Beispiel Diskriminierung stattfindet und wer bevorzugt oder benachteiligt werden soll und darf, ist eine Entscheidung, die weit über algorithmische Systeme hinaus reicht. Es ist eine moralische Norm der Gesellschaft, die nicht frei von Zielkonflikten ist. Zum Beispiel: Darf in Freiheitsrechte eingegriffen werden, um Sicherheit zu gewährleisten? Diese Abwägung ist eine allgemeingültige, politische Frage. Die Antworten auf diese Fragen für menschliches Handeln gelten auch für ein aS. Ein Algorithmus, der menschliche Einzelfallentscheidungen automatisiert, muss und darf grundsätzlich das Gleiche wie der Mensch, der ihn einsetzt. Nicht mehr, nicht weniger.

Daher braucht es auch keine gesonderte Moral, wenn Algorithmen benutzt werden. Alles was es zusätzlich braucht, sind gute und machbare Kriterien, wie algorithmische Systeme gestaltet sein müssen. Genau das formulieren die acht #algorules. Sie sind das Fundament, um die Werte, auf die sich eine Gesellschaft einigt, auch in der Digitalisierung konsequent zu leben.

Dass dies in unserer westeuropäischen Gesellschaft humanistisch-liberale Werte der Demokratie, der Solidarität, der Vielfalt, der Teilhabe sind, steht auf einem anderen Blatt – dem Grundgesetz.

Deutsch

Neuen Kommentar schreiben

Public Comment form

  • Zulässige HTML-Tags: <a> <em> <strong> <cite> <blockquote> <code> <ul> <ol> <li> <dl> <dt> <dd><p><h1><h2><h3>

Plain text

  • Keine HTML-Tags erlaubt.
  • Internet- und E-Mail-Adressen werden automatisch umgewandelt.
  • HTML - Zeilenumbrüche und Absätze werden automatisch erzeugt.

ME Landing Page Question