Programmcode und Moral passen in etwa so gut zusammen, wie Fisch und Fahrrad. Dabei bewerten Algorithmen längst den Menschen immer häufiger an ethisch kritischen Stellen – und einen Prozess, dies zu beeinflussen, gibt es nicht.
Von Felicia Schuld und Sebastian Kirschner
Ja? Nein? Vielleicht? Was ist wenn der Algorithmus entscheidet? Ein Programmcode hat doch keine Moral. Oder? Unser Ergebnis hört ihr hier:
Entscheidungsfreiheit ist das eine, Verantwortung für den Algorithmus und seine Folgen sind das andere. Wer macht sich da Gedanken?
Wenn der Code uns bewertet
Gesundheitstracking, autonomes Fahren, Kreditscoring, Google-Suchanfragen, auch die Vorauswahl von Bewerbungsgesprächen stützt zunehmend ein Programmcode. Und dank künstlicher Intelligenz erledigt der seine Aufgaben nicht mehr nur stumpf nach Schema, sondern lernt sogar, sich anderen Situationen anzupassen. Schon lange lautet die Frage nicht mehr „Wollen wir überhaupt, dass Algorithmen Menschen bewerten?“ Es geht nur noch um das Wie. In Deutschland hat sich das so genannte Jobmatching, also die ausschließlich vom Computer durchgeführte Bewerberauswahl, noch nicht durchgesetzt. In den USA ist es bereits Alltag. Mögliche Folgen des Jobmatchings: Man bekommt einen Job nicht, weil man zum Beispiel eine falsche Postleitzahl hat. Sowas gibt es heute schon bei Handy-Verträgen. Höchste Zeit also, sich darüber Gedanken zu machen. Doch diese Debatte schafft nur zögerlich den Schritt in die Öffentlichkeit. Warum?
Gerade erst am Anfang
Ein Bewusstsein für ethische Fragen zu Algorithmen gibt es. Konrad Lischkas Aufgabe bei der Bertelsmannstiftung beispielsweise ist, das Thema einer breiteren Öffentlichkeit zugänglich zu machen. Er leitet dort das Projekt „Ethik der Algorithmen“. „Wir sind gerade erst am Anfang“, sagte Lischka bei einem Vortrag zu dem Projekt. Auch an der TU Kaiserslautern gibt es eine gesellschaftliche Debatte über Algorithmen. Seit 2016 besteht die Plattform AlgorithmWatch. Ihr aller Ziel: Mehr Transparenz und Kontrolle im Umgang mit Algorithmen.
Spätestens mit der Diskussion um autonomes Fahren schaffte es eine zentrale Ethik-Frage in die Öffentlichkeit – zumindest für einen Moment: Wer ist verantwortlich für einen Algorithmus, etwa weil er dem Menschen schadet? Wenn der Algorithmus ein Leben höher als ein anderes wertet?
Fragen der Moral – für Teckies Neuland
Alexander Filipović, Leiter des Zentrums für Ethik der Medien und der Digitalen Gesellschaft in München, sieht die Programmierer und Auftraggeber in der Pflicht. Doch die entziehen sich bislang der Diskussion, schieben sich die Verantwortung meist gegenseitig zu. Für sie stehen eher die technischen Herausforderungen und die gesetzlichen Rahmenbedingungen im Vordergrund. „Die Teckies denken über Fragen der Moral nicht so gerne nach. Das sind die gar nicht gewohnt. Für die sind Probleme etwas, das man technisch lösen kann.“
Eine Firma, die bereits mit Algorithmen arbeitet, ist das Start-Up Jobninja aus München. Ihr Algorithmus ist dafür zuständig, dass Stellenanzeigen auf Bewerberplattformen optimal ausgespielt werden.
Mircea Popa, einer der Gründer, macht sich sehr wohl Gedanken über Ethik und Moral: „Bei der Weiterentwicklung der Algorithmen achten wir immer darauf, dass das ethischen und moralischen Gesichtspunkten entspricht.“ Allerdings seien die Kriterien, die sie anlegen, keine harten Kriterien und das Thema habe man „im Hinterkopf“. Jobmatching habe man anfangs versucht, sei aber wieder davon abgekommen. Die Gesellschaft sei noch nicht so weit, sich komplett von Algorithmen bewerten zu lassen.
Algorithmen betreffen alle
Auch wenn es noch nicht so weit ist, dass Maschinen den Menschen komplett bewerten, ist für Filipović klar: Mit Fragen von Ethik und Moral müssen sich Programmierer und Unternehmer frühzeitig beschäftigen – am besten schon während der Ausbildung. Nur so werden sie ein ethisches Bewusstsein beim Programmieren von Algorithmen entwickeln. Konrad Lischka fasste es im Gespräch mit dem Deutschlandfunk allgemeiner. Aus seiner Sicht betreffen Algorithmen alle. Daher sind auch alle gefragt, sich Gedanken zu machen: Der Staat als Gesetzgeber oder eine Prüfstelle als eine Art Algorithmen-TÜV beispielsweise. Noch wichtiger findet er aber, dass die Debatte in der breiten Öffentlichkeit ankommt. Denn: „Gefährlich wird es vor allem dann, wenn Algorithmen unreflektiert entwickelt oder umgesetzt werden.“ Einfach den Stecker zu ziehen, wird bei künstlicher Intelligenz wohl irgendwann nicht mehr möglich sein.