Getty Images/iStockphoto / peterhowell/iStockphoto

Was macht ein Algorithmus? Zehn Fragen und Antworten

Unter Algorithmen kann man sich meist nur wenig vorstellen. Wir erklären euch, was Algorithmen sind und wo sie zum Einsatz kommen.
Barbara Wimmer Barbara Wimmer

Fast die Hälfte der Europäer weiß nicht, was Algorithmen sind. 48 Prozent haben keine Kenntnis, nur acht Prozent gaben an, viel darüber zu wissen. Das ergab eine Umfrage der Bertelsmann Stiftung, die seit Jahren zu diesem Thema forscht. Die futurezone nimmt dies zum Anlass, um euch zu erklären, was ein Algorithmus ist, wo man ihn überall antreffen kann und wie objektiv er ist. 

Was ist ein Algorithmus?

Ein Algorithmus ist eine Anweisung, die in Systemen Schritt für Schritt ausgeführt werden, um ein bestimmtes Problem zu lösen oder eine Aufgabe zu bewältigen. In der Informatik ist ein Algorithmus ein Computerprogramm, das verwendet wird, um bestimmte Entscheidungen zu treffen. Algorithmen sind an und für sich auch nichts Neues, doch sie bekommen immer mehr Bedeutung. Im Bereich Big Data werden mithilfe von Algorithmen große Datenmengen nach Mustern und Zusammenhängen durchsucht und ausgewertet.

Bertelsmann Stiftung

Wo kommen Algorithmen zum Einsatz?

Fast überall und oft, ohne dass man es merkt. Algorithmen kontrollieren etwa den Satzbau beim Schreiben in einem Office Dokument. In Navigationssystemen sind sie dafür verantwortlich, dass uns der kürzeste Weg angezeigt wird – oder auch Alternativen, wenn uns diese Auswahl nicht gefällt. Beim Online-Dating treffen Algorithmen häufig eine Vorauswahl der potentiellen Partner, das Programm „matcht“ zwei Personen, die sich dann treffen. Bei Netflix macht ein Algorithmus Filmvorschläge.

Auf Facebook, Twitter oder Instagram entscheiden Algorithmen, welche Nachrichten, Bilder oder Tweets wir in unseren Newsfeeds zu sehen bekommen. Das bedeutet etwa, wenn unsere Freundin Sabine etwas auf Facebook postet, wird uns das nicht automatisch angezeigt, sondern ein Computerprogramm bestimmt, ob wir diesen Inhalt überhaupt automatisch zu sehen bekommen, ohne ihr Profil zu besuchen.

Algorithmen bestimmen online überhaupt sehr häufig, was für Inhalte wir zu Gesicht bekommen und immer häufiger bestimmen sie auch den uns angezeigten Preis für bestimmte Produkte. Dasselbe, das uns mit Freundin Sabine auf Facebook passiert, findet nämlich etwa auch mit personalisierter Werbung und Angeboten statt. Unser Klick-, Such- und Kaufverhalten wird von Programmen analysiert, um uns im Anschluss personalisierte Werbung oder bestimmte Angebote zu präsentieren. Maximilian sieht daher vielleicht ganz andere Inhalte online wie Margarethe, oder er bekommt bei der Buchung eines Fluges einen anderen Preis als Margarethe.

Gibt es auch besonders heikle Bereiche, bei denen Algorithmen entscheiden?

Banken setzen Algorithmen etwa ein, um zu berechnen, ob jemand kreditwürdig ist, oder nicht. Versicherungen setzen sie ein, um festzulegen, wer wie viel Prämie zahlt.

In Europa gibt es bisher noch nicht viele Länder, bei denen staatliche oder staatsnahe Stellen Computerprogramme zur Entscheidungsfindung etwa über Förderungen oder Sozialleistungen einsetzen. Doch die Anzahl wächst. In Österreich kommen Algorithmen etwa zum Einsatz, um die Arbeitsmarktchancen von Arbeitslosen zu bewerten. Auch in den Niederlanden gibt es eine Software, die automatisch potentielle Sozialbetrüger herausfiltern soll.

In den USA kommen schon zahlreiche Computerprogramme bei Entscheidungsfindungsprozessen zum Einsatz. Etwa auch, wenn es darum geht, zu beurteilen, ob ein Straftäter auf Kaution freigelassen werden soll oder ob die Gefahr, dass er rückfällig wird oder untertaucht, zu groß ist.

Doch auch in Österreich gibt es „Predictive Policing“, also Polizeiarbeit, die sich auf Vorhersagen von Computerprogrammen stützt. So wird etwa anhand von Daten die Anzahl der Dämmerungseinbrüchen in bestimmten Gebieten ermittelt. Ist eine Häufung von Einbrüchen zu bemerken, werden Personen gewarnt.

Für dich ausgesucht

Wie kommen Algorithmen zu einem Ergebnis?

Ein Algorithmus darf keine widersprüchliche Beschreibung haben, sie muss eindeutig sein. Jeder Einzelschritt muss ausführbar sein und es muss eine „Endlichkeit“ definiert sein, so dass der Algorithmus ein Ergebnis liefern kann. Er muss außerdem stets bei gleichen Voraussetzungen das gleiche Ergebnis liefern. Das sind die fixen Kriterien, die Programmierer beachten müssen, wenn sie Algorithmen für eine Problemlösung entwickeln. Auch selbstlernende Algorithmen basieren auf diesen Kriterien.

Sind Algorithmen objektiv?

Nein. Algorithmen sind nicht die besseren Richter oder Entscheider als Menschen. Sie sind auch nicht objektiv, sondern reproduzieren gängige Stereotype und oft auch Ungleichheit, weil diese auch in der Gesellschaft vorkommt. Das haben zahlreiche Studien wissenschaftlich untersucht, etwa Forscher rund um die Informatikerin Aylin Caliskan von der Princeton University. Auch selbstlernende Algorithmen sind nicht besser, weil sie lernen ebenso von den Menschen und übernehmen so deren rassistische und sexistische Stereotype. Hier kommt oft noch hinzu, dass ihrer Schöpfer gar nicht mehr nachvollziehen können, warum sie bestimmte Entscheidungen treffen. Wenn es dann darum geht, Menschen erklären zu müssen, wie es zu bestimmten Entscheidungen über sie gekommen ist, kann es in so einem Fall sogar zu ernsten Problemen kommen. 

Wie kann man Diskriminierung verhindern?

Diskriminierung wird in jedem Computersystem eine gewisse Rolle spielen, weil bei diesen Korrelation und Kausation anders zustande kommt als bei Menschen. Systeme können immer verrückte Korrelationen herstellen, auch wenn man sie anders programmiert.

Ein Beispiel: Amazon hatte als Lernmaterial für das System die Bewerbungen der vergangenen zehn Jahre benutzt. Weil sich überwiegend Männer beworben hatten, stufte der Algorithmus „Mann“ in einer Skala positiv ein, „Frau“ hingegen negativ. Selbst eine neutrale Einstufung von „Frau“ konnte die Diskriminierung nicht lösen, da das System derartige Befehle immer wieder ignoriert hatte.

Diskriminierung lässt sich jedoch in einzelnen Fällen minimieren, in dem man auf ein diverses Entwicklerteam setzt und externen Zugang zu den entwickelten Modellen gewährt. Manchmal ist Diskriminierung jedoch eine Vorgabe von Vorgesetzten an die Programmierer, die die Vorstellungen der Entscheidungsträger umzusetzen haben. Eine breite, gesellschaftliche Debatte könnte hier manche Fehlentwicklung aufzeigen.

Wie finde ich heraus, wie eine Entscheidung eines Algorithmus über mich zustande gekommen ist?

In der Regel gar nicht. Google und Facebook legen nicht offen, wie Algorithmen entscheiden, ob wir das Posting von Sabine sehen, oder ob und warum es uns nicht angezeigt wird. Die Algorithmen der sozialen Medien oder Suchmaschinenanbieter übernehmen die volle Kontrolle darüber, was wir online sehen, und was nicht.

Auch staatliche oder staatsnahe Stellen, Versicherungen oder Banken informieren Bürger nicht darüber, wie ein Programm zu einer bestimmten Entscheidung gekommen ist. In der Regel gilt dies jedoch auch für Wissenschaftler von Institutionen.

Eine Möglichkeit, Algorithmen zu kontrollieren, wäre nämlich etwa, diese von externen Institutionen überprüfen zu lassen, um dafür zu sorgen, dass Steoretype und Diskriminierung reduziert wird.  Grundsätze wie Verantwortlichkeit, Überprüfbarkeit, Verständlichkeit, Erklärbarkeit, Gerechtigkeit und Neutralität sollten schon bei der Entwicklung berücksichtigt werden, fordern Experten.  Das Problem dabei ist, dass solche Maßnahmen von den Unternehmen nur dann freiwillig erfolgen, wenn sie auch ihrem Eigeninteresse entsprechen.

Was für Probleme gibt es sonst noch?

Algorithmen selbst machen zwar niemals Fehler, aber bei algorithmenbasierten Entscheidungen, die mit Wahrscheinlichkeiten arbeiten, gibt es durchaus so etwas wie eine Fehlerrate. Die liegt im Falle des AMS-Algorithmus etwa bei 20 Prozent. Das bedeutet für 50.000 Menschen pro Jahr, dass ihre Arbeitsmarktchancen vom System falsch berechnet werden. 20 Prozent gilt allerdings meistens noch als recht „gute Quote“, was zeigt, dass man sich auf Algorithmen oftmals nicht verlassen sollte.

Was kann ich tun, wenn ich die Entscheidung eines Algorithmus für falsch halte?

Laut EU-Datenschutzgrundverordnung muss in „präziser, verständlicher und leicht zugänglicher Form in einer klaren und einfachen Sprache“ über den Einsatz von Algorithmen aufgeklärt werden. Auch die „involvierte Logik sowie die Tragweite einer Verarbeitung für die Person“ muss Personen erklärt werden.

Beruht eine Entscheidung eines Algorithmus auf falschen Daten, kann man laut der Datenschutzgrundverordnung (Artikel 16) seine Daten richtigstellen lassen. Zudem gibt es für Betroffene ein generelles Auskunftsrecht laut DSGVO, das man ebenfalls per Formular einfordern kann.

Wie finde ich heraus, ob bei einer Entscheidung ein Algorithmus zum Einsatz gekommen ist?

Gar nicht. Viele EU-Bürger wünschen sich eine Kennzeichnungspflicht für Algorithmen, wie die Bertelsmann Stiftung in ihrer Umfrage herausgefunden hat. Die EU soll ein „Vermummungsverbot für Algorithmen“ schaffen, fordert die Bertelsmann Stiftung.

Für dich ausgesucht