Die HSG Stiftung dankt all ihren Förderinnen und Förderern

Privatpersonen, Unternehmen, Stiftungen: Dank signifikanter Zuwendungen konnte die Universität St.Gallen strategisch wichtige Projekte schnell umsetzen und sich als eine der führenden Wirtschaftsuniversitäten etablieren. Herzlichen Dank an unsere Förderinnen und Förderer für ihr Engagement!

Jetzt fördern Unsere Förderer

Den Umgang mit Algorithmen lernen

Prof. Dr. Melinda Lohmann
Assistenzprofessorin für Wirtschaftsrecht, Schwerpunkt Informationsrecht,
Direktorin der Forschungsstelle für Informationsrecht an der Universität St.Gallen.
Foto Kopf & Kragen

Der Einsatz von künstlicher Intelligenz und selbstlernenden Algorithmen in unserem Alltag gewinnt zunehmend an Bedeutung. Schon jetzt beeinflussen Algorithmen unsere Meinungsbildung und agieren in Entscheidungsfindungen vermehrt selbständig. Die Innovationskraft der Algorithmisierung steht ausser Frage, gleichzeitig birgt sie aber beachtliche soziale Risiken. Zu beobachten ist eine verstärkte digitale Bevormundung und damit eine Gefährdung der informationellen Selbstbestimmung. Besonders das Ausmass der Erhebung und des Austauschs personenbezogener Daten ist datenschutzrechtlich bedenklich.

«Die Innovationskraft von Algorithmen ist unbestritten und wird sich inskünftig noch verstärken. Doch dürfen die sich daraus ergebenden Risiken nicht ausser Acht gelassen werden. Gefragt sind ausgewogene interdisziplinäre Anätze, ausgehend von einer gesellschaftlichen Diskussion darüber, inwieweit wir Algorithmen überhaupt die Hoheit über uns geben wollen. Eine aufgekärte und reflektierte Auseinandersetzung ist zentral, damit aus der Algorithmisierung keine Algokratie wird.»

In den letzten Jahren sind zudem zahlreiche Beispiele für Diskriminierungen durch Algorithmen bekanntgeworden («algorithmic bias»): So wurden Frauen auf Nachrichtenseiten deutlich seltener Online- Anzeigen für hochbezahlte Jobs angezeigt als Männern; die Suche nach dem Suchbegriff «professional hair» förderte Bilder von weissen Frauen zutage, diejenige nach «unprofessional hair» hingegen von schwarzen Frauen. Zu behaupten, Google als Suchmaschine sei sexistisch oder rassistisch, wäre eine verkürzte Darstellung, denn der Algorithmus reproduziert und verstärkt bestehende gesellschaftliche Vorurteile, die in die Trainingsdaten einfliessen. Besonders bedenklich ist diese implizite Voreingenommenheit, wenn sie Individuen beeinträchtigt, etwa bei der automatisierten Behandlung von Online-Kreditanträgen oder bei Online-Einstellungsverfahren.

 

Angesichts dieser Risiken wird der Ruf nach Transparenz von Algorithmen lauter. Aus rechtlicher Sicht ist sie in verschiedener Hinsicht relevant: Wenn nachvollziehbar wäre, wie selbstlernende Systeme agieren, liessen sich Haftungsfragen leichter klären und mögliche Ansprüche besser durchsetzen. Wichtig wird das etwa im Kontext von Unfällen mit selbstfahrenden Fahrzeugen. In datenschutzrechtlicher Hinsicht ist die Nachvollziehbarkeit zur Verwirklichung der informationellen Selbstbestimmung zentral, gerade bei algorithmischen Entscheidungen. Verschiedentlich wurde vertreten, die europäische Datenschutzgrundverordnung (DSGVO) statuiere ein «Recht auf Erklärung». Die Bestimmungen der DSGVO sind jedoch unbestimmt und auslegungsbedürftig. Geklärt werden muss zunächst, was ein Recht auf Erklärung beinhalten soll: Denkbar wäre einerseits eine allgemeine Erklärung der Systemfunktionalität (ex ante oder ex post), andererseits eine spezifische Erklärung der Einzelfallentscheidung (in der Regel ex post). Die DSGVO sieht nur Ersteres vor. Mit zunehmender Komplexität und Tragweite der algorithmischen Entscheidungen dürfte diese allgemeine Form der Erklärung aber für einen angemessenen Rechtsschutz ungenügend sein. Im Interesse der Rechtssicherheit sollten diese Unklarheiten in der DSGVO zeitnah geklärt werden.

 

Bei der Diskussion um ein Recht auf Erklärung sind verschiedene Aspekte und Interessen zu berücksichtigen, insbesondere die Auswirkungen auf den Innovationsstandort. Ein umfassendes Recht auf Erklärung könnte durchaus innovationshemmend wirken. Gerade im Vergleich mit den Vereinigten Staaten und Asien könnte der europäische Datenschutzstandard die Wettbewerbsfähigkeit hiesiger Unternehmen untergraben. Beachtenswert ist ferner das Spannungsfeld des Rechts auf Erklärung mit den Geschäftsgeheimnissen und IP-Rechten des Algorithmenverwenders. Diese könnten durch eine Pflicht zur (detaillierten) Offenlegung des algorithmischen Verfahrens verletzt werden. Zu denken ist etwa an den Scoring-Algorithmus der Schufa, der für das Unternehmen von enormer wirtschaftlicher Bedeutung ist.

 

Die technische Umsetzbarkeit eines Rechts auf Erklärung ist angesichts der Natur selbstlernender Systeme als «Black Box» keine Selbstverständlichkeit. Die Machine Learning (ML) Community arbeitet in diesem Zusammenhang seit Längerem an Lösungen, etwa im Rahmen des 2016 lancierten Projekts zu «Explainable AI» (XAI) der amerikanischen Defense Advanced Research Projects Agency. Unter dem Titel «Explainable AI» oder «Explainable ML» wird diskutiert, wie undurchsichtige ML-Modelle erklär- und nachvollziehbar gemacht werden können. Konkret sollen dem Nutzer einzelne Entscheidungsschritte erläutert, die allgemeinen Stärken und Schwächen des Modells vermittelt und ein Verständnis dafür ermöglicht werden, wie sich das System in Zukunft verhalten wird. Kritisch ist speziell der Trade-off zwischen der Vorhersagegenauigkeit eines Systems und dessen Nachvollziehbarkeit: So weisen künstliche neuronale Netze und Deep-Learning-Verfahren eine hohe Vorhersagegenauigkeit auf, sind aber (noch) schwer nachvollziehbar.

 

Um algorithmisches Wirken nachvollziehbarer zu machen, wird auch die Einführung eines Zulassungstests für komplexe Algorithmen mit sensiblem Anwendungsbereich diskutiert. Denkbar wäre ferner die Einführung einer Kennzeichnungspflicht für gewisse Algorithmen. Diese Lösungen können vertrauensbildend und transparenzsteigernd wirken, führen allerdings zu einem hohen bürokratischen Aufwand – und zu einer Beschränkung der unternehmerischen Freiheit. Eine weitere Möglichkeit wäre die Schaffung eines digitalen Antidiskriminierungsgesetzes, über das eine staatliche Aufsichtsbehörde wachen könnte. Die konkrete Ausgestaltung eines solchen Gesetzes dürfte allerdings schwierig werden und das Gesetz bis zu seiner Umsetzung wieder veraltet sein. Naheliegender wäre die Anpassung bestehender Gesetze, etwa des in Deutschland geltenden Allgemeinen Gleichbehandlungsgesetzes, auf die digitale Wirtschaft. In der Schweiz fehlt allerdings eine vergleichbare Rechtsgrundlage. Angedacht wird ferner, schon die Entwicklung von Algorithmen durch organisatorische Massnahmen zu optimieren, etwa durch eine Erhöhung der Vielfalt («diversity») in den Entwicklerteams. Nicht nur bei der Entwicklung selbstlernender Algorithmen, sondern auch bei deren Implementierung könnten Selbstregulierungen der Industrie förderlich sein und grössere Akzeptanz geniessen.

 

Eine Anweisung zur schrittweisen Lösung des Problems – dies die Definition des Algorithmus – wird es für die Herausforderungen der Algorithmisierung nicht geben. Gefragt sind ausgewogene interdisziplinäre Ansätze ausgehend von einer gesellschaftlichen Diskussion darüber, inwieweit wir Algorithmen überhaupt die Hoheit über uns geben wollen. Damit wir verstehen, was wir regulieren wollen, ist eines unverzichtbar: Bildung. Eine erfolgreiche Zukunft bedingt digitale Kompetenz, die mitunter in den Bildungsstätten erfahren und erlernt werden muss. Künstliche Intelligenz dürfte eine der transformativsten Innovationen der Menschheitsgeschichte sein. Eine aufgeklärte und reflektierte Auseinandersetzung mit ihr ist zentral, damit aus der Algorithmisierung keine Algokratie wird.