«Das, was offline gilt, sollte auch online gelten»

Die Geschäftsmodelle von Google, Facebook und Co. verletzen im Kern Menschenrechte. Was können wir dagegen tun? Die SKZ sprach mit Peter G. Kirchschläger über die Aufgaben, welche die digitale Transformation uns stellt.

Prof. Dr. theol. lic. phil. Peter G. Kirchschläger (Jg. 1977) ist seit 2017 Ordinarius für Theologische Ethik und Leiter des Instituts für Sozialethik ISE der Theologischen Fakultät der Universität Luzern. (Bild: zvg)

 

SKZ: Herr Kirchschläger, welche Probleme erwachsen aus der digitalen Transformation für den Einzelnen, die Zivilgesellschaft und die Politik?
Peter G. Kirchschläger: Das grösste Problem der datenbasierten Systeme sehe ich in der Verletzung der Menschenrechte – insbesondere der Privatsphäre und des Datenschutzes. Beispielsweise werden während dieser Videokonferenz Daten von uns gesammelt und dann dem Meistbietenden verkauft. Damit ist Tür und Tor für eine ökonomische und politische Manipulation der Nutzerinnen und Nutzer geöffnet. Ich nenne als Beispiel die Präsidentschaftswahlen 2016 in den USA. Es ist belegt, dass Facebook Datensätze weiterverkauft hat. Dasselbe passierte beim Brexit. Totalitäre Regime können auf diese Weise Einfluss auf Wahlen und Abstimmungen in Demokratien nehmen. Das führt zur Unterwanderung und Destabilisierung demokratischer Länder. Das zweite grosse Problem liegt darin, dass die Geschäftsmodelle von Google, Facebook und Co. im Kern Menschenrechte verletzen. Facebook verdient umso mehr Geld, je länger wir auf Plattformen bleiben. Es ist wissenschaftlich erwiesen, dass wir bei Hass-, Wut- und Zornesäusserungen im Netz länger auf Plattformen verweilen und dass es von Hassäusserungen zur entsprechenden Handlung im Realen ein kleiner Schritt ist. Diese Schritte passieren. Dennoch unternimmt Facebook nichts dagegen. Das dritte grosse Problem ist die fehlende Durchsetzung bereits existierender rechtlicher Normen. Das, was offline gilt und durchgesetzt wird, sollte auch online gelten und durchgesetzt werden. Es bedarf dringend adäquater Massnahmen für eine bessere Durchsetzung bereits existierender rechtlicher Standards. Elon Musk – der Tesla-Chef – sagte einmal, dass Künstliche Intelligenz gefährlicher sein kann als Atomwaffen.

Diese Aussage erinnert mich an eine Aussage des im 2018 verstorbenen Physikers Stephen Hawkings: «KI könnte das Beste oder das Schlimmste werden, das der Menschheit jemals widerfahren ist. Wir wissen nur noch nicht, welches von beidem zutrifft.»
Algorithmen sind nie wertneutral. Wenn ich im Netz nachschaue, in welchem Café ich in Luzern den besten Kaffee bekomme, dann zeigt es mir nicht das Café mit dem besten Kaffee an, sondern dasjenige, welches am meisten für diese Präsenz im Netz bezahlt. Das ist Täuschung der Nutzerinnen und Nutzer. Suchmaschinen sind vollends kommerzialisiert. Datenbasierte Systeme wissen – mit einem Bild gesprochen –, welche Klaviertasten sie spielen müssen, damit bei uns die Musik spielt – sprich: damit wir so einkaufen oder politisch so wählen oder abstimmen, wie sie das wollen.

Was unternimmt die Politik in der Schweiz?
In der Schweiz nehme ich eine grosse Begeisterung wahr für das, was mit digitalen Technologien alles möglich ist. Keine Frage, datenbasierte Systeme bieten auch grosse ethische Chancen. Gleichzeitig beobachte ich, dass in der Schweiz langsam auch ein politisches Bewusstsein dafür wächst, wo die Probleme liegen – trotz massiven Lobbyings, das dies zu verhindern sucht. Es fehlt jedoch noch die Bereitschaft, die Probleme konkret anzugehen. Tatsache ist auch, dass Amazon, Apple, Facebook, Google und Microsoft massive ökonomische Interessen haben. Sie unternehmen alles Mögliche dagegen, dass z. B. die EU und die Schweiz im digitalen Bereich die Durchsetzung bereits geltender rechtlicher Regeln verbessern. Allein in Europa geben sie jährlich über 20 Millionen Euro für Lobbying aus.

Gerade heute Morgen hörte ich in den Nachrichten, dass zuständige Gremien in der EU ein neues Digitalgesetz verabschiedet haben, das die Macht von Google und Co. etwas eingrenzt und den Nutzerinnen und Nutzern mehr freie Wahl bei Onlineangeboten ermöglicht.1 Was kann denn der Einzelne tun?
Sie bzw. er kann das Konsumverhalten ändern. Zum Beispiel möglichst Angebote nutzen, die den Datenschutz respektieren. Als Stimmbürgerin und Stimmbürger kann ich weiter bei Abstimmungen und Wahlen Einfluss nehmen. Die Probleme sind systemischer Natur. Entsprechend müssen wir sie auf der systemischen Ebene angehen. Diesbezüglich haben v. a. Staaten und Unternehmen eine Verantwortung. Es braucht eine menschenrechtsbasierte digitale Transformation, menschenrechtsbasierte datenbasierte Systeme und menschenrechtsbasierte Entscheidungen bei der Einführung von neuen Technologien. Auch Medikamente durchlaufen einen langen Zulassungsweg, bis sie auf den Markt kommen, um uns vor Risiken zu schützen. Bei digitalen Technologien gibt es nichts Vergleichbares. Sie können einfach auf den Markt gebracht werden. Hier besteht dringender Handlungsbedarf. Deshalb plädiere ich für eine Internationale Datenbasierte Systeme-Agentur DSA bei der UNO – in Analogie zur Internationalen Atomenergiebehörde IAEA. Aus der Geschichte der Atomenergie können wir Einiges lernen: Erstens ist der Mensch fähig, Neues zu erforschen und zu entwickeln. Er war zweitens leider auch fähig, aus der Nukleartechnologie Bomben zu bauen und sie einzusetzen. Er merkte, drittens, dass es eine Regulierung und Aufsicht der Nukleartechnologie braucht. Die Internationale Atomenergiebehörde IAEA konnte bis anhin Schlimmes verhindern, auch wenn sie keine perfekte Lösung darstellt und geopolitische Implikationen aufweist.

Sie haben vorhin die Destabilisierung demokratischer Strukturen angesprochen. Ich will da nachhaken. Wo und wie können digitale Technologien konkret Einfluss auf die freie Meinungsbildung ausüben?
Ich nenne Ihnen zuerst eine positive Möglichkeit: Datenbasierte Systeme könnten als Assistenz für demokratische Meinungsbildung eingesetzt werden. Beispielsweise können datenbasierte Systeme Szenarien in Zukunft berechnen und diese dann herunterbrechen. Das hilft der Meinungsbildung. Leider werden wir gegenwärtig mit Hilfe unserer Daten manipuliert. Heute geht es bei datenbasierten Systemen in erster Linie um Effizienzsteigerung. Letzteres ist eine sehr enge Nutzung dieser Systeme. Dies erzeugt eine «künstliche Dummheit», die sich aufgrund der intensiven Durchdringung unseres beruflichen und privaten Alltags auch auf uns Menschen negativ auswirkt. Darüber hinaus nutzen autoritäre Regime datenbasierte Systeme, um demokratische Prozesse gezielt zu unterwandern. Sie setzen «Trolle» so professionell ein, dass ich als Nutzer nicht merke, dass sie künstlich sind. Sie können ganze Armeen von «Trollen» in den sozialen Medien losschicken mit dem Ziel, die öffentliche Meinung zu lenken.

Mit der Folge, dass ich meiner Wahrnehmung in der realen Welt nicht mehr traue.
Ja genau! Die freie Meinungsbildung wird manipuliert, Desinformationen werden gezielt gestreut. Das untergräbt die Demokratie. Wir sollten uns auch fragen, was es heisst, wenn ein Regime mit einem Mausklick die ganze Bevölkerung manipulieren kann. Tatsache ist, dass wir die vorhandenen rechtsstaatlichen Instrumente zur Kontrolle datenbasierter Systeme zu wenig einsetzen. Immer noch sorgen z. B. die Internetgiganten nur halbherzig dafür, dass auf ihren Plattformen keine rassistische Hassreden publiziert werden. Wir wissen, dass z. B. Morde an den Rohingya in Bangladesch auch aufgrund rassistischer Aufhetzung im Internet erfolgt sind. Spätestens wenn Gewalttaten folgen, ist es höchste Zeit zu handeln. Und ebenso, wenn unter Kindern und Jugendlichen die Suizidrate wegen des Drucks in den sozialen Medien steigt.

Im März veröffentlichten Sie zusammen mit anderen das Buch «Digitalisierung aus theologischer und ethischer Perspektive». Was ist sein Ziel?
Das Ziel des Buches ist, ethische Orientierung zu bieten. Ich bin der Ansicht, dass die einzelne Ingenieurin die anstehenden Herausforderungen nicht allein lösen kann. Es braucht erstens dringend eine bessere Durchsetzung bereits existierender rechtlicher Normen. Zweitens ist eine kritische Überprüfung der Konzepte und Begriffe vonnöten. Zum Beispiel weckt der Begriff «Künstliche Intelligenz» bei vielen hohe Erwartungen. Es stimmt, Maschinen können viel mehr Datenmengen verarbeiten als Menschen. Daher empfehle ich, den Alternativbegriff «datenbasierte Systeme DS» zu verwenden. Bei der sozialen und emotionalen Intelligenz hingegen werden Maschinen den Menschen nie erreichen. Eine Nachahmung ist möglich, z. B. kann ich den Roboter dahingehend trainieren, dass er auch weint, wenn ich weine. Das ist aber keine echte emotionale Intelligenz. Dasselbe gilt bei der Moral. Maschinen sind nicht moralfähig. Ich kann das selbstfahrende Fahrzeug trainieren, beim Fussgängerstreifen anzuhalten. Ich kann es auch darauf trainieren, möglichst schnell von A nach B zu kommen und dabei das Überfahren von Menschen in Kauf zu nehmen. Maschinen können sich selbst keine ethischen Regeln setzen. Die erste Linie des Codes kommt immer vom Menschen. Und um ethische Regeln zu setzen, braucht es die Freiheit, die Freiheit, so oder so handeln zu können.

Wo sehen Sie den Beitrag der Kirchen?
Kirchen können Gefässe für Gespräche zur Verfügung stellen. Die digitale Transformation löst bei den Menschen eine hohe Unsicherheit aus. Viele Menschen werden durch die digitale Transformation ihre Arbeitsstelle verlieren. Zum Beispiel werden die Kassiererinnen und Kassierer durch automatisierte Kassensysteme wegrationalisiert. Sie müssen sich weiterbilden. Nur, wer bezahlt einer 50-jährigen Kassiererin eine Weiterbildung? Vielleicht braucht es bis zum Abschluss der Weiterbildung diesen Beruf auch nicht mehr. Insgesamt wird es zu einer massiven Reduktion von Arbeitsplätzen kommen. Bis anhin waren vor allem berufliche Aufgaben mit keiner oder geringer beruflicher Qualifikation betroffen. Heute kommen überall datenbasierte Systeme zum Einsatz und somit tangiert es alle Berufe, die Chirurgin wie auch den Richter. Ich meine, wir sollten uns gezielt mit dem Ende des Strebens nach Vollbeschäftigung auseinandersetzen und unser Wirtschaftssystem entsprechend anpassen.

Wird bald ein Roboter Ihre Vorlesungen halten?
Hoffentlich nicht! So abwegig ist das aber leider nicht. Im Bereich der Bildung gibt es die Möglichkeit von Teaching-Assistenten. Das Ziel ist, eine günstigere Bildung zu erreichen, die Qualität der Bildung ist sekundär. Dasselbe mache ich beim Einsatz von Pflegerobotern aus: Das Hauptziel ist nicht eine Verbesserung der medizinischen Pflege. Das Hauptziel ist, die Kosten im Gesundheitswesen zu senken. Es wird zukünftig Pflegezentren mit und ohne Menschen in der Pflege geben.

Und wo ich dann sein werde, das hängt von meinen finanziellen Möglichkeiten ab.
Ja, und ausser Acht gelassen wird, welchen Einfluss zwischenmenschlicher Kontakt auf den Heilungsprozess und das Wohlbefinden hat. Man ist sich bewusst, dass die Kommunikation bei den Pflegerobotern eine Einwegkommunikation ist und bleiben wird. Man strebt danach, dass der Mensch dies nicht mehr merkt. Daher braucht es auch Gefässe für eine kritische Auseinandersetzung mit der digitalen Transformation. Wir haben die Zukunft aktiv zu gestalten. Es gilt, die roten Linien zu ziehen, was datenbasierte Systeme dürfen und was nicht. Die spezifischen Aufgaben der Kirchen sehe ich darin, sich für ein menschenwürdiges Leben für alle Menschen einzusetzen. Darüber hinaus erachte ich die Begleitung von Menschen als ein grosses pastorales Feld. Es braucht Orte, wo Menschen Sinnstiftung suchen können, insbesondere in Unsicherheit und Ungewissheit, beim Verlust der Arbeitsstelle, bei der persönlichen Neuorientierung.

Interview: Maria Hässig

 

1 Siehe: SRF, Nachrichten vom 25. März 2022.

Nachtrag: Unterhändler des Europaparlaments und der EU-Staaten einigten sich am 23. April in Brüssel auf ein Gesetz über digitale Dienste (Digital Services Act, DSA), das für eine strengere Aufsicht von Online-Plattformen und mehr Schutz der Verbraucher sorgen soll. 

Buchempfehlung: «Digitalisierung aus theologischer und ethischer Perspektive. Konzeptionen – Anfragen – Impulse». Herausgegeben von Gotlind Ulshöfer, Peter G. Kirchschläger, Markus Huppenbauer. Zürich 2022. ISBN 978-3-290-22065-5. CHF 46.00.