Entfremdung von der Arbeit, die ursprüngliche Arbeit verliert ihren Sinn – ein Beispiel: Supermarktkassierer*innen werden durch Selbstbedienungsmaschinen ersetzt – ihr Rollen verändern sich komplett.

«KI und Robotik sollen den Menschen unterstützen, nicht ersetzen»

Sarah Dégallier Rochat ist Leiterin des strategischen Themenfelds humane digitale Transformation an der BFH. Zusammen mit drei anderen BFH-Forscherinnen* hat sie ein Positionspapier zu ethischen Fragen rund um künstliche Intelligenz (KI) und Robotik verfasst.

Frau Dégallier Rochat, wo kommen wir im Alltag in Kontakt mit AI und Robotik?

Sarah Dégallier Rochat: Das hängt von der Definition ab: Eine Spülmaschine kann bereits Robotik enthalten. Im Internet basiert vieles auf KI: Wenn wir eine Google-Suche starten oder uns auf Instagram bewegen, gibt es immer Cookies, die unsere Gewohnheiten speichern und zukünftige Abfragen beeinflussen.

Sie haben gemeinsam mit drei BFH-Forscherinnen ein Positionspapier publiziert. Weshalb?

Wir wollen damit die Community auf die Themen aufmerksam machen, die zurzeit wirklich dringend sind. Viele Artikel fokussieren darauf, dass Roboter Menschen ersetzen und es in ein paar Jahren keine Arbeit mehr gibt. Wir sind aber der Meinung, dass die neuen Technologien noch nicht in der Lage sind, Menschen zu ersetzen, und dass das in der nahen Zukunft auch so bleibt. Zudem gibt es andere Faktoren, welche die Arbeitsbedingungen massiv verschlechtern könnten und die viel weniger Aufmerksamkeit bekommen. Das wollen wir ändern!

Sie nennen etwa die Entfremdung von der Arbeit oder die Entwicklung einer Zweiklassengesellschaft.

Genau. Unter Entfremdung verstehen wir, dass Personen keine Kontrolle mehr darüber haben, was sie machen. Die Arbeit verliert so den Sinn. Ein Beispiel: Supermarktkassierer*innen wurden durch Selbstbedienungsmaschinen ersetzt. Dadurch hat sich ihre Rolle komplett verändert: Früher konnten sie Menschen helfen, heute müssen sie sie überwachen. Sie können nicht mehr das tun, was ihnen Freude macht und wofür sie sich ursprünglich beworben haben. Unter Zweiklassengesellschaft verstehen wir, dass es in Zukunft zwei Klassen von Menschen geben könnte: Die einen können die neuen Technologien verstehen und kontrollieren. Die anderen sind ihnen ausgeliefert und müssen repetitive, schlecht bezahlte Arbeit machen.

Wie kann dies verhindert werden?

Es braucht eine menschenzentrierte Haltung in der gesamten Technologieentwicklung. Das heisst, dass die Bedürfnisse der Menschen, ihre Einschränkungen, aber auch ihre Stärken stets mitgedacht werden. Nur so ist ein verantwortungsvoller Einsatz der Technologie gewährleistet! Dies ist nicht nur aus ethischen Gründen wichtig, sondern auch weil das Potenzial der neuen Technologien nur voll ausgeschöpft werden kann, wenn sich Mensch und Maschine sinnvoll ergänzen. Insbesondere sollten die Benutzer*innen die Technologie ausreichend verstehen, um sie effizient und vernünftig anzuwenden.

Weshalb?

Nehmen wir ein Beispiel: In den Niederlanden gab es einen Skandal rund um den Missbrauch von staatlichem Kindergeld. Es war ein Algorithmus entwickelt worden, um Betrug möglichst früh zu erkennen. Das erste Problem war, dass der Algorithmus verzerrt war: Er hatte einige Faktoren übermässig stark gewichtet. In diesem Fall etwa ein tiefes Einkommen und eine doppelte Staaatsbürgerschaft. Das zweite Problem war, dass der Algorithmus nicht erklärbare Entscheidungen traf, die nicht infrage gestellt wurden. Er sollte diese Kompetenz nicht haben! Es wurden Personen angeklagt, die daraufhin sehr viel Geld zurückzahlen mussten – hauptsächlich Personen mit tiefem Einkommen. Das war eine riesige Katastrophe: Es gab Leute, die dadurch das Haus oder den Job verloren. Das war nur möglich, weil es dieses blinde Vertrauen in die Technologie gab. Das ist gefährlich.

Sie sagen, neue Technologien sollten den Menschen nicht ersetzen, sondern unterstützen.

Grundsätzlich ist es keine schlechte Idee, einen Algorithmus einzusetzen, um etwa Betrug beim Bezug von Kindergeld aufzudecken: Die Beamt*innen können nicht alle Akten durchgehen. Ein Algorithmus könnte ein erster Filter sein. Doch danach sollte ein Mensch die Fälle einzeln genau untersuchen, da hier viele Faktoren eine Rolle spielen, welche die KI gar nicht versteht. Allgemein gesagt: Eine KI kann eine Auswahl aus einer riesigen Datenmenge machen, die Entscheidungskompetenzen müssen aber beim Menschen bleiben. So entsteht eine Zusammenarbeit mit tatsächlichem Mehrwert. Wir nennen diesen Ansatz Augmented Intelligence, im Gegensatz zur bisherigen Artificial Intelligence.

Gibt es Beispiele, wo Mensch und Maschine gut zusammenarbeiten?

Auf Notfallstationen werden bereits KI-Apps eingesetzt: Eine Fachperson gibt die Symptome des Patienten ein und erhält Vorschläge für Diagnosen. Aber die Ärztin entscheidet dann, welche Behandlungen tatsächlich angezeigt sind. Der Vorteil der App ist, dass sie auch weniger häufige Krankheiten vorschlägt oder solche, welche die Fachperson nicht unbedingt mit diesen Symptomen verbindet. Das ist wirklich eine Unterstützung.

Was sind die grössten Chancen von Robotik und AI?

Unternehmen stehen unter grossem Druck, wettbewerbsfähig zu bleiben – gerade in der Schweiz, wo Arbeitskräfte teuer sind. Auch wird es zunehmend schwierig, Leute zu finden, die stark repetitive Arbeiten ausführen wollen. Wenn Roboter diese übernehmen, können Unternehmen bei gleicher Anzahl Angestellten produktiver werden. Die Menschen können neue Kompetenzen erwerben und passendere Aufgaben übernehmen. In einigen Bereichen sind uns Maschinen überlegen: Sie arbeiten extrem schnell, präzise und werden nie müde. Sie sind also sehr effizient.

Und was sind die Stärken des Menschen?

Seine Flexibilität. Wir können von einem Tag auf den anderen eine andere Arbeit ausführen. Eine KI zu entwickeln, braucht viel Zeit. Zudem stellt sie Sachen nicht infrage. Der grösste Vorteil des Menschen ist das kritische Denken. Eine KI kann eine grosse Menge von Informationen sehr schnell verarbeiten – aber sie kann diesen keinen Sinn geben.

bfh.ch/de/aktuell/news/2022/projektstart-bias

* Dr. Mascha Kurpicz-Briki (BFH-TI), Olena Yatsenko (BFH-TI), Dr. Nada Endrissat (BFH-W)

Neues Horizon-Europe-Projekt erforscht Diskriminierung durch KI-Systeme

Künstliche Intelligenz (KI) kann viele Arbeiten erleichtern, auch im Bereich Human Resources. Die KI-Systeme sind jedoch oftmals nicht von Vorurteilen befreit, sondern reproduzieren diese Gründe und Lösungen erforscht ein neu bewilligtes Horizon-Europe-Projekt, an dem die Forschungsgruppe Applied Machine Intelligence der BFH beteiligt ist.

Dr. Sarah Dégallier Rochat
Leiterin des strategischen Themenfelds humane digitale Transformation HDT, Professorin für Mathematik, BFH