"banner top"

Vertrauen in Big Data durch Nachvollziehbarkeit

Download

Big Data steht für neue Technologien, neue analytische Methoden und künstliche Intelligenz, welche in alle Ritzen der Steuerung, Planung und Entscheidungsfindung eines Unternehmens eindringen. Big Data steht aber auch für offene Fragen nach Sicherheit, Datenschutz und Kontrolle darüber, welche globalen Wege heikle Daten nehmen dürfen. Nachvollziehbarkeit und Vertrauen spielen dabei eine zentrale Rolle.

«Digitales Vertrauen wird zum Marken-beeinflussenden Faktor.»1 Vertrauen ist an Nachvollziehbarkeit gekoppelt. Zwei Aspekte davon sollen hier herausgepickt werden: die Nachvollziehbarkeit von Erkenntnissen, die aus Daten gewonnen werden, und die Nachvollziehbarkeit in der Bewirtschaftung der Daten (Prozesstransparenz).

Nachvollziehbare Erkenntnisse durch «XAI»
Immer häufiger werden Empfehlungen und Entscheide heute von Algorithmen getroffen, die Methoden des «Machine Learning» und der künstlichen Intelligenz (KI) nutzen. Diese Verfahren arbeiten oft zweistufig: Auf einer ersten Stufe wird ein bestimmtes Verhalten an bekannten Daten oder Situationen erlernt, auf einer zweiten Stufe wird dieses auf neue Daten angewendet.
Im MAS Data Science bearbeiten Studierende derzeit z. B. Projekte, die Maschinengeräusche für die Vorhersage von Störungen in Produktionsanlagen nutzen (Predictive Analytics). Oder es werden mit neuronalen Netzen Bilder von landwirtschaftlichen Flächen auf Unkrautobjekte hin analysiert. Ebenfalls auf neuronalen Netzen basierend, wird ein Empfehlungssystem für die Einsatzplanung von Mitarbeitenden in Projekten erarbeitet.
Alle diese Verfahren haben das Problem, dass sie zwar mathematisch definiert arbeiten und im besten Fall verlässliche Ergebnisse liefern, den Nutzer aber mit der Frage nach einer genaueren Begründung allein lassen. Für die Wartungsprognose einer Maschine mag das hinnehmbar sein. Jedoch für kritische Big-Data-Systeme, welche etwa medizinische Diagnosen erstellen oder die Überwachungsaktivitäten der Polizei (z. B. PredPol in Zürich) steuern, drängen sich Erklärungskomponenten fast zwingend auf. Dies gilt auch für Systeme wie Recruiting- oder Bewertungsanwendungen, welche schwerwiegende Konsequenzen für Personen haben. Solche Systeme müssen auch im Hinblick auf gesetzliche Auseinandersetzungen und eine klare Data-Governance nachvollziehbare Entscheide erzeugen. Black Boxes wirken nicht vertrauensbildend und können nur sehr schwer mit spezifisch menschlichen Eigenschaften ergänzt werden, wie etwa der Fähigkeit zur Auflösung von Widersprüchen oder der Bewertung von Entscheiden in einem erweiterten Kontext. Explainable Artificial Intelligence (XAI) nimmt sich daher der Entwicklung und des Einbaus von Erklärungskomponenten in KI-Systeme an. Diese gewinnen wegen der zunehmenden Entscheidungskomplexität in Bezug auf analytische Big-Data- Systeme immer mehr an Bedeutung.

Blockchain ermöglicht Prozesstransparenz
Für sensible Daten und in einem Umfeld mit vielen Akteuren ist sichere Prozesstransparenz eine weitere unumgängliche Voraussetzung für den vertrauenswürdigen Umgang mit Daten. Hier kommt die Blockchain- Technologie zu Hilfe: Sie wurde für Kryptowährungen entwickelt, um anonymes Geld zu erschaffen und Transaktionen betrugssicher, aber in einem für jedermann einsehbaren und überprüfbaren Prozess abzuwickeln. Blockchain-Technologie kann abstrahiert und als generelles Werkzeug genutzt werden, um jede Art von Datentransaktionen lückenlos nachvollziehbar und fälschungssicher zu machen. Entscheidend für vertrauliche Daten ist dabei, dass die Dateninhalte nicht öffentlich sein müssen, aber trotzdem jede Veränderung an den Daten aufgezeichnet und von allen Beteiligten jederzeit nachgeprüft werden kann. Der Einsatz von Blockchain- Technologie für den Umgang mit vertraulichen Daten im Big-Data-Umfeld ist ein sehr aktives Forschungsfeld.


HENTRICH, C.; PACHMAJER, M. d. quarks − Der Weg zum digitalen Unternehmen. Hamburg, Murmann, 2016.