Ein Rückblick auf den Workshop der Arbeitsforschungsakademie (AFA)
Am 20. Januar 2025 lud die Hochschule Mittweida zu einem spannenden Workshop ein, der sich mit der Frage beschäftigte, ob man künstlicher Intelligenz (KI) vertrauen kann und wie KI-Modelle eigentlich Entscheidungen treffen. Die Veranstaltung wurde von Herrn Prof. Dr. rer. nat. habil. Thomas Villmann und Frau Dr. Marika Kaden im Rahmen der Arbeitsforschungsakademie (AFA) organisiert und bot den Teilnehmenden in 90 Minuten tiefgehende Einblicke in die Grundlagen und Herausforderungen der modernen KI.
Der Schwerpunkt des Workshops lag darauf, wie Vertrauen in KI entstehen kann und welche Bedingungen dafür notwendig sind. Die Referenten betonten, dass Vertrauen in derzeitige KI-Technologien nicht mit dem Vertrauen zwischen Menschen gleichzusetzen ist. KI ist keine Person und sollte auch nicht personifiziert werden. KI-Modelle und Werkzeuge werden für spezifische Aufgaben entwickelt (schwache KI).
Wichtig sei deshalb, dass NutzerInnen verstehen, welche Aufgaben ein Modell bewältigen kann und wo seine Grenzen liegen. Die Diskrepanz zwischen der Erwartung der NutzerInnen und der tatsächlichen Funktionsweise von KI-Modellen wurde ebenfalls hervorgehoben: Modelle wie ChatGPT wurden als Textvervollständigungsapparate beschrieben, die die nächsten Worte basierend auf Wahrscheinlichkeiten vorhersagen, aber keine faktischen Datenbanken sind. Diese Modelle simulieren Sprache und generieren Inhalte, sind jedoch keine echte Intelligenz (starke KI). Ein entscheidender Punkt im Workshop war die Feststellung, dass diese Modelle zwar beeindrucken, jedoch oft nicht erklären können, wie sie zu einem bestimmten Ergebnis kommen. Die Transparenz und Nachvollziehbarkeit von KI-Entscheidungen spielen aber eine entscheidende Rolle, wenn es darum geht, Vertrauen in diese Technologie aufzubauen.
Künstliche Intelligenz basiert auf riesigen Datenmengen, die in neuronalen Netzwerken verarbeitet werden. Diese Netzwerke arbeiten mit einer Vielzahl interagierender einfacher mathematischer Operatoren als Recheneinheiten, die biologischen Nervenzellen (Neuronen) nachempfunden und in mehreren Schichten angeordnet sind (künstliches Neuronales Netz). Trotz dieser scheinbar simplen Grundlagen wird das Ergebnis eines solchen Netzwerks oft als „Magie“ wahrgenommen, da die zugrundeliegende Komplexität für den Menschen schwer nachvollziehbar ist, erklärt Frau Dr. Kaden im Workshop. Dieses Phänomen wird häufig als „Blackbox-Charakter“ von KI bezeichnet: Obwohl wir die Funktionsweise einzelner Komponenten verstehen, bleibt oft unklar, warum das System zu einem bestimmten Ergebnis kommt. Gerade bei hochentwickelten Modellen wie Large Language Models, die Trillionen von Parametern umfassen, ist diese Nachvollziehbarkeit eine große Herausforderung. Die Referenten betonten, dass aber die Transparenz und Nachvollziehbarkeit entscheidend sind, um die oft als „Blackbox“ wahrgenommene Funktionsweise von KI verständlicher zu machen und Vertrauen bei den NutzerInnen aufzubauen. Damit ist gemeint, dass nicht nur das Ergebnis einer KI sichtbar ist, sondern auch die Gründe und Schritte, die zu diesem Ergebnis geführt haben.
Diese Erklärbarkeit von KI-Entscheidungen kann bereits heute für KI-Modelle in spezifischen Anwendungen erreicht werden, die zeigen, welche Faktoren oder Merkmale bei der Entscheidung eine Rolle gespielt haben. Ein Beispiel dafür sind KI-Verfahren, die Entscheidungen mit Hilfe von Vergleichsdaten erklären, ähnlich wie ein Arzt eine Diagnose anhand von bekannten Symptomen stellt. Solche Ansätze helfen nicht nur, die Ergebnisse besser zu verstehen, sondern können auch mögliche Schwächen oder Verzerrungen in den zugrunde liegenden Daten aufdecken. Besonders wichtig ist dies in Bereichen, in denen Fehler schwerwiegende Folgen haben können, wie in der Medizin oder beim autonomen Fahren. Hier wurden auch sogenannte „Ablehnungsoptionen“ betont: Ein KI-System sollte die Möglichkeit haben, eine Entscheidung zu verweigern, wenn es unsicher ist. Spannend ist, dass die Forschung an verständlichen und nachvollziehbaren KI-Systemen bereits seit über 30 Jahren läuft – ein Beweis dafür, wie komplex und herausfordernd dieses Thema ist. Die Referenten als Forschende am Sächsischen Institut für Computational Intelligence und Machine Learning (SICIM) der Hochschule Mittweida gehören dabei mit zu den internationalen Spitzenforschern auf diesem Gebiet.
Weiterhin befasste sich der Workshop auch intensiv mit der Verantwortung im Umgang mit KI. Die Referenten unterstrichen, dass die Verantwortung nicht allein bei den EntwicklerInnen liegt, sondern von allen AkteurInnen im Umgang mit KI geteilt wird. EntwicklerInnen tragen die Verantwortung, klare Grenzen und Einsatzmöglichkeiten eines Modells zu definieren. TrainerInnen, die für das Training von Modellen zuständig sind, müssen Verzerrungen (Bias) in den Trainingsdaten erkennen und beheben. NutzerInnen wiederum sind dafür verantwortlich, die Ergebnisse einer KI kritisch zu hinterfragen und das Modell nicht für Aufgaben einzusetzen, für die es nicht konzipiert wurde.
Die Diskussion um Bias, also systematische und ungewollte Verzerrungen in den Daten, nahm einen besonderen Platz im Workshop ein. Bias entsteht häufig, wenn die Trainingsdaten nicht divers genug sind oder bestimmte Gruppen unbewusst bevorzugt werden. Ein Beispiel hierfür ist die medizinische Diagnostik: Wenn ein Modell nur mit Daten männlicher Patienten trainiert wurde, liefert es für weibliche Patienten möglicherweise schlechtere Ergebnisse. Die Referenten erläuterten zwei Möglichkeiten, mit Bias umzugehen: Entweder können die Daten bereinigt oder spezielle KI-Modelle und Algorithmen entwickelt werden, die Verzerrungen ignorieren. Dennoch bleibt die Herausforderung, Bias vollständig zu eliminieren, schwierig, da Daten nie völlig objektiv sind.
Die Referenten machten deutlich, dass verschiedene KI-Technologien längst in vielen Bereichen unseres Alltags angekommen sind. Von Rechtschreibkorrekturen über Übersetzungstools bis hin zu komplexeren Anwendungen wie der medizinischen Diagnostik oder technischen Anlagensteuerungen – KI hat sich in vielerlei Hinsicht als nützlich erwiesen. Dennoch erfordert ihr Einsatz ein hohes Maß an Verantwortung, sowohl von EntwicklerInnen als auch von NutzerInnen.
Wichtige Erkenntnisse aus dem Workshop:
- KI ist ein Werkzeug und keine Person. Vertrauen in KI entsteht durch Transparenz und Nachvollziehbarkeit.
- Es gibt verschiedene KI-Modelle und KI-Technologien mit unterschiedlichen Anwendungsgebieten bzw. für verschieden Szenarien (es gibt derzeit keine allgemeine KI – man sollte immer den Kontext spezifizieren)
- Missbrauch von KI entsteht oft durch falsche Erwartungen oder eine Nutzung außerhalb ihres vorgesehenen Einsatzbereichs.
- Verantwortung im Umgang mit KI ist geteilt: EntwicklerInnen, TrainerInnen und NutzerInnen tragen gemeinsam dazu bei, KI sicher und effektiv einzusetzen.
- Bias (als ungewollte Verzerrung) in Trainingsdaten ist ein zentraler Punkt, der bei der Entwicklung und Nutzung von KI bedacht werden muss.
- Der Einsatz von KI sollte stets kritisch hinterfragt werden, insbesondere bei sicherheitskritischen Anwendungen.