Vor einigen Wochen forderten Vertretungen aus Forschung und Wirtschaft einen sofortigen, mindestens sechs Monate andauernden Stopp der Entwicklung von KI-Modellen. Diese Zeit soll genutzt werden, um die Auswirkungen von KI auf die Gesellschaft besser zu verstehen.

Hauptadressat dieses Moratoriums sind in erster Linie die in den vergangenen Monaten mit viel öffentlicher Aufmerksamkeit bedachten, generativen KI-Systeme wie ChatGPT oder Midjourney. Diese Systeme erzeugen auf Grundlage einer in natürlicher Sprache formulierten Aufgabe (Prompt) Texte (ChatGPT) bzw. Bilder (Midjourney) die der Aufgabenstellung entsprechen.

Die Ergebnisse die diese Systeme generieren, wirken dabei sehr „korrekt‘‘ bzw. „echt“. In vielen Fällen sind sie das auch, aber eben nicht in allen. Genau an dieser Stelle ergibt sich dann DAS große Problem: Überprüfbarkeit. Zu verifizieren, ob ein Ergebnis korrekt ist, ist schwierig. Aber zu verifizieren, wie ein Ergebnis zustande kommt, ist unmöglich. Die zugrundeliegenden Modelle sind einfach zu komplex, enthalten Milliarden von Parametern und werden auf riesigen Datenmengen trainiert, deren Herkunft, Qualität und Zusammensetzung nicht bekannt sind. Oberflächliche Plausibilität und fehlende Überprüfbarkeit stellen gerade im Hinblick auf Desinformation ein massives Problem dar.

Gilt diese Problematik auch für die datenbasierten Assistenzsysteme, die im Projekt PerspektiveArbeit Lausitz entwickelt werden? Nein! Generative Systeme wie ChatGPT sind so komplex, weil sie versuchen riesige Diskursbereiche wie Sprache zu Modellieren und zwar domänenunabhängig und mit einer generischen Aufgabenstellung. Aus diesem Grund benötigen sie auch Datenmengen, die bei den PAL-Partnern nicht ansatzweise zur Verfügung stehen.

Datenbasierte Assistenzsysteme in PAL sind sehr viel fokussierter. Sie haben ein konkretes Ziel, eine bekannte Domäne, bekannte Datenquellen und werden mit erfahrenen Domänenexperten der PAL-Partner entwickelt. Daher sind sie nachvollzieh- und überprüfbar. Das müssen sie auch sein, da ein System, das nur „wahrscheinlich“ funktioniert, wahrscheinlich nicht eingesetzt wird.

Autor / Autorin

  • Wissenschaftlicher Mitarbeiter am Lehrstuhl für Datenbanken an der Technischen Universität Dresden; Technologiemonitoring und Experte für datenbasierte Assistenzsysteme im PAL-Projekt

WordPress Cookie Plugin von Real Cookie Banner