Welche Erwartungen haben wir an KI als Arbeitskollege, d.h. wie wollen wir KI im Arbeitsalltag und was müssen wir dabei beachten? Diese Fragen diskutierten Mitglieder des PAL-Konsortiums am 24. Mai 2024 in einem Workshop an der Hochschule Mittweida mit Diplom-Informatikerin Anika Holtermüller.

Welche Erwartungen haben wir an KI als „Teammitglied“? Wie können wir bestimmte KI-Tools wie Bild- und Textgeneratoren im Arbeitsalltag nutzen und was müssen wir dabei beachten? Diese Fragen diskutierten Mitglieder des PAL-Konsortiums am 24. Mai 2024 in einem Workshop an der Hochschule Mittweida mit Diplom-Informatikerin Anika Holtermüller.

KI kommt heute bereits vielfach und vielfältig zu Einsatz. Die kürzlich erfolgte Bereitstellung generativer KI-Tools wie ChatGPT oder auch der bei Microsoft eingebundene Copilot führt nun verstärkt dazu, dass solche generative, also die menschliche Kreativität nachahmende, KI zunehmend auch im Büro Einzug hält und unterschiedlichst genutzt wird. Ziel des Workshops mit Anika Holtermüller war es, zu vermitteln, wie man solche Tools korrekt einsetzt und welche Grenzen und Risiken beachtet werden müssen.

Einleitend nahm Anika Holtermüller dabei Bezug auf das Thema Lernen. Wie Kinder lernen, so führte sie aus, wissen wir. Sie ahmen nach, was sie bei anderen sehen, hören sich Erklärungen an und probieren Dinge aus. Wenn sie dabei Grenzen überschreiten und darauf hingewiesen werden, beachten sie diese zukünftig (wenn auch manchmal nur, weil sie ansonsten mit Konsequenzen rechnen müssen). Eine optimale Lernbegleitung und wie diese aussieht, ist ein vieldiskutiertes Thema in unserer Gesellschaft, denn uns eint der Wunsch, unseren Kindern eine bestmögliche Entwicklung zu gewähren.

Wie KI lernt, war in den vergangenen Jahrzenten ein wichtiges Thema für diejenigen, die KI trainieren, während sich Nutzerinnen und Nutzer diese Frage bisher nur selten gestellt haben. Nun, da sie zunehmend in verschiedensten Tools wie ChatGPT, Bildgeneratoren, ChatBots für Kundenkommunikation oder HR Management Tools zum Einsatz kommt, stellt sich heraus, dass sie durchaus auch Schwächen aufweisen kann, die insbesondere dann sichtbar werden, wenn sie anders als vorgesehen eingesetzt wird oder wenn die zum Training verwendeten Daten fehlerhaft, einseitig oder unvollständig waren.

Anika Holtermüllers Ansinnen ist es, das Verständnis dafür, wie generative KI-Modelle lernen und funktionieren, auch bei denjenigen zu stärken, die sie nutzen. Dies betrifft aus ihrer Sicht nicht nur die Daten, mit denen man sie „füttert“, sondern zum Beispiel auch die Festlegung für Grenzen, so ähnlich wie bei einem Kleinkind, dem man in bestimmten Situationen auch vermittelt „das macht man nicht“. Das könne z.B. die Auflage sein, dass das Tool, statt fehlerhaft zu antworten, signalisiert, wenn es eine Aufgabe nicht verstanden hat. Entsprechende Feedbacks bei fehlerhaften Antworten an eine KI zu geben, sei wiederum etwas, dass alle Nutzenden als wichtige Aufgabe verstehen sollten – indem sie zum Beispiel zurückmelden, wenn eine Antwort fehlerhaft ist. Besonders wichtig sei ein klares Verständnis für die Möglichkeiten und Grenzen des Tools und dass dieses nicht mit falschen Erwartungshaltungen genutzt wird.

Dazu gehört auch, zu berücksichtigen, mit welchen Daten eine KI-Modell trainiert wurde und ob und mit welchen Daten es in welcher Regelmäßigkeit aktualisiert wird. Insbesondere Modelle, die ihre Daten aus dem Internet beziehen, bergen aus Anika Holtermüllers Sicht das Risiko, veraltete und unvollständige, teilweise politisch motivierte Informationen zu enthalten und dadurch in manchen Fällen sogar ironische, zynische oder sogar absichtlich falsche Informationen auszugeben. Unternehmen wie OpenAI oder Google haben hier einen enormen Aufwand, falsches, z.B. politisch motiviertes Training zu verhindern.

Anika Holtermüller

Die KI selbst sei nicht in der Lage, den Wahrheitsgehalt dieser Daten zu überprüfen. Durch deren unkontrollierte Aufnahme und Ausgabe sorge sie jedoch dafür, dass solche in den Daten steckenden Vorurteile und Fehler im schlechtesten Fall weiter verstärkt werden, wenn die Person, die sie abruft und weiterverwendet, dies nicht erkennt. Das unreflektierte und ungefilterte Bereitstellen von Daten zum Erlernen einer KI führt also möglicherweise zu fatalen Ergebnissen Gerade bei sog. Large Language Models sei es wichtig, zu verstehen, dass für die KI die genutzten Daten nichts weiter seien als Texte, die als Sprachmodell interpretiert werden, um Sätze korrekt zu ergänzen – schwer vorstellbar, aber hier erfolgt durch das mathematische Modell letztlich nur eine syntaktische Interpretation, die KI selbst kann die Inhalte nicht bewerten und z.B. in richtig oder falsch unterscheiden. Einfach erklärt: wenn solch ein Modell einen grammatikalisch korrekten, aber inhaltlich falschen Satz oft genug „gesehen“ hat, wird es ihn als korrekt ausgeben, da es nicht in der Lage ist, den inhaltlichen Fehler zu erkennen. „KI kann sehr schnell Daten analysieren, aber deren Wahrheitsgehalt nicht bewerten“, sagt Anika Holtermüller dazu. Zudem kann es passieren, dass eine generative KI Texte erzeugt, die inhaltlich falsch sind obwohl die KI vorher nur mit korrekten Inhalten trainiert wurde. Deshalb ist es eine besonders herausfordernde Aufgabe für Entwickler solcher Modelle, Regeln einzubauen, die z.B. dafür sorgen, dass Prompts nicht beantwortet werden, wenn dadurch fehlerhafte Interpretationen möglich sind – dass dies nicht vollumfänglich möglich ist, sollte bei der Benutzung klar sein und berücksichtigt werden, indem zum Beispiel eine Quellenprüfung erfolgt. Das Wissen darum, was im Tool passiert und was möglich ist, muss insgesamt wohl noch wesentlich umfangreicher vermittelt werden

Bei einigen Tools wie der Profi-Version von ChatGPT sei sogar ein individuelles Training während der Benutzung möglich, indem die Nutzungsverläufe gespeichert und bei weiteren Aktivitäten erneut benutzt würden. Viele kostenlose Modelle hingegen verfügen nicht über solch eine Speicherfunktion, auch das sollte bei der Benutzung berücksichtigt werden. Und: „Es gibt sogar KI-Modelle, die eine Art digitale Demenz erleiden können, also Informationen, die sie schon einmal besaßen, wieder verlieren“, erläutert Anika Holtermüller. In der KI-Forschung ist dies bekannt unter dem Begriff “ Großmutter-/Hopfield Modelle”, der verwendet wird, um zu erklären, wie ein Modell auf bestimmte, oft wiederholte Daten reagiert. Wenn ein KI-Modell mit zu vielen ähnlichen Bildern trainiert wird, kann es zu Überanpassung oder anderen Problemen kommen, die als “digitale Demenz” beschrieben werden könnten – beobachtet wurde dies bei einem der ersten KI-Bildgeneratoren.

„Wie kann ich mich auf eine KI verlassen“, fragt Anika Holtermüller, „wenn ich nicht sicher sein kann, dass sie falsch liegt und das, was sie entscheidet, nicht der tatsächlichen Sachlage entspricht?“ Aus ihrer Sicht ist es die Aufgabe aller, hier gesellschaftliche Verantwortung zu übernehmen: „Was können wir tun? Verstehen, lernen, sehen, hinterfragen!“ Aktuell sind wir aus ihrer Sicht erst an einem Punkt, an dem wir bei der Nutzung von KI stark differenzieren müssen: „Immer, wenn eine Lösung rational von Menschen überprüfbar ist, kann eine Maschine diese übernehmen. Eine Entscheidung, die moralische oder ethische Komponenten enthält, kann ich einer Maschine hingegen nicht überlassen, möglicherweise auch niemals.“ Einbeziehen kann man sie dennoch – sofern man berücksichtigt, wofür sie entwickelt wurde.

Gemeinsames Live-Brainstorming: Wobei kann KI mich im Arbeitsalltag unterstützen?

Anika Holtermüller und Katharina Müller-Eppendorfer

Anika Holtermüller und Katharina Müller-Eppendorfer

Im Workshop zeigte Anika Holtermüller den Teilnehmenden live, unter anderem wie man sich mithilfe von ChatGPT ein kleines Programm zur Analyse von E-Mails auf Event-Daten und der direkten Übernahme dieser Daten in den eigenen Outlook-Kalender selbst schreiben kann. Ihre eindringliche Aufforderung an alle Beteiligten: „Machen Sie sich klar, dass die KI uns als Gestalter, Regulierer und Wächter benötigt – im Entstehungsprozess genauso wie während der Anwendung. Jede Person, die KI nutzt, sollte sich dieser wichtigen Aufgabe bewusst sein und in die Nutzung aktiv einbeziehen.“ Das beginnt schon bei der Tonalität, mit der ein Prompt formuliert wird und endet nicht beim aktiven Hinweisen des Systems auf falsche Informationen oder solche, die z.B. Vorurteile (häufig als BIAS bezeichnet) enthalten. Gleiches gilt auch für die Entwicklung von KI-Systemen: hier sollten Hersteller ganz bewusst in ihren Prozess entsprechende Prüfschleifen einbeziehen – und zwar nicht erst in der Phase der Usability Tests.

Besondere Anforderungen hierfür entstehen für den Entwicklungsprozess von KI-Anwendungen durch den am 21. Mai 2024 durch die EU-Mitgliedstaaten verabschiedeten AI Act. Mit dieser KI-Verordnung versucht die Europäische Union, Sicherheit in KI-Anwendungen zu bringen, u.a. durch Kennzeichnungspflichten, durch die deutlich wird, welche Daten von Menschen und welche von Maschinen erstellt wurden.

Wer genau weiß, wofür ein KI-Modell trainiert wurde und wo dessen Grenzen liegen, ist also im Vorteil – das gilt zum Beispiel für Anwendungen, die explizit für ein Unternehmen und dessen Bedarfe entwickelt werden – so wie im Projekt PerspektiveArbeit Lausitz.

PAL on Tour – v.l.n.r.: Susanne Merkel, Jens Gerlinghoff, Sindy Herrmann, Sarah Kelschebach

Das Konsortium lauscht dem spannenden Themen beim  Vortrag von Anika Holtermüller

Auch unser PAL on Tour Bus war an diesem Tag vertreten und umrahmte die Veranstaltung mit wertvollen Erkenntnissen aus den Schwerpunktprojekten. 

Autor / Autorin

  • Leiterin des Fachbereichs HR & Education des Branchen-Netzwerks Silicon Saxony e.V.; Netzwerk- und Öffentlichkeitsarbeit im PAL-Projekt

WordPress Cookie Plugin von Real Cookie Banner