Large Language Models (LLMs) – Die Macht der Worte

Chancen und Risiken bei der Anwendung von großen Sprachmodellen

Die Einführung von Large Language Models (engl. große Sprachmodelle) – also Chatbots wie ChatGPT und Co. – hat einen enormen Hype ausgelöst und findet in verschiedenen Alltagsbereichen breite Anwendung. Aber wie sicher ist diese Technologie wirklich und ist ihre Anwendung auch im B2B-Kontext denkbar? Dieser Frage haben wir uns gemeinsam mit den Experten Dr. Christoph Endres, Geschäftsführer von sequire technology und Prof. Dr. Eugen Staab, Professor für Wirtschaftsinformatik an der Hochschule Kaiserslautern gewidmet.

Was genau sind Large Language Models (LLMs), was sind ihre Anwendungsbereiche und warum schlagen sie derzeit so hohe Wellen?

EUGEN: Large Language Models  sind eine Technologie der Künstlichen Intelligenz. Dahinter stecken sogenannte „Künstliche Neuronale Netze“, die mit riesigen Textmengen trainiert werden. Durch das Training entwickeln sie ein umfassendes Sprachverständnis, was es erstmals in dieser Form möglich macht, dass Menschen mit dem Computer in natürlicher Sprache kommunizieren.

CHRISTOPH: Die bekannteste Version ist zur Zeit GPT (Generative Pre-Trained Transformer), eine generative KI. Seit der Veröffentlichung von ChatGPT hat sie hohe Wellen geschlagen, da sie äußerst zugänglich und nutzerfreundlich ist. Viele Menschen haben Spaß daran, mit dieser neuen Technologie zu experimentieren. Die Anwendungsbereiche sind auch sehr vielseitig: Man kann aus wenigen Stichworten Texte generieren oder auch große Texte zusammenfassen, umformulieren oder übersetzen lassen. Also alles, was Textbe- oder -verarbeitung betrifft, ist damit möglich.

Welche Chancen ergeben sich durch die Nutzung und was ist dabei zu beachten?

EUGEN: Es ist das erste Mal, dass wir in der IT umfangreiche, natürlichsprachige Mensch-Maschine-Schnittstellen entwickeln können. Wir können uns mit dem Computer ähnlich unterhalten, wie mit anderen Menschen. Das LLM muss dabei nicht alles Wissen in sich tragen, sondern kann auch über  Abfragen an externe Informationssysteme eine Antwort finden. Man nennt eine solche Integration auch “Retrieval Augmented Generation (RAG)” und das wird vermutlich in Zukunft eine große Rolle beim Einsatz von LLMs spielen. Generell ist es wichtig zu beachten, dass die erzeugten Texte Fehler oder gar “Halluzinationen” enthalten können. In Situationen, in denen das Modell keine  passenden Informationen finden kann, erfindet es in den derzeitigen Sprachmodellen oft Antworten und wirkt dabei sehr überzeugend. Man muss die Texte also immer kritisch betrachten, wenn man sie nutzen möchte.

CHRISTOPH: Eine klare Chance: Durch das Delegieren von Aufgaben lassen sich Workflows effizienter gestalten. Selbst wenn erstellte Inhalte nochmals korrigiert werden müssen, gewinnt man trotzdem nur durch das Generieren eines Textes an Zeit. Und wie erwähnt, wird die Schwelle, mit einer KI oder mit einem Programm zu interagieren, relativ weit heruntergesetzt, da keine Programmierkenntnisse erforderlich sind, um Anweisungen an das Modell zu geben. Ein weiteres ernsthaftes Problem stellt allerdings der Bias (“Verzerrung”) in den Trainingsdaten dar, durch den unter anderem gesellschaftliche Vorurteile repliziert und verstärkt werden.

Was ist zu beachten, wenn LLMs in unternehmenseigene IT-Systemlandschaften integriert werden?

EUGEN: Also zum einen müssen Mitarbeitende – besonders, wenn offene Cloud-Lösungen verwendet werden – geschult werden, keine sensiblen Inhalte als “Prompt” einzugeben. Wenn sich ein Unternehmen für eine eigens gehostete Lösung entscheidet, sind die Sicherheits- und Datenschutzanforderungen geringer. Das würde ich auch empfehlen. Dazu sollte sich aktuell nicht die Frage stellen, ob man ein Sprachmodell autonom Entscheidungen treffen lässt. Ein Mensch sollte immer die Entscheidung treffen und das LLM  lediglich in der Rolle eines Assistenten zu Rate ziehen.

christoph_endres

"Im Zuge unserer Forschung mit dem CISPA haben wir entdeckt, dass es möglich ist, Sprachmodelle von Angreifern oder böswilligen Akteuren übernehmen zu lassen, die daraufhin dem User Informationen entlocken können. Auch in dieser Hinsicht sollte man mit sensiblen Daten stets vorsichtig umgehen."

Schwachstelle: Indirect Prompt Injection

Im Februar 2023 veröffentlichten Mitarbeitende der sequire technology in Kooperation mit dem Helmholtz-Zentrum für Informationssicherheit (CISPA) eine Forschungsarbeit zu Schwachstellen in großen Sprachmodellen (LLMs). In ihrer Arbeit entdeckten die Expert:innen, dass Angreifer die Daten, auf die LLMs zugreifen, manipulieren und dort unerwünschte Anweisungen platzieren können. Diese sogenannten “Indirect Prompt Injections” können ohne das Wissen des Chatbot-Users ausgeführt werden.

Wie können sich Unternehmen bei der Nutzung von LLMs absichern?

EUGEN: Wenn Unternehmen LLMs in Ihre eigenen Applikationen integrieren, die sie vielleicht sogar ihren Kunden zur Verfügung stellen, sollte vorher unbedingt eine  Beratung durch Expert:innen zu möglichen Risiken stattfinden. Erst nach einer entsprechenden Risikoanalyse kann man das Risiko-Nutzen-Verhältnis einschätzen.

CHRISTOPH: Die Beratung ist extrem wichtig, bevor man ein Sprachmodell einsetzt. Ich denke, dass man allerdings noch einen Schritt früher ansetzen und sich fragen muss, wogegen man sich absichern möchte. Der zweite Schritt beinhaltet dann die Frage, wie man sich dagegen schützen kann. Man muss zunächst definieren, was kritische Informationen sind und welche Risiken entstehen könnten, um daraufhin festzulegen, wie eine Absicherung gestaltet werden kann.

eugen_staab

"Wir benötigen das Bewusstsein darüber, wie Sprachmodelle funktionieren, sodass die Menschen sie kritisch hinterfragen."

Wie sieht die Zukunft aus? Können wir durch LLMs neue, innovative Geschäftsmodelle entdecken?

EUGEN: Ich denke, es gibt zwei große Bereiche, die wirklich spannend werden können. Zum einen die Integration von LLMs mit externen Informationssystemen, wie z. B. dem Internet oder weiteren KI-Algorithmen, aber gerade auch mit internen, firmeneigenen Softwaresystemen. Hier eröffnen sich neue Möglichkeiten und damit verbundene Geschäftsmodelle. Zum anderen das Nachtrainieren, auch genannt “Fine-Tuning”, der Sprachmodelle mit unternehmenseigenen Daten, sodass das Modell möglicherweise zum Experten im Unternehmen wird. Meiner Einschätzung nach werden diese Systeme sich als Assistenten etablieren, die es uns ermöglichen, uns mit dem Computer natürlichsprachig auszutauschen. So können wir leichter die riesigen Datenmengen bewältigen, mit denen wir es heute zu tun haben.

CHRISTOPH: Ich denke in vielen gesellschaftlichen Bereichen wird es einen großen Fortschritt durch LLMs oder Künstliche Intelligenz (KI) generell geben, insbesondere, wenn man in Richtung der angesprochenen Expertensysteme denkt. Meiner Meinung nach, es gibt sehr viele Bereiche, in denen man sie wirklich sinnvoll einsetzen kann.

christoph_endres

DR. CHRISTOPH ENDRES
Geschäftsführer
sequire technology

eugen_staab

PROF. DR. EUGEN STAAB
Professor für Wirtschaftsinformatik
Hochschule Kaiserslautern

Das könnte Sie auch interessieren