Große Sprachmodelle: 6 zu vermeidende Fallstricke

Große Sprachmodelle: 6 zu vermeidende Fallstricke

Bildquelle: Pixabay

 

Im Bereich der künstlichen Intelligenz (KI) hat es in letzter Zeit unglaubliche Fortschritte gegeben, die vor allem auf die Entwicklung großer Sprachmodelle (LLMs) zurückzuführen sind. Diese sind das Herzstück von Text- und Codegenerierungs-Tools wie ChatGPT, Bard und Copilot von GitHub.

Diese Modelle sind auf dem besten Weg, sich in allen Bereichen durchzusetzen. Es bestehen jedoch nach wie vor ernsthafte Bedenken darüber, wie sie erstellt und verwendet werden – und wie sie missbraucht werden können. Einige Länder haben beschlossen, einen radikalen Weg einzuschlagen und bestimmte LLMs vorübergehend zu verbieten, bis angemessene Regelungen eingeführt sind.

Schauen wir uns einige negative Auswirkungen von LLM-basierten Werkzeugen in der Praxis an und einige Strategien, um diese abzuschwächen.

 

1. Bösartiger Inhalt

LLMs können die Produktivität in vielerlei Hinsicht verbessern. Ihre Fähigkeit, unsere Anfragen zu interpretieren und ziemlich komplexe Probleme zu lösen, bedeutet, dass wir alltägliche, zeitraubende Aufgaben an unseren Lieblings-Chatbot abgeben und die Ergebnisse einfach auf ihre Richtigkeit überprüfen können.

Aber mit großer Macht kommt natürlich auch große Verantwortung. LLMs können zwar hilfreiches Material erstellen und die Softwareentwicklung beschleunigen, aber sie können auch einen schnellen Zugang zu schädlichen Informationen ermöglichen, die Arbeitsabläufe der Bösewichte beschleunigen und sogar bösartige Inhalte wie Phishing-E-Mails und Malware erzeugen. Der Begriff „Skript-Kiddie“ bekommt eine ganz neue Bedeutung, wenn die Einstiegshürde so niedrig ist wie das Schreiben einer gut konstruierten Chatbot-Anfrage.

Es gibt zwar Möglichkeiten, den Zugang zu objektiv gefährlichen Inhalten zu beschränken, aber sie sind nicht immer praktikabel oder effektiv. Bei gehosteten Diensten wie Chatbots kann das Filtern von Inhalten dazu beitragen, unerfahrene Nutzer zumindest zu bremsen. Die Implementierung von starken Inhaltsfiltern sollte unbedingt erforderlich sein, aber sie sind nicht kugelsicher.

2. Eingabeaufforderung

Speziell gestaltete Prompts können einen LLM dazu zwingen, Inhaltsfilter zu ignorieren und unerlaubte Ausgaben zu produzieren. Dieses Problem betrifft alle LLMs, wird sich aber in dem Maße verschärfen, wie diese Modelle mit der Außenwelt verbunden werden, z. B. als Plugins für ChatGPT. Diese könnten Chatbots in die Lage versetzen, vom Benutzer erstellten Code zu „evaluieren“, was zur Ausführung von beliebigem Code führen kann. Aus der Sicherheitsperspektive ist es sehr problematisch, einen Chatbot mit einer solchen Funktionalität auszustatten.

Um dies zu vermeiden, ist es wichtig, dass Sie die Fähigkeiten Ihrer LLM-basierten Lösung verstehen und wissen, wie sie mit externen Endpunkten interagiert. Stellen Sie fest, ob der Chatbot mit einer API verbunden ist, ein Social-Media-Konto betreibt oder ohne Aufsicht mit Ihren Kunden interagiert, und bewerten Sie Ihr Thread-Modell entsprechend.

Während Prompt Injection in der Vergangenheit vielleicht unbedeutend erschien, können diese Angriffe jetzt sehr reale Konsequenzen haben, da sie beginnen, generierten Code auszuführen, sich in externe APIs zu integrieren und sogar Ihre Browser-Tabs zu lesen.

3. Datenschutz/Urheberrechtsverletzungen

Das Training großer Sprachmodelle erfordert enorme Datenmengen, wobei einige Modelle über eine halbe Billion Parameter aufweisen. In dieser Größenordnung ist das Verstehen von Herkunft, Urheberschaft und Urheberrechtsstatus eine gigantische – wenn nicht gar unmögliche – Aufgabe. Ein nicht überprüfter Trainingssatz kann zu einem Modell führen, das private Daten preisgibt, Zitate falsch zuordnet oder urheberrechtlich geschützte Inhalte plagiiert.

Die Datenschutzgesetze im Zusammenhang mit der Verwendung von LLMs sind ebenfalls sehr undurchsichtig. Wie wir bei den sozialen Medien gelernt haben, besteht die Wahrscheinlichkeit, dass die Nutzer das Produkt sind, wenn etwas kostenlos ist. Wenn wir einen Chatbot bitten, einen Fehler in unserem Code zu finden oder ein sensibles Dokument zu schreiben, sollten wir daran denken, dass wir diese Daten an Dritte weitergeben, die sie dann möglicherweise für Modellschulungen, Werbung oder Wettbewerbsvorteile nutzen. Die Weitergabe von Daten durch KI-Eingabeaufforderungen kann besonders im geschäftlichen Umfeld schädlich sein.

Da LLM-basierte Dienste in Produktivitätstools am Arbeitsplatz wie Slack und Teams integriert werden, ist es entscheidend, die Datenschutzrichtlinien der Anbieter sorgfältig zu lesen, zu verstehen, wie die KI-Eingabeaufforderungen verwendet werden können, und die Verwendung von LLMs am Arbeitsplatz entsprechend zu regeln. Was den Urheberrechtsschutz betrifft, müssen wir die Datenerfassung und -nutzung durch Opt-Ins oder spezielle Lizenzen regeln, ohne das offene und weitgehend freie Internet, wie wir es heute haben, zu behindern.

4. Fehlinformationen

Obwohl sie überzeugend Intelligenz vortäuschen können, „verstehen“ LLMs nicht wirklich, was sie produzieren. Ihre Währung sind vielmehr die probabilistischen Beziehungen zwischen Wörtern. Sie können nicht zwischen Fakt und Fiktion unterscheiden – manche Ausgaben können sehr glaubwürdig erscheinen, sich aber als eine selbstbewusst formulierte Unwahrheit herausstellen. Ein Beispiel dafür ist ChatGPT, das Zitate und sogar ganze Arbeiten fälscht, wie ein Twitter-Nutzer kürzlich am eigenen Leib erfahren hat.

LLM-Tools können sich bei einer Vielzahl von Aufgaben als unglaublich nützlich erweisen, aber es müssen Menschen daran beteiligt sein, die Genauigkeit, den Nutzen und die allgemeine Vernunft ihrer Antworten zu überprüfen.
Die Ergebnisse von LLM-Tools sollten immer mit einer Prise Salz genommen werden. Diese Werkzeuge können sich bei einer Vielzahl von Aufgaben als unglaublich nützlich erweisen, aber der Mensch muss an der Überprüfung der Genauigkeit, des Nutzens und der allgemeinen Vernunft ihrer Antworten beteiligt sein. Andernfalls droht uns eine Enttäuschung.

5. Schädliche Ratschläge

Beim Online-Chat wird es immer schwieriger zu erkennen, ob man mit einem Menschen oder einer Maschine spricht, und einige Unternehmen könnten versucht sein, dies auszunutzen. Anfang dieses Jahres hat beispielsweise ein Technologieunternehmen für psychische Gesundheit zugegeben, dass einige seiner Nutzer, die eine Online-Beratung in Anspruch nahmen, unwissentlich mit einem GPT3-basierten Bot statt mit einem menschlichen Freiwilligen interagierten. Dies warf ethische Bedenken hinsichtlich des Einsatzes von LLMs in der psychischen Gesundheitspflege und in jedem anderen Bereich auf, der auf die Interpretation menschlicher Emotionen angewiesen ist.

Gegenwärtig gibt es nur wenige oder gar keine gesetzliche Aufsicht, die sicherstellt, dass Unternehmen KI nicht auf diese Weise mit oder ohne die ausdrückliche Zustimmung des Endnutzers einsetzen können. Außerdem können Gegner überzeugende KI-Bots für Spionage, Betrug und andere illegale Aktivitäten einsetzen.

KI hat keine Emotionen, aber ihre Reaktionen können die Gefühle von Menschen verletzen oder sogar zu tragischen Konsequenzen führen. Es ist unverantwortlich, davon auszugehen, dass eine KI-Lösung die emotionalen Bedürfnisse eines Menschen angemessen interpretieren und darauf reagieren kann, und zwar verantwortungsvoll und sicher.

Der Einsatz von LLMs im Gesundheitswesen und anderen sensiblen Anwendungen sollte genau geregelt werden, um jegliches Risiko einer Schädigung der Nutzer zu vermeiden. Anbieter von LLM-basierten Diensten sollten die Nutzer immer über den Umfang des Beitrags der KI zum Dienst informieren, und die Interaktion mit einem Bot sollte immer eine Wahlmöglichkeit und nicht die Standardeinstellung sein.

6. Verzerrung

KI-Lösungen sind nur so gut wie die Daten, auf denen sie trainiert wurden. Diese Daten spiegeln oft unsere menschlichen Vorurteile gegenüber politischen Parteien, ethnischen Gruppen, Geschlechtern oder anderen demografischen Merkmalen wider. Voreingenommenheit führt zu negativen Folgen für die betroffenen Gruppen, wenn das Modell eine unfaire Entscheidung trifft, und kann sowohl subtil als auch potenziell schwer zu beheben sein. Modelle, die auf ungeprüften Daten aus dem Internet trainiert wurden, werden immer menschliche Voreingenommenheit widerspiegeln; Modelle, die ständig aus Benutzerinteraktionen lernen, sind auch anfällig für absichtliche Manipulation.

Um das Risiko der Diskriminierung zu verringern, müssen Anbieter von LLM-Diensten ihre Trainingsdatensätze sorgfältig auf etwaige Ungleichgewichte prüfen, die negative Folgen haben könnten. Modelle für maschinelles Lernen sollten auch regelmäßig überprüft werden, um sicherzustellen, dass die Vorhersagen fair und genau bleiben.

Große Sprachmodelle definieren die Art und Weise, wie wir mit Software interagieren, völlig neu und bringen unzählige Verbesserungen für unsere Arbeitsabläufe. Angesichts des derzeitigen Mangels an aussagekräftigen Vorschriften im Bereich der KI und des Mangels an Sicherheitsvorkehrungen für maschinelle Lernmodelle wird die weit verbreitete und übereilte Einführung von LLMs jedoch wahrscheinlich erhebliche Nachteile mit sich bringen. Es ist daher unerlässlich, diese wertvolle Technologie schnell zu regulieren und zu sichern.

 

Lesen Sie den Originalartikel hier.