
In meinem letzten Post bin ich ja bereits kurz auf die Nachteile von LLM´s eingegangen. Hier dürfen insbesondere die ethischen Dilemmata nicht vergessen werden die sich dabei ergeben. Dieses Thema sollte ein wenig ausführlicher behandelt werden, deshalb habe ich mir das für den zweiten Post aufgespart. Die Probleme sind nicht ausschließlich spezifisch für ChatGPT, da das aber der bekannteste Vertreter dieser Technologie ist passt das meiner Meinung auch gut in diesen Artikel. Weiter unten werde ich dann auf die neuen Entwicklungen von OpenAI eingehen, da sie erst vor kurzem wieder sehr spannende Neuheiten präsentiert haben.
1. Voreingenommenheit und Diskriminierung
Eines der prominentesten ethischen Probleme von LLMs ist die potenzielle Verstärkung von Voreingenommenheit und Diskriminierung. Da diese Modelle auf umfangreichen Trainingsdaten basieren, spiegeln sie oft die Vorurteile und Stereotypen wider, die in diesen Daten vorhanden sind. Dies führt zu einer ungewollten Verstärkung von gesellschaftlichen Ungerechtigkeiten und Diskriminierung. Insbesondere bei KI die eingesetzt wird um Vorschläge für neue Artikel und Posts in sozialen Medien zu generieren, gerät man schnell in eine Art Strudel, der einem dann nur noch Beiträge zuspielt die bereits vorhandene Meinungen noch verstärken. Hierbei sind vor allem Fake News und Deepfakes ein großes Problem, die ebenfalls häufig KI-generiert sind.
2. Mangelnde Transparenz und Interpretierbarkeit
LLMs sind komplexe Modelle, deren Funktionsweise für den durchschnittlichen Benutzer schwer nachvollziehbar ist. Dieser Mangel an Transparenz führt zu Herausforderungen in Bezug auf die Kontrolle und Verantwortlichkeit. Ohne ein Verständnis für die Entscheidungsprozesse von LLMs wird es schwierig, eventuelle Voreingenommenheiten oder unethisches Verhalten zu erkennen und zu korrigieren. Da für LLM´s aber mehrere Milliarden Parameter im Training genutzt werden (in der aktuellen Version von ChatGPT sogar über eine Billion), ist es für den Menschen schwer bis nahezu unmöglich die Prozesse nachzuvollziehen. Besonders bei Modellen die mit Deep Learning arbeiten und sich mehr oder weniger autark weiterbilden, ist es selbst für die Entwickler oft nicht mehr nachvollziehbar wie das Modell Entscheidungen trifft.
3. Missbrauch von KI in der Desinformation

Die Fähigkeit von LLMs, menschenähnliche Texte oder auch fotorealistische Bilder zu generieren, ermöglicht potenziell den Missbrauch durch die Verbreitung von Fehlinformationen und gefälschten Inhalten. Diese Technologie könnte für böswillige Zwecke eingesetzt werden, um Desinformation zu verbreiten, politische Meinungsbildung zu beeinflussen oder gar gefälschte Nachrichten zu generieren. Die bereits oben erwähnten Deep Fakes, bei denen reale Personen Texte wiedergeben die man ihnen via KI in den Mund gelegt hat, stellen ein großes Problem dar. Dies gilt nicht nur für Politiker oder Prominente, auch Nachrichtensendungen sind hiervon betroffen und werden immer wieder zu gezielter Desinformation genutzt. Viele Wissenschaftler plädieren mittlerweile für eine Art digitales Wasserzeichen mit dem man originale Beiträge von Deep Fake unterscheiden kann.
4. Verlust von Arbeitsplätzen und sozialen Auswirkungen
Die Automatisierung von Aufgaben durch Künstliche Intelligenz könnte zu einem Verlust von Arbeitsplätzen in bestimmten Sektoren führen. Dies wirft Fragen nach den sozialen Auswirkungen auf und erfordert die Entwicklung von Maßnahmen, um den Menschen bei der Anpassung an die sich ändernde Arbeitswelt zu helfen. Allerdings wird sich das in absehbarer Zeit eher auf einfache Aufgaben erstrecken, woraus dann Kapazitäten frei werden für andere Aufgaben die nicht von Maschinen oder Computern erledigt werden können. Der Direktor des Instituts der deutschen Wirtschaft, Prof. Michael Hüther, geht davon aus dass der durchschnittliche Arbeitnehmer pro Jahr 100 h Arbeit durch KI einsparen kann. Hochgerechnet auf sämtliche Arbeitnehmer wäre das die Anzahl der Stunden die der deutschen Wirtschaft durch den Fachkräftemangel aktuell fehlen. Für viele Wissenschaftler ist Künstliche Intelligenz und die Arbeitszeit die dadurch eingespart werden kann, der Schlüssel für den Kampf gegen den Fachkräftemangel in unserem Land.
5. Sicherheits- und Datenschutzbedenken
Die Verwendung von LLMs in verschiedenen Anwendungen bringt auch Sicherheits- und Datenschutzbedenken mit sich. Die Möglichkeit, hochrealistische gefälschte Texte zu erstellen, könnte für betrügerische Zwecke missbraucht werden, und der Umgang mit sensiblen Informationen in generierten Texten erfordert besondere Aufmerksamkeit. Auf den Punkt gefälschte Informationen zur Desinformation zu nutzen sind wir ja bereits oben eingegangen. Für Firmen besteht viel eher das Problem, wie mit ihren sensiblen und Kundendaten umgegangen wird. Da die Entscheidungsfindung und teilweise auch die Funktionsweise aufgrund der Komplexität und der Menge an Daten schwer nachzuvollziehen ist, gibt es besonders in Europa aufgrund des Datenschutzgesetzes erhebliche Einschränkungen bei der Anwendung von Künstlicher Intelligenz. Da die Anwendungen selten auf hausinternen Servern laufen aufgrund des massiven Bedarfs an Rechenleistung, muss der jeweilige Dienstleister sicherstellen dass sensible Daten nicht an andere Kunden durchrutschen können. Auch hier hat OpenAI bereits erste Lösungen geboten, da in Italien aufgrund der Bestimmungen der Datenschutzverordnung im April 2023 ein kurzfristiges Verbot für ChatGPT herrschte. Durch die Offenlegung von Datenverarbeitungspraktiken und Maßnahmen zur Altersbeschränkung, konnte dieses Verbot wieder aufgehoben werden.
CustomGPT´s – Next Level ChatGPT?
Anfang November präsentierte OpenAI seinen neuesten Streich: CustomGPT´s und der GPTStore! Damit ist es nun möglich eigene GPT´s ohne Vorkenntnisse im Bereich Programmierung oder Künstliche Intelligenz zu erstellen und diese über den GPT-Store mit anderen Nutzern zu teilen. GPTs werden zunächst für zahlende ChatGPT Plus-Abonnenten und OpenAI-Unternehmenskunden verfügbar sein. Unternehmenskunden können interne GPTs nur für ihre Mitarbeiter erstellen. Die Plattform bietet dabei eine Benutzeroberfläche, um zu steuern, wie ein GPT mit Menschen interagiert. Benutzer können Vorlieben und Anweisungen spezifizieren, und den GPTs kann der Zugriff auf Web-Browsing, DALL-E (zur Generierung von Bildern) und das Code Interpreter-Tool von OpenAI zum Schreiben und Ausführen von Software gewährt werden. Zudem können Benutzer benutzerdefinierte Daten hochladen, und eine Funktion namens „Actions“ ermöglicht es GPTs, sich mit externen Diensten zu verbinden, um auf Daten wie E-Mails und Datenbanken zuzugreifen, beginnend mit Diensten wie Canva und Zapier. Wichtig ist dabei dass die Ersteller der GPT´s Gespräche, die Menschen mit ihnen führen, nicht einsehen können. Zugleich überwacht OpenAI jedoch die Aktivitäten mit den Bots um Hate-Speech, Betrug und Themen, die nur auf erwachsenen zugeschnitten sind, zu kontrollieren und ggf. zu unterbinden. OpenAI betrachtet die CustomGPT´s als nächsten Schritt auf dem Weg zur Entwicklung einer allgemeinen künstlichen Intelligenz bzw. einer KI-Superintelligenz. Das ist ebenfalls ein spannendes Thema, im gesamten aber so ausschweifend dass dafür ein eigener Post nötig sein wird.
Ich hoffe ich konnte euch für´s Erste einen kleinen Einblick in die spannende Welt von ChatGPT und OpenAI geben. Wenn ihr Fragen dazu habt oder ich wichtige Sachen vergessen habe, seht es mir bitte nach. Oder schreibt mir gerne in die Kommentare dazu.