Der KI-Chatbot ChatGPT beantwortet rasend schnell und in erstaunlicher Qualität Userfragen, schreibt originelle Gedichte oder Songtexte und programmiert sogar HTML- oder Video-Code. Viele finden das großartig – andere mahnen zur Vorsicht. Beides ist angemessen.
Ein Gastbeitrag von Kai Gondlach
Alexa und Siri, Shopping-Algorithmen und KI in Videospielen sind längst Alltag. Der kürzlich veröffentlichte Chat-Bot ChatGPT ist die nächste Evolutionsstufe dieser KI-Entwicklung. Dank Mustererkennung und blitzschneller Verbindung einer Anfrage mit dem passenden Datensatz erstellen solche Sprachmodelle Texte, die sich kaum noch von menschlichen unterscheiden lassen (siehe das GIGA-Interview mit ChatGPT).
Welche Chancen liegen in KI-generierten Texten?
Die Sprachmodelle verfassen schon heute standardisierte Texte für Produktbeschreibungen, über das Wetter, Sportergebnisse oder Horoskope, und entlasten den Kundendienst. Besonders in Zeiten des Kostendrucks auf Arbeitgeber und Fachkräftemangels sparen solche Programme den Unternehmen Zeit und Geld.
Die Qualität der KI-Ergebnisse hängt maßgeblich von den Daten ab, mit denen sie trainiert werden. An dieser Stelle sind die größten Technologieunternehmen der Welt in einer herausragenden Position: Sie haben schon früh den Wert von Daten erkannt und Datensilos angelegt.
Aus dieser Zeit stammt auch der damals noch visionäre Ausdruck „Daten sind das neue Öl“ (Quelle: The Economist). Nun haben Alphabet (Google), Microsoft, Meta (Facebook), Apple, Amazon und andere in den letzten zwei Jahrzehnten gigantische Datenberge gesammelt – und damit einen großen Vorsprung bei der Entwicklung von KI-Systemen.
Über den Gastautor
Kai Gondlach studierte Soziologie, Politik-/Verwaltungswissenschaft und Zukunftsforschung. Er ist selbstständiger Autor, Keynote Speaker, Podcast-Host und Geschäftsführer der Leipziger PROFORE Gesellschaft für Zukunft mbH, einem jungen Institut für Zukunftsforschung und Strategieberatung. Als Mitglied der akademischen Zukunftsforschung arbeitet er im Umfeld der UNESCO und dem Club of Rome an der Umsetzung wichtiger Zukunftsthemen.
Welche Risiken bergen KI-generierte Texte?
Mit Tools wie ChatGPT lassen sich aber auch Propaganda, Desinformation oder Hasskampagnen noch einfacher erzeugen und vervielfachen. Wie wir wissen, ist der Weg von einer virtuellen Bedrohung zu einer physischen kein weiter, siehe zum Beispiel den Drachenlord-Fall (Quelle: RND) oder eine Klage gegen Meta im Zusammenhang mit dem Bürgerkrieg in Äthiopien (Quelle: Handelsblatt).
Außerdem verlassen sich sehr viele Menschen auf Foren im Internet, um Haushaltstipps oder Programmierhilfe zu erhalten – letzteres kann im schlimmsten Fall zu fehlerhaften Codes führen, was besonders in größeren Unternehmen extreme Kosten nach sich ziehen oder sogar kritische Infrastruktur lahmlegen könnte. Entsprechend hat die Coder-Plattform Stack Overflow kürzlich die Verwendung von ChatGPT vorübergehend verboten.
Wie gut KI-Systeme Kunst erschaffen können, seht ihr im folgenden Video:
Welche Schwächen haben KI-Systeme?
Wie schon erwähnt, kann ein KI-Tool immer nur so gut sein, wie die ihm antrainierten Daten. Diese sind aber aus statistischer Sicht in der Regel unvollständig und im schlimmsten Fall verzerrt oder sogar diskriminierend. So kommt es immer wieder vor, dass künstliche Intelligenz Menschen mit dunklerer Hautfarbe nicht erkennt, zum Beispiel am Seifenspender (Quelle: Deutschlandfunk), oder in Sicherheitssoftware überproportional oft als Bedrohung einstuft (Quelle: Spiegel).
Auch Microsofts Chatbot Tay, einer der Vorgänger von ChatGPT, äußerte sich kurze Zeit nach seiner Veröffentlichung rassistisch (Quelle: Die Zeit). Hier fehlte offensichtlich das ethische Fundament bei der Entwicklung, um solche Fehler schon vor ihrem Einsatz zu verhindern – obwohl inzwischen gut erforscht ist, wie Trainingsdaten für Algorithmen neutraler aufbereitet werden können.
Automatisierte, intelligente Systeme sind zwar bequem für uns Menschen, doch bergen sie auch das Risiko, dass wir uns zu abhängig machen von den Nutznießern der jeweiligen KI. Denn die KI hat keinen Selbstzweck oder gar ein eigenes, möglicherweise altruistisches Motiv, sondern dient einzig und allein der Umsatzsteigerung der Unternehmen, die sie und ihre Datenströme kontrollieren.
Wir halten fest: Je mehr Menschen mit dem Internet verbunden sind, umso größer ist der potenzielle Nutzen, aber auch der potenzielle Schaden, der durch KI-Texte entsteht. Spielen wir eine Runde Black Mirror und schauen in drei Szenarien der nicht so fernen Zukunft, die die Gefahren der KI-Sprachmodelle noch greifbarer machen.
3 Szenarien, wie Schaden durch KI-Chatbots entsteht
Szenario 1: Die Tinder-Abzocke
Chris ist auf der Suche nach der großen Liebe und sieht in seiner App ein „Match“: Toni sieht toll aus, hat einen passenden Musikgeschmack, ist im selben Alter und wohnt in derselben Stadt. Das könnte klappen! Chris schreibt gleich eine Nachricht: „Hallo Toni, schön dich kennenzulernen – dein Lieblingsalbum der Doors steht hier bei mir im Regal als Schallplatte, was für ein Zufall!“
Daraus entwickelt sich ein reger Chat über mehrere Tage. Chris hat Schmetterlinge im Bauch und platzt fast vor Aufregung, und sitzt beim ersten echten Date schon viel zu früh im vereinbarten Lokal. Plötzlich schreibt Toni: „Ich muss unser Date leider absagen – hatte gerade einen Autounfall und bin nicht versichert, melde mich!“ Chris bietet natürlich sofort Hilfe an, notfalls auch mit Geld. Toni nimmt dankend an, Chris überweist 350 Euro, ist ja nichts dabei.
Was Chris nicht weiß: Toni ist eine KI und hat denselben, perfiden Trick gerade mit 7.000 anderen Menschen auf der ganzen Welt durchgezogen.
Ein paar echte Dating-Tipps verraten wir euch in folgendem Video:
Szenario 2: Business Devil
Mit ChatGPT in Kombination mit Video-KIs wie Dall-E lässt sich zum ersten Szenario auch eine gefälschte Person ergänzen – und damit Videomeetings manipulieren.
Stell dir vor, du hast mit den Co-Foundern deines Startups einen Pitch-Termin vor einem prominenten Investor in San Francisco, während ihr in Berlin sitzt – eine einmalige Chance! Alles läuft nach Plan, als plötzlich die Verbindung bei eurem Gegenüber kurz unterbrochen wird. Nach wenigen Momenten ist alles wieder gut und ihr fahrt mit der Präsentation fort.
Euer Pitch lief perfekt, doch die Reaktion von der anderen Seite kommt unerwartet: Der Investor ist völlig aufgebracht, erklärt euch die Schwächen eures Businessplans und kickt euch dann sofort aus dem Meeting. Ihr seid vollkommen perplex, ein Streit entsteht, und ihr begrabt die Idee des Startups.
Was ihr nicht wusstet: Die ganze Aktion wurde von einem konkurrierenden Startup lanciert, welches den eigenen Pitch nicht rechtzeitig fertig bekommen hat. Euer Kontrahent hat den Investor aus dem Meeting gekickt, euch eine Deep-Fake-Version seiner Abfuhr gezeigt und mit eurer Idee später den richtigen Investor überzeugt.
Szenario 3: Panik durch Kriegsangst
Seit dem Beginn des Kriegs in der Ukraine im Februar 2022 gab es einen regelrechten Fakenews-Tsunami. Unzählige Videos gelangten in Umlauf, die mutmaßliche Kampfhandlungen oder merkwürdige Reden hochrangiger Militärs zeigen sollen. Das verunsichert Bürger genauso wie Politiker, wie in folgendem Szenario.
Hunderte Videos eines Atomwaffen-Präventivschlags von Russland auf eine Militärbasis an der ukrainisch-polnischen Grenze kursieren auf allen sozialen Plattformen. Manche zeigen, wie im Nato-Staat Polen erhöhte Strahlung gemessen wird. Westliche Politiker versuchen die Situation zu verstehen, doch die Kommunikation mit Russland ist seit Kriegsbeginn stark eingeschränkt. Die US-Atomwaffen in Europa werden deshalb in Stellung gebracht.
Während Politiker und Militärs die Fakten zusammentragen und feststellen, dass dieser Angriff nie stattfand, ist der eigentliche Schaden längst passiert: In Teilen der Bevölkerung brach eine Massenpanik aus, die teils chaotische und gewaltsame Züge annahm. Tote und Verletzte sind die Folge – und das alles wegen KI-generierter Fake-Videos.
Wie kann ich (KI)-Fakenews erkennen?
Nach diesen drei sehr pessimistischen Szenarien stellt sich die Frage, wie wir uns und unsere Familien oder Unternehmen vor Desinformation schützen können. Wie erkenne ich also KI-Texte? Das ist gar nicht so leicht, denn KI-generierte Texte sind heute ungefähr so gut wie der Durchschnitt menschlicher Texte, also nicht so schlecht, dass man sie sofort oder automatisiert erkennen könnte.
Die Sprachmodelle wie ChatGPT werden zudem kontinuierlich weiterentwickelt. Erkennungssoftware würde vermutlich immer zu langsam sein, um auch die neuesten Versionen zu entdecken. Anders ausgedrückt: Es lässt sich nicht vermeiden, dass immer mehr KI-Inhalte durch sämtliche Medien geistern.
Es ist also höchste Zeit für einen verbindlichen Kodex der journalistischen Arbeit, der die Nutzung von KI-Tools wie ChatGPT transparent macht. Der Pressekodex braucht hier also eine Ergänzung. Ein Hinweis, dass ein Text mit Unterstützung oder vollständig mithilfe einer KI verfasst wurde, wäre dann verpflichtend und im Falle der Nichtachtung wären nennenswerte Strafen damit verbunden. So wie beim aktuellen Kodex auch.
Was brauchen wir als Gesellschaft, um uns vor KI-Scam zu schützen?
Besonders im Bildungssystem, der Politik und natürlich der Justiz besteht der größte Handlungsbedarf. Das Personal an diesen zentralen Pfeilern unserer Gesellschaft braucht ganz dringend Crashkurse im Umgang mit den digitalen Möglichkeiten des 21. Jahrhunderts, wenn wir uns nicht noch stärker polarisieren und von Verschwörungsmythen fremdsteuern lassen wollen.
Spätestens dann wird klar, dass die klassische Aufgabenverteilung von Ministerien und auch innerhalb von Unternehmen oft zu kurz greift; Medienkompetenz ist ein Thema für alle, wichtiger denn je und die Grundlage für eine mündige Gesellschaft.