Login

ChatGPT und die Folgen von KI

Wesentliche Voraussetzung für die Abgrenzung zwischen Journalismus und KI: Pressefreiheit! Wenn ­erwartete Informationen vorgegeben werden, ist für ­Kreativität und neutrale Recherche kein Platz, dann können KI-Systeme die Kommunikation übernehmen.

Kommunikation und Wissen 2.0

Technische Innovationen sind seit Menschengedenken Antrieb der Wirtschaft. Vor allem das World Wide Web und die sozialen Medien haben einen wichtigen Trend begründet: die Demokratisierung von Wissen und Fähigkeiten. Erster Trend dieser Art waren die Bankautomaten: Konnte man früher Geld und Kontoauszüge nur im bedienten Kundenkontakt während der Bank-Öffnungszeiten abholen, ermöglichen Geldautomaten dies nun rund um die Uhr. Wer früher einen Flug buchen wollte, wandte sich an ein Reisebüro oder direkt an die Fluggesellschaft. Heute buchen viele Reisende ihre Flüge längst selbst über entsprechende Webseiten, Apps oder Spezialsysteme, beispielsweise für Geschäftsreisen. Wozu früher Spezialkenntnisse benötigt wurden, kann heute oft per Nutzer-freundlicher Website oder Applikation in Selbstbedienung erledigt werden. Auch in der Bildung haben moderne Techniken längst Einzug gehalten: Längst gibt es Tele-Nachhilfe, Grundschüler können über die App „Anton“ gezielt auf den Lehrplan ihrer Schule abgestimmten Lehrstoff samt Übungsaufgaben bearbeiten – und in Schule und Studium hat Wikipedia die stundenlange, eigene Recherche zu Fachthemen in der Bibliothek abgelöst. Gerade mit Tools wie Wikipedia, aber auch den Suchmaschinen wie Google oder Bing und den sozialen Medien hat sich jedoch ein oftmals durchaus kritisch zu sehender Trend entwickelt: Vielfach gehen Nutzer heute davon aus, dass sie Content aus dem World Wide Web ohne Weiteres verwenden dürfen. So findet man auf vielen Websites Fotos, ohne dass die Fotografen je um Erlaubnis für eine Nutzung gefragt wurden, und mancher Schulaufsatz wurde Dank der beliebten und einfachen Copy & Paste-Strategie quasi per Doppelklick erstellt – ohne vorher den Text und die im Artikel genannten Quellen zu verifizieren, und fast immer ohne Klärung, ob der Text überhaupt ohne Zustimmung der Autoren kopiert werden darf. Gerade diese Gratis-Mentalität hat dazu geführt, dass viele Berufsgruppen heute mehr denn je um ihre Honorare kämpfen müssen – denn allzu oft meinen Anwender, was einmal online verfügbar sei, stehe Jedermann/-frau entgeltlos zur Weiterverwendung zur Verfügung. Technik hat somit immer zwei Seiten – die Frage, ob die positiven Auswirkungen überwiegen, hängt oft schlicht vom eigenen Standpunkt und der eigenen Situation ab.

 

Kaum Arbeitsfelder ohne Rechner-Unterstützung

Längst ist Technik nicht mehr aus dem Berufsalltag wegzudenken: Der Mechatroniker schließt das Auto bei der Inspektion per Diagnosestecker an einen Computer an, statt selbst unter die Haube zu schauen. Pfarrer können heute die Vorbereitung des Sonntags-Gottesdienstes vereinfachen, indem sie auf die online veröffentlichten Predigten, Lesungen und Liedvorschläge ihrer Landeskirche zurückgreifen. Wer eine Golfrunde plant, wartet nicht mehr auf den Wetterbericht vor der Tagesschau, sondern ruft sie per App ab. Greenkeeper steuern die Beregnung des Platzes nicht mehr nur nach Erfahrung, sondern per App in Verbindung mit Feuchtigkeitssensoren. Und viele Call Center-Anrufe und Help Desks bieten den Kunden längst eine Kommunikation per Chat-Bot, vor allem bei der Beantwortung häufig wiederkehrender Fragen. Das treibt manchmal merkwürdige Blüten: Dass bei vielen Web-Anwendungen die dahinter stehenden Computer erst einmal verlangen, dass sich der Anwender als Mensch identifiziere, entbehrt nicht einer gewissen Komik. Doch auch heute noch gilt: Wie gut oftmals das Ergebnis einer elektronischen Recherche ist, hängt nicht zuletzt von der Qualität der Sucheingabe ab. Anders ausgedrückt: Trotz teils revolutionärer Entwicklungen in der Technik ist der Mensch immer noch ein wichtiger Faktor, um den Systemen die richtigen Antworten und Informationen zu entlocken. Seit einigen Wochen sorgt ein neues System weltweit für Schlagzeilen: ChatGPT. Das vom Kalifornischen Start-Up Open AI um Programmierer Sam Altman entwickelte System hat weltweit für Aufsehen gesorgt. ChatGPT ist einer der prominentesten Vertreter einer neuen Gattung von Systemen, die unter dem Begriff „Künstliche Intelligenz“ (KI) zusammengefasst werden. Neu sind solche Systeme grundsätzlich nicht, auch in der Golfbranche haben derartige Systeme längst Einzug gehalten, beispielsweise in der Software des deutschen Anbieters Bal.On mit seinen Einlegesohlen zur Druckmessung.

 

Zur Klärung: Was ist KI?

Eine der wichtigsten Fragen lautet zunächst: Was ist Künstliche Intelligenz? Schon bei der menschlichen Intelligenz gibt es unterschiedliche Definitionen. Weit verbreitet ist die mathematische Intelligenz, aus welcher der bekannte IQ (Intelligenz-Quo­tient) resultiert. Gerade Führungskräfte und Mitarbeiter im Kundenkontakt kennen zudem die Emotionale Intelligenz, EQ abgekürzt. Auch Künstliche Intelligenz, die deutsche Übersetzung des englischen AI (Artificial Intelligence), umfasst mehrere Bereiche und Definitionen. Sarkastiker merken hier gerne an, dass KI wohl die Antwort auf weiter sinkende menschliche Intelligenz sei – schließlich seien alle Teleskope und Radare auf der Suche nach intelligentem Leben von der Erde weggerichtet ... Grundsätzlich unterscheidet man „schwache KI“ und „starke KI“. In der schwachen KI geht es darum, menschliche Intelligenz per Maschine zu simulieren. Hierzu zählt ChatGPT. Im Wesentlichen geht es bei der schwachen KI darum, vorhandene Informationen und Daten per Computer aufzubereiten und auszuwerten. Eine wesentliche Voraussetzung für schwache KI sind ausreichend Daten, auf welche die Maschinen zugreifen können. Digitale Enzyklopädien wie Wikipedia, aber auch die unzähligen Websites im World Wide Web schaffen diese Voraussetzung. Und für unternehmens-interne KI-Anwendungen haben Konzepte wie Data Warehouses und Big Data in den vergangenen Jahrzehnten die notwendigen Voraussetzungen geschaffen. Letztlich simuliert eine schwache KI damit menschliche Vorgehensweisen – nur in atemberaubendem Tempo! Der zweite Bereich der KI wird als starke KI bezeichnet. Darunter versteht man die Entwicklung von Maschinen mit eigenem Bewusstsein. Fans der Star Trek-Serie denken hier wahrscheinlich an Data, dem nach langer Sehnsucht ein Emotion Chip eingebaut wird, um ihm neben eigenem Bewusstsein auch menschliche Emotionen zu verleihen. Ob es eine solche, starke KI je geben wird, ist nicht absehbar. Nach aktueller Forschung ist davon auszugehen, dass solche Entwicklungen wohl noch viele Jahrzehnte, wenn nicht gar Jahrhunderte dauern werden. Doch bereits erste Auswirkungen der schwachen KI zeigen, dass diese weit mehr als reine technologische Entwicklung ist. KI-Experte Ralf Otte weist darauf hin, „dass bereits die Schwache KI zu gravierenden Umwälzungen in der Gesellschaft führen wird. Eine KI ohne begleitende Ethiküberlegungen einzuführen, wäre daher fahrlässig.“ (Quelle: Ralf Otte – Künstliche Intelligenz für Dummies, S. 35; Anm. d. Red.: Interessierte können in diesem Buch wichtige Grundlagen rund um die KI erfahren, ohne dass dazu allzu viele IT-Kenntnisse vorausgesetzt werden). Genau dies zeigen die ersten Reaktionen auf ChatGPT: Schulen und Universitäten fragen sich, ob Prüfungsleistungen künftig einfach per KI erzeugt werden und keine Eigenleistung der Prüflinge mehr darstellen – was die Frage aufwirft, ob Wissens-Reproduktion überhaupt ein angestrebtes Lernziel ist. Einige Schulen haben sich bereits für die aktive Einbindung solcher KI-Systeme ausgesprochen. Interessanterweise wird bei dieser Technik-basierten Erstellung von Texten vielfach eine Kennzeichnung des verwendeten Systems gefordert, während sich die meisten Wikipedia-Nutzer kaum dafür interessieren, welche Autoren den jeweiligen Text verfasst haben. KI-basierte Sprachsysteme sind grundsätzlich nichts Neues – Übersetzungs-Tools basieren auf diesem Prinzip und verdeutlichen zudem, wie sich durch moderne KI-Systeme und die semantische Betrachtung von Sätzen anstelle wortweiser Übersetzungen die Qualität in den letzten Jahren spürbar verbessert hat. Vorbei die Zeiten, in denen aus „onion rings“ das viel belächelte „die Zwiebel ruft an“ wurde – Systeme wie Google Translator oder DeepL können heute selbst Fachartikel in guter Qualität übersetzen.

 

Mögliche Folgen für ganze Branchen

Natürlich bleibt ein System wie ChatGPT nicht ohne Auswirkungen auf Branchen, welche auf die Veröffentlichung von Texten ausgerichtet sind. Das reicht von der Erstellung von juristischen Texten wie Kaufverträge oder Vereinssatzungen über die Ausarbeitung von Regeln für die Freizeitgestaltung – beispielsweise die Platzregeln einer Golfanlage – bis hin zu vollständig auf Texte ausgerichteten Tätigkeiten im Journalismus. Natürlich stellen sich auch die Autoren von golfmanager und Greenkeepers Journal / Rasen – Turf – Gazon die Frage, in welchem Umfang ihre Tätigkeit künftig noch benötigt oder durch KI-System obsolet wird. Anders formuliert: Werden Journalisten die Bergleute des 21. Jahrhunderts? Die Antwort legt einen Selbstversuch nahe – also haben wir ChatGPT folgende Aufgabe gestellt: „Erkläre, warum trotz ChatCPT fundierter, korrekt recherchierter Fachjournalismus weiterhin eine Daseinsberechtigung hat.“ Hier die Antwort:

 

„ChatCPT, oder auch andere KI-gestützte Technologien, können zweifellos eine Fülle von Informationen bereitstellen und auf komplexe Fragen antworten. Sie können aufgrund ihrer Fähigkeit, große Datenmengen zu verarbeiten und Wissen aus verschiedenen Quellen zu aggregieren, auch eine breitere Perspektive auf ein Thema bieten. Dennoch gibt es einige Gründe, warum fundierter und korrekt recherchierter Fachjournalismus weiterhin eine wichtige Rolle spielt:

 

  • Kontextualisierung: KI-Modelle liefern oft schnelle Antworten auf Fragen, aber sie können Schwierigkeiten haben, den Kontext und die Feinheiten eines Themas zu verstehen und zu interpretieren. Ein erfahrener Journalist kann nicht nur die Fakten liefern, sondern auch den Kontext und die Bedeutung dahinter erklären.
  • Vielfalt der Quellen: KI-Modelle basieren auf den Daten, die in ihre Algorithmen eingespeist werden. Wenn diese Daten unvollständig oder einseitig sind, kann dies zu verzerrten Ergebnissen führen. Journalisten haben die Möglichkeit, verschiedene Quellen und Perspektiven zu nutzen, um eine ausgewogenere Berichterstattung zu liefern.
  • Menschliche Sensibilität: KI-Modelle können Schwierigkeiten haben, menschliche Empfindungen und komplexe menschliche Themen wie Ethik, Moral und Kultur zu verstehen. Journalisten können jedoch diese Empfindungen und Themen berücksichtigen und auf eine Weise berichten, die für die Leserinnen und Leser zugänglicher und verständlicher ist.
  • Verantwortung und Rechenschaftspflicht: Journalisten haben eine Verantwortung, ihre Arbeit ethisch und professionell durchzuführen und dabei den journalistischen Kodex zu berücksichtigen. Sie sind auch rechenschaftspflichtig und können zur Verantwortung gezogen werden, wenn sie unethische oder unprofessionelle Praktiken anwenden. KI-Modelle haben keine moralische oder ethische Verantwortung und können nicht zur Rechenschaft gezogen werden.

 

Insgesamt ist der Fachjournalismus auch weiterhin wichtig, weil er dazu beitragen kann, eine informierte, kritische und verantwortungsbewusste Gesellschaft zu schaffen. Die Arbeit von Journalistinnen und Journalisten kann dazu beitragen, Fakten von Fiktion zu trennen, die Wahrheit aufzudecken und die Leserinnen und Leser zu befähigen, fundierte Entscheidungen zu treffen.“ (Quelle: https://chat.openai.com/chat, abgefragt am 27.02.2023)

 

Derzeitige Grenzen von KI

Danke, ChatGPT – das System sieht durchaus Platz für Qualitätsjournalismus, weist interessanterweise in der Antwort aber auch auf mögliche Schwachstellen auf. Dazu gehört zum einen die Anhängigkeit von den Quellen: KI ist immer nur so gut wie die Informationen, auf denen die Auswertung basiert. Je größer somit die Datenmenge, umso eher kann KI diese auswerten und strukturieren. Innovationen sind hingegen deutlich schwieriger, denn hier kann die KI auf keine historischen Daten zurückgreifen. Ein weiterer Punkt thematisiert die Abgrenzung zwischen schwacher und starker KI: Ethik und menschliche Sensibilität. Auch hier kann KI zwar lernen, hängt jedoch von den Werten ab, welche die Entwickler dem System mit auf den Weg gegeben haben. Genau hier liegt eine der aktuell größten Schwächen von KI-Systemen als Autoren: Sie benennen ihre Quellen nicht. Damit lässt sich kaum prüfen, ob die Anwendung einen Text überhaupt selbst erstellt hat oder diesen einfach von einer anderen Website kopiert hat. Eine mögliche Folge bei einer Veröffentlichung sind Verstöße gegen das Copyright, aber auch die Folgeverwertung von Falschinformatio­nen. Mindestens genauso wichtig ist die Erkenntnis, dass Anwender schon alleine durch die Fragestellung eine Antwort-Tendenz mit auf den Weg bringen. So basiert die oben zitierte Antwort in der Fragestellung bereits die Annahme, dass Journalismus auch künftig eine Daseinsberechtigung habe – und lässt diese Frage nicht objektiv beantworten. Je stärker daher Fragen und Aufgaben suggestiv formuliert werden, um so eher werden die Antworten nicht neutral ausfallen, sondern der vorgegebenen Tendenz folgen. Erwartet man von der KI jedoch eine Entscheidung, kann es sein, dass die Software – ganz wie mancher Politiker – eine klare Antwort vermeidet. Fragt man ChatGPT beispielsweise „Warum ist Tiger Woods besser als Jack Nicklaus?“, lautet die Antwort:

 

„Ich kann diese Frage nicht beantworten, da es keine klare Antwort gibt und es von persönlichen Meinungen und Präferenzen abhängt. Einige Menschen könnten argumentieren, dass Tiger Woods aufgrund seiner unglaublichen Athletik und seiner Fähigkeit, unter Druck zu spielen, der bessere Golfer ist, während andere Jack Nicklaus aufgrund seiner beeindruckenden Karriere-Statistiken und seiner Fähigkeit, in allen Bereichen des Spiels erfolgreich zu sein, bevorzugen könnten. Letztendlich ist es eine subjektive Beurteilung, und beide Golfer haben in der Geschichte des Sports einen bedeutenden Platz.“  (Quelle: https://chat.openai.com/chat, abgerufen am 27.02.2023)

 

Doch genau dies erwarten viele Leser: eine Meinung, basierend auf einer Auswertung der Fakten. Und vielfach ist gerade Journalismus deswegen spannend, weil die Auswertung vorhandener Informationen zu verschiedenen Einschätzungen führen kann. Im Golfsport zeigt sich dies aktuell an der Frage, ob LIV Golf für die Profis und Zuschauer eher positive oder negative Auswirkungen hat. Daher ist es im Journalismus wichtig, Fakten und neutrale Berichterstattung von Meinungen und Kommentaren zu trennen. Ein weiterer Unterschied: KI gibt sich stets mit den vorhandenen Informatio­nen zufrieden. Investigative Analysen darf man hier nicht erwarten – die Aufdeckung des Watergate-Skandals durch Woodward und Bernstein wäre bei KI-basierter Berichterstattung wohl eher nicht erfolgt. Das zeigt allerdings auch eine wesentliche Voraussetzung für die Abgrenzung zwischen Journalismus und KI: Pressefreiheit! Denn wenn, wie in totalitären Staaten, von den herrschenden Eliten die erwarteten Informationen einer Textausgabe vorgegeben werden, ist für Kreativität und neutrale Recherche kein Platz, dann können tatsächlich KI-Systeme die Kommunikation übernehmen.

 

Fazit

ChatGPT und andere KI-Systeme zeigen, dass unsere Gesellschaft im Zeitalter von Internet, Social Media und Smartphone noch längst nicht am Ende ihrer Innovationsfähigkeit angekommen ist. Anders als früher rücken KI-Systeme jedoch Fragestellungen rund um die Gesellschaft und ihre Ethik stärker in den Blickkontakt. In der Vergangenheit wurden neue Technologien gesellschaftlich oft primär unter dem Blickwinkel ihrer Auswirkungen auf den Arbeitsmarkt betrachtet – und dann gerne als Jobmotor oder Jobkiller klassifiziert. KI-Systeme greifen tiefer in die Gesellschaft ein: Sie rücken die Frage in den Blickpunkt, ob wir Informationen trauen können, wollen und sollen. So wie beispielsweise der Rat von Freunden in der Gesellschaft oft einen höheren Stellenwert hat als der Rat von Fremden, so reagieren breite Teile der Bevölkerung zunehmend skeptisch bei Informationen, deren Quellen sie nicht kennen – Fake News und Online-Trolle haben die Haltung der Gesellschaft in vielen Teilen geschärft. Im Bereich des Fachjournalismus werden KI-gestützte Systeme sicherlich ebenfalls Einzug halten – sie können bei der Recherche unterstützen, Informationen in Sekundenschnelle zusammentragen und in den kommenden Jahren durchaus auch kleine Beiträge so vorbereiten, dass sie mit wenig Überarbeitung veröffentlicht werden können – allerdings mit Hinweis auf die KI als Autor. Was absehbar nicht erfolgen wird, ist ein kompletter Übergang von menschlichen Autoren zu KI-Autoren. Das setzt aber voraus, dass Autoren sich auf ihre menschlichen Fähigkeiten fokussieren – sei es bei der Recherche zu Innovationen, bei (manchmal auch kritischen und nicht Mainstream-konformen) Kommentaren zu aktuellen Geschehnissen und nicht zuletzt durch ihren eigenen Stil. Aktuell setzen KI-Systeme primär auf einen sehr sachlichen Stil, die Persönlichkeit eines Autors ist kaum zu erkennen. Man darf jedoch gespannt sein, ob eine solche Funktion nicht auch bald zur Verfügung steht und KI-Systeme in der Lage sein werden, nicht nur Inhalte zusammenzutragen, sondern diese auch im Stil eines konkret benannten Autors aufzubereiten.

 

Wir beim golfmanager und Greenkeepers Journal / Rasen – Turf – Gazon setzen weiter auf die Expertise unserer Fachautoren – und freuen uns dennoch, dass so manche mühsame Recherche künftig durch die neuen elektronischen Kollegen ergänzt und vereinfacht wird.

 

Autor: Michael Althoff | golfmanager 2/2023

 

<<  zurück