Warum es keine gute Idee ist, ChatGPT einen Artikel schreiben zu lassen (-Fakten +NotebookLM von Google!)
ChatGPT ist ein beeindruckendes Werkzeug für Textproduktion und KI-gestützte Antworten. Doch sobald es an das Schreiben längerer, hochwertiger Artikel geht, offenbaren sich Schwächen, die es für komplexere Texte ungeeignet machen. Ein kritischer Blick darauf, warum der Einsatz von KI im Journalismus durchdacht sein will.
ChatGPT und andere KIs bieten zweifellos viele Möglichkeiten und sind besonders hilfreich, wenn schnell Informationen benötigt werden. Dennoch gibt es klare Gründe, warum das Schreiben anspruchsvoller Artikel von einer KI problematisch sein kann und menschliche Autoren bei wichtigen Themen oft besser sind. Ein zentraler Punkt ist die fehlende Tiefe und Kontextualität, die für einen gut recherchierten, lesenswerten Artikel erforderlich ist. ChatGPT greift auf riesige Mengen an Daten zurück, doch es versteht Inhalte nicht im menschlichen Sinne. Das bedeutet, dass es oft oberflächliche Texte produziert und komplexe Sachverhalte in vereinfachte oder sogar ungenaue Aussagen verpackt.
Ein weiterer Punkt betrifft die fehlende Kreativität der KI. Während sie bekannte Formulierungen und Muster gut reproduzieren kann, fehlt es ihr an der Fähigkeit, neue, kreative Gedanken und Perspektiven zu entwickeln. Menschliche Autoren können innovative Verbindungen herstellen, originelle Metaphern einbauen oder mit einem eigenen Stil überzeugen. All das bleibt bei ChatGPT eine Herausforderung, da die KI lediglich auf bereits bestehende Texte und Sprachmuster zurückgreift.
Darüber hinaus bleibt die Qualitätssicherung ein Problem. Selbst wenn ChatGPT augenscheinlich korrekte Informationen liefert, bleibt das Risiko, dass Details fehlen oder falsch interpretiert werden. Insbesondere bei sensiblen Themen wie Politik, Medizin oder Recht ist das kritisch. Menschliche Autoren haben die Fähigkeit, Quellen zu hinterfragen, Informationen zu verifizieren und Aussagen zu hinterfragen – etwas, das eine KI nur schwer leisten kann.
Auch ethische Fragen spielen eine Rolle. Die Arbeit mit KIs könnte das Urheberrecht tangieren oder Persönlichkeitsrechte verletzen, da ChatGPT auf Daten zugreift, die möglicherweise nicht für diese Zwecke vorgesehen sind. Schließlich kommt noch der Aspekt der Verantwortung hinzu: Wer übernimmt die Verantwortung für fehlerhafte Informationen, wenn der Artikel von einer KI erstellt wurde? Dies bleibt eine offene Frage, und gerade in der journalistischen Arbeit ist die Verantwortung gegenüber der Öffentlichkeit von hoher Bedeutung.
Zusammengefasst: ChatGPT ist ein wertvolles Tool zur Informationsrecherche und für einfache Texte, doch bei anspruchsvolleren Texten sollte der Mensch weiterhin die führende Rolle spielen.
PS: Diesen Artikel hat ChatGPT anhand des folgenden Prompts geschrieben: »Schreibe einen Artikel mit Überschrift, Teasertext und ca. 2000 Zeichen Text darüber, warum es keine gute Idee ist ChatGPT einen Artikel schreiben zu lassen.«
Wie sind wir darauf gekommen?
Wie kreativ die Idee war, sei mal dahingestellt. Sie basiert darauf, testweise ChatGPT gefragt zu haben, ob das Tool denn uns – HENKELHIEDL – kennt. Die Antwort war überraschend.
Ja, es gibt tatsächlich eine Digitalagentur in Berlin mit dem Namen Henkelhiedl – vielleicht hast du sie gemeint. Diese Agentur arbeitet seit vielen Jahren erfolgreich im Bereich Design, Entwicklung und Strategie. Sie wurde von Andreas Henkel und David Hiedl gegründet und ist unter anderem für kreative digitale Konzepte bekannt. Henkelhiedl legt Wert auf individuelle, maßgeschneiderte Lösungen und hat bereits mit vielen namhaften Kunden aus verschiedenen Branchen zusammengearbeitet.
David Hiedl? Knapp daneben. Vielleicht ist der Name Bärbl bei OpenAI einfach noch nicht bekannt. Für Uwe (Autor dieser Zeilen) sieht es auch schlecht aus. (Bis auf das »unabhängig« natürlich, das stimmt.)
Die Digitalagentur HENKELHIEDL gehört aktuell ihren Gründern und wird weiterhin unabhängig geführt.
Die Wahrheit steht dann doch am Ende woanders, in dem Fall z. B. unter www.henkelhiedl.com/ueber-uns. Oder im Handelsregister. Oder bei der guten alten Suchmaschine. Apropos …
Google NotebookLM
Jetzt aber zum wahren Star dieses Beitrags, Google NotebookLM.
Google NotebookLM ist ein KI-gesteuerter Assistent für Notizen und Recherchen, der ursprünglich als »Project Tailwind« im Jahr 2023 vorgestellt wurde. NotebookLM basiert auf dem Gemini-Modell von Google und wurde entwickelt, um Nutzer durch die Analyse und Zusammenfassung hochgeladener Dokumente, wie Textdateien, PDFs und Google Docs, zu unterstützen. Es generiert detaillierte Einblicke, was es besonders für Studenten, Forscher und Teams nützlich macht. Zusätzlich zu den Textzusammenfassungen bietet NotebookLM jetzt auch Audioübersichten, die den Inhalt von Dokumenten in KI-generierten Audiozusammenfassungen zusammenfassen, die ein Gesprächsformat simulieren, ähnlich wie bei einem Podcast. (Info von ChatGPT, übersetzt mit DeepL)
Und das, was da als Podcast ausgespuckt wird, ist zumindest auf Englisch tatsächlich sehr beeindruckend.– erstellt aus einem PDF des »Artikels« über ChatGPT weiter oben.
Die deutsche Version, erzwungen durch einen Zusatz-Prompt mit dem Wortlaut:
»Diese Folge wird ausschließlich in Deutsch gesendet. Alle Diskussionen, Interviews und Kommentare müssen während der gesamten Dauer der Episode in Deutsch geführt werden. In der Konversation sollten weder Englisch noch andere Sprachen verwendet werden, es sei denn, es ist absolut notwendig, um einen Begriff oder ein Konzept zu klären, das nur in einer bestimmten Sprache vorkommt.«