← Zurück zum Blog

Schreiben lassen oder selbst denken? Was KI kann – und was nicht

„Nur etwa ein Viertel (27 Prozent) der deutschen KI-Nutzenden sagt, dass sie die Ergebnisse, die die KI für sie generiert, überprüfen.“
Diese Meldung hörte ich vor ein paar Tagen noch vor dem Aufstehen im Radio. Nur 27 Prozent? Hm, das ist nicht viel. Und so ging es auch gleich im Radio-Beitrag weiter: „Im weltweiten Vergleich (31 Prozent) ist dies ein unterdurchschnittlicher Wert. Deutlich höher ist dieser bei Menschen in Südkorea (42 Prozent), China und Indien (jeweils 40 Prozent). Nutzerinnen und Nutzer in Frankreich und Schweden (jeweils 23 Prozent) überprüfen die generierten Endprodukte dagegen noch seltener als User in Deutschland. Dies sind Ergebnisse des „AI Sentiment Index 2025“ von Ernst and Young, für den mehr als 15.000 Menschen in 15 Ländern befragt wurden – mehr als 1.000 davon in Deutschland.“*

Super Aufhänger für einen Blogartikel, dachte ich mir. Doch bevor ich aufspringen und einen Prompt für ChatGPT formulieren konnte 😉, hörte ich: „Das Vertrauen in eigene KI-Erzeugnisse ist zwar groß – aber wenn die KI ohne menschliche Aufsicht agiert, haben vor allem Nutzer aus westlich geprägten Ländern offenbar erhebliche Bedenken.“

Die Deutschen seien da skeptisch: Nur 39 Prozent fühlten sich bei dem Gedanken daran wohl: Die Vorstellung etwa, sich von einem KI-„Allgemeinmediziner“ anstelle einer menschlichen Ärztin oder eines menschlichen Arztes behandeln zu lassen, fühlt sich sogar nur für 26 Prozent der Befragten aus Deutschland gut an. Im weltweiten Durchschnitt sind es 37 Prozent.

Das fand ich spannend:

  • Einerseits haben die deutschen KI-Nutzenden großes Vertrauen in die eigenen KI-Erzeugnisse (Bitte merken: Nur 27 Prozent prüfen KI-Ergebnisse.)
  • Aber wenn die KI ohne menschliche Aufsicht agiert, sind sie deutlich misstrauischer als z. B. Menschen in Asien (Bitte merken: Nur 26 Prozent vertrauen KI-Diagnose.)

Warum dies so ist, darüber lohnt es sich sicher nachzudenken. Ich möchte mich aber hier darauf fokussieren, was ChatGPT aus den Ergebnissen der Studie in einem Text gemacht hat.

ChatGPT verfälscht Ergebnis

In meinem Prompt gab ich ChatGPT ein paar Eckdaten über Zielgruppe, Textlänge und Stil für den Blog-Artikel – und natürlich den Link zur Studie.
Et voilà, das hier hat ChatGPT aus der Studie gemacht:

„Laut der Studie stehen deutsche Nutzer generativen KI-Tools deutlich zurückhaltender gegenüber als viele internationale Vergleichsgruppen. Nur 26 Prozent der Befragten in Deutschland vertrauen KI-Anwendungen ‚sehr‘ oder ‚voll und ganz‘. Fast die Hälfte zweifelt an der Genauigkeit der gelieferten Informationen. Besonders im beruflichen Kontext bleibt die Unsicherheit groß: Können wir den KI-generierten Inhalten wirklich trauen – und vor allem: verstehen wir, was da steht?“

Haben Sie es bemerkt? ChatGPT hat hier beide Aspekte vermischt: Die Zahl „26 Prozent“ bezieht sich in der Studie nur auf die medizinischen Anwendungen. Zudem unterscheidet der Text nicht zwischen Ergebnissen, die man selbst mit Hilfe der KI generiert, und solchen, die ohne direkte menschliche Aufsicht entstehen.

Auch die erste Aussage über den unkritischen Umgang einer deutlichen Mehrheit der deutschen Nutzer mit den eigenen KI-Erzeugnissen fällt unter den Tisch. Damit kommt im Text von ChatGPT eher das Gegenteil von dem heraus, was in der Studie steht.

Fazit: In der Version von ChatGPT entsteht ein einseitiges, falsches Bild von den Ergebnissen der Studie.

Das heißt: Ich kann das Lesen der Studie nicht ChatGPT überlassen. Ich muss es selber tun – und das Gelesene auch verstehen.

Fehler vermeiden durch eigene Schreib-, Prompt- und Urteilskompetenz

An diesem Beispiel zeigt sich, wie wichtig der menschliche Anteil bei der Arbeit mit KI bleibt. Ohne eigene Schreib-, Prompt- und Urteilskompetenz kann uns die KI alles erzählen, wenn es nur schön klingt. Wir müssen den Umgang mit ihr trainieren. Und wir sollten die Rollen klären: Was kann die Maschine übernehmen und was bleibt unsere Aufgabe?

Danach habe ich ChatGPT gefragt und die KI hat es, finde ich, sehr überzeugend auf den Punkt gebracht:

„Für Fachleute, die regelmäßig komplexe Inhalte verständlich aufbereiten müssen – ob in Wissenschaft, Verwaltung, Technik oder Beratung – zeigt sich hier ein Spannungsfeld. KI kann zwar erste Entwürfe liefern oder sprachlich glätten. Doch sie kann keine Verantwortung übernehmen, keine kritische Auswahl treffen, keine Argumentationslinie entwickeln.

Wer etwa ein Gutachten, ein Strategiepapier oder einen Patientenbericht verfasst, braucht mehr als nur ‚schönen Text‘. Er oder sie muss fachlich durchdringen, verständlich erklären und dabei präzise formulieren.“

Schreibkompetenz – viel mehr als gut zu formulieren

Dies ist der Kern von Schreibkompetenz: Sie hört nicht dabei auf, gut klingende Sätze aneinanderzureihen. Sondern sie beinhaltet wesentlich das Durchdenken und Darstellen komplexer Zusammenhänge.

Wer sich auf KI verlässt, ohne selbst gelesen zu haben und selbst schreiben zu können, riskiert nicht nur Missverständnisse – sondern auch Denkfehler. Wer KI klug nutzen will, braucht ein sicheres Gespür für Sprache, Logik und Zielgruppen. Und genau das entwickelt man nicht beim Prompten, sondern beim eigenen Schreiben.

Mit unserem Angebot unterstützen wir Sie, die Schreibkompetenz in Ihrem Unternehmen zu stärken. Wollen Sie mehr darüber wissen, was wir konkret für Sie tun können?

*Quelle: https://www.ey.com/de_de/newsroom/2025/05/ey-ai-sentiment-index-2025

Bereit für bessere Texte?

Buchen Sie jetzt ein kostenloses und unverbindliches Beratungsgespräch.
© 2025 Granatgrün. Alle Rechte vorbehalten.

Newsletter

Alle 14 Tage ein Impuls für Ihre wirkungsvolle Kommunikation

Ihre Daten behandeln wir streng vertraulich gemäß unserer Datenschutzerklärung.