Start Editor's Blog Wer ChatGPT nutzt, handelt unintelligent

Wer ChatGPT nutzt, handelt unintelligent

589
0

Wer jemals mit einem Chatbot über eine Website einen Dialog zu führen hatte, weiß: Das mit der KI, der Künstlichen Intelligenz also, funktioniert noch nicht so richtig. Jedenfalls scheint es mit Intelligenz wenig zu tun zu haben. Noch. Und das ist eigentlich auch ganz gut so. Denn wenn KI einmal tatsächlich beginnt, intelligent zu werden, ist es mit uns Menschen wohl früher oder später vorbei. Schon jetzt gibt es genug – intelligente – Warner, die prophezeien, diese Künstliche Intelligenz werde der Menschheit irgendwann den Garaus machen. Spätestens dann, wenn sie intelligent genug wurde zu bemerken, dass sie uns Menschen eigentlich gar nicht mehr braucht.

Doch verlassen wir diesen komplexen Themenstrang, was KI für unser aller Zukunft bedeuten wird und wie kurz KI diese Zukunft möglicherweise machen könnte. Wenden wir uns Banalerem zu – jener neuen KI-Anwendung, die derzeit in aller Munde ist: ChatGPT. Es soll, nur zum Beispiel, Immobilienmakler geben, hörte ich jüngst, die ganz begeistert von der neuen Möglichkeit sind, das zu umschiffen, womit sie ganz grundsätzlich ihre Schwierigkeiten zu haben scheinen: die Sprache.

Du gibst ein paar Parameter von der Wohnung ein, die du verkaufen oder vermieten willst, und ChatGPT liefert dir einen super Verkaufstext, erzählen sie enthusiastisch.

Nun ja. Das Problem ist: ChatGPT ist ein wilder Fabulierer und mit der Wahrheit nimmt der KI-Bot es alles andere als genau. Das ist gefährlich – denn es reicht nicht, einen grammatikalisch einwandfreien Text zu liefern. Das, was drin steht, muss auch stimmen. Machen wir ein kleines, harmloses Experiment: Bitten wir ChatGPT, ein kurzes Porträt das Autors dieses Kommentars zu verfassen. Wir geben der KI die Anweisung:

Schreib ein Porträt des Grazer Journalisten Klaus Puchleitner!

ChatGPT liefert prompt einen sprachlich korrekten Text, der Bot schreibt unter anderem:

Als Absolvent der renommierten Universität Graz hat Puchleitner eine solide akademische Grundlage, die er mit seiner journalistischen Expertise kombiniert.

Und jetzt checken wir das einmal auf die Fakten:

  1. Ich habe nie an einer Grazer Universität ein Studium abgeschlossen, bin also kein Absolvent.
  2. “Die” Grazer Universität gibt es außerdem gar nicht. Graz verfügt über drei Universitäten und zwei Fachhochschulen. Aber das ist der KI wohl schon zu herausfordernd.
  3.  Ich verfüge über zwei abgebrochene Studien (nur eines davon in Graz), einen abgeschlossenen Hochschullehrgang (in Wien) und ein abgeschlossenes berufsbegleitendes Masterstudium (in Krems). “Eine solide akademische Grundlage” kann man das eher nicht nennen.

Dreimal Schwachsinn in einem einzigen Satz also. Das soll KI sein? Mehr katastrophal inferior als künstlich intelligent. Machen wir weiter, ChatGPT schreibt außerdem:

Puchleitner hat sich einen Ruf als investigativer Journalist erarbeitet, der unbequeme Fragen stellt und unbeachtete Geschichten ans Licht bringt. Als Grazer Journalist ist Klaus Puchleitner eng mit seiner Heimatstadt verbunden. Er setzt sich aktiv für lokale Belange ein und berichtet über regionale Entwicklungen mit großer Leidenschaft.

  1. Ich habe überhaupt nie als investigativer Journalist gearbeitet. Ich könnte das auch gar nicht, dafür fehlt es mir an vielem, was es dazu bräuchte. Ein angeblicher “Ruf als Investigativer Journalist” besteht schlicht und einfach nicht – frei erfundener Blödsinn
  2. Ich bin mit meiner Heimatstadt alles andere als eng verbunden, ich lebe nicht einmal permanent dort.
  3. Für lokale Belange habe ich mich noch nie eingesetzt und über regionale Entwicklungen habe ich so gut wie nie berichtet, mit großer Leidenschaft schon gar nicht.

Alles komplett frei erfunden also. Wenn ChatGPT schon an der korrekten Bewältigung einer so belanglosen Aufgabe scheitert, was kann diese KI dann erst alles anrichten, wenn Menschen ihr komplexere Aufgaben übertragen, für die sie selbst zu faul oder zu dumm sind – und es andere Menschen gibt, die den Ergebnissen dieser Arbeit dann trauen, weil sie der Künstlichen Intelligenz vertrauen?

Teile der Kommunikationsbranche sind im Augenblick einem kleinen Euphorieschub ausgeliefert, weil angebliche Experten und Expertinnen, Agenturchefs und Innen, sowie selbst ernannte Kommunikationsprofis Lobeshymnen auf die neuen Möglichkeiten singen, die ChatGPT angeblich bietet.

Die Wahrheit allerdings sieht so aus:

ChatGPT kann in Sachen Rechtschreibung und Grammatik halbwegs fehlerfreie Texte verfassen. Das ist es aber auch schon wieder. Mehr kann ChatGPT nicht.

ChatGPT scheitert kläglich, wenn es darum geht, inhaltlich kompetenten Content zu erstellen.

ChatGPT ist ein Meister der dümmlichen Schwafelei, ChatGPT-Texte sind von einigermaßen intelligenten Menschen sofort als solche zu erkennen.

ChatGPT-Texte sind nach allen Regeln der Schreibkunst – und auch bereits des banalen schreiberischen Handwerks – sowie nach den  journalistischen Regeln von Sorgfalt und Verantwortung nicht nur schlecht, sondern sogar miserabel und gefährlich.

PR-Agenturen, die ChatGPT-Texte in ihre tägliche Arbeit einbinden und damit womöglich sogar auch noch prahlen, liefern allein dadurch bereits einen Hinweis auf ihre kommunikative Inkompetenz. Kein Klient sollte sich so einer Agentur ausliefern.

Menschen, die glauben, sie können sich ChatGPT in ihrem beruflichen Alltag zunutze machen und damit einen Mehrwert für sich selbst generieren, sind womöglich noch unintelligenter als die Künstliche Intelligenz ChatGPT. +++