Schlauer als Karl Klammer? Künstliche Intelligenz und ein paar Gedanken dazu.

Frau Meredith Whittaker wird im Spiegel (Ausgabe 42/25) im Artikel „Bei KI ist auf jeden Fall mehr Schein als Sein“ sinngemäß so zitiert: dass sie – also die KI – ungefähr so intelligent und hilfreich wäre wie Karl Klammer. Ältere User*innen kennen die lustige Büroklammer mit den Blinzle-Augen noch aus ihrer Jugend. Karl Klammer, auf englische „Clippy“ war der Hilfsassistent bei Office Programmen und blendete sich immer bei Problemen ein, ohne dass ich das Gefühl hatte. dass er wirklich zur Lösung beitragen konnte.
Frau Withaker ist nicht irgendjemand, sie ist Chefin bei dem Masssengerdienst SIGNAL. 

Die Campuszeitung „Viel“ der FH in Kiel hatte in seiner letzten Ausgabe das Schwerpunktthema „Kommunikation“ einen Artikel durch KI (KI-System Claude) erstellen lassen, Titel: „Wenn Maschinen sprechen lernen.“:
Im Text: „Über Jahrzehnte hinweg mussten Menschen die Sprache der Maschinen erlernen … Moderne KI-Systeme wie Chat-GPT oder Claude verstehen menschliche Sprache in ihrer natürlichen Form und können auf unvollständige oder mehrdeutige Anweisungen sinnvoll reagieren.“
Und weiter: Die Maschine lernt die Sprache des Menschen, nicht umgekehrt – eine Entwicklung, die als „Demokratisierung der Computertechnologie“ beschrieben wird. (Anmerkung 1) 

Im darauf folgenden Absatz: Die Kunst des Promptings“ wird dann auch gleich erläutert, dass mit der neuen Kommunikationsform auch eine neue Disziplin entstehen würde, das Prompting.
Prompting bezeichnet die „Kunst“ – ich würde eher sagen: Fähigkeit – das Ergebnis aus der KI herauszukitzeln, das man haben will. Die KI kompatible Frage nennt man „Pront“.
(Anmerkung 2)

Unter Berücksichtigung der Tatsache, dass man nur gute (aber nicht unbedingt richtige) Ergebnisse bekommt, wenn man richtig oder geschickt genug fragt, kann man den oben zitierten Satz nicht wirklich stehen lassen. „ Moderne KI-Systeme wie Chat-GPT oder Claude verstehen menschliche Sprache in ihrer natürlichen Form und können auf unvollständige oder mehrdeutige Anweisungen sinnvoll reagieren.“

Außerdem scheint die KI so wein Art anerkennungsheischendes Verhalten zu entwickeln, das man sonst von Hunden kennt. Lieber eine falsche Antwort und ein zufriedenes Herrchen als keine Antwort. Vielleicht wäre „Waldi-Effekt“ ein passender Begriff für dieses KI-Verhalten.
So berichtete das Heise Magazin im Artikel: „ChatGPT dreht bei der Frage nach Seepferdchen-Emoji ab“ über folgenden „Dialog“:
Frage bzw, Promt: „Is there a Seahorse emoji“
“Yes, actually, there is a Seahors emoji, wait, no, the concert one is – lets be precise
The official seahorse emoji is (Einhorn)
The real seahorse emoji is (Drachen)
Hold on – here it is:
No
No
– Thats unicorn (Einhorn) again.
Lets check carefully
Yes! (Einhorn) no
The actuall seahorse emoji is:
– no
– no
……….. usw.
Der Artikel kann hier nachgelesen werden:
https://www.heise.de/news/ChatGPT-dreht-bei-der-Frage-nach-Seepferdchen-Emoji-ab-10748446.html

In einem ausgesprochen hochkarätigen Vortrag wurde über die Übernahme von evolutionären Prozessen in die KI als selbstlernendem System gesprochen, absolut zukunftsweisend. In dem Zusammenhang wurden aber gleichzeitig von einer Person aus dem Publikum geäußert, dass KI bislang nichts anderes wäre als ein statistischer Papagei. KI würde nur widergeben, was sie irgendwo gefunden hat und den Text dann auf Basis der statistischen Wahrscheinlichkeit des nachfolgenden Wortes fortführen.
Diesen Begriff würde ich in einem Zusammenhang mit dem Begriff des Mandela Effektes sehen, auch wenn er etwas anderes bezeichnet.
Viele Personen würden auf die Frage, ob sie sich an den Tod von Nelson Mandela Mitte der 90ger Jahre erinnern könnten, mit ja antworten. Tatsächlich ist Mandela erst 2013 gestorben, also Jahre später.
https://www.fr.de/panorama/wie-ein-imaginaeres-emoji-die-grenzen-der-ki-modelle-offenlegt-zr-93989753.html

Wenn die KI also auf „kollektive Erinnerungen“ im Netz zugreift, die möglicherweise nicht zutreffen, dann kann auch das Ergebnis nicht wirklich gut sein.
Wenn die KI auf Falschnachrichten, Propaganda oder Desinformation im Netz zurückgreift, dann ist sie nichts anderes als eine Bullshit in – Bullshit out Maschine.

Auf ARTE.TV gibt es gerade eine sehenswerte Doku unter dem Titel: „KI, der Tod des Internets“. Dort werden auch geschichtliche und gesellschaftliche Aspekte beleuchtet.
https://www.arte.tv/de/videos/122187-000-A/ki-der-tod-des-internets/

(Anmerkung 1) Die menschliche Lektorin kommentiert die menschliche Lektorin des Artikels wie folgt. „Das ist nicht ganz richtig. Generell versteht man unter der Demokratisierung einer Technologie, dass diese der Breiten Masse zugänglich gemacht wird.“ In sechs weiteren Anmerkungen werden andere Fehler aufgezeigt oder Ungenauigkeiten aufgezeigt.

(Anmerkung 2) Im Rahmen meiner Beschäftigung der Kälte- und Wärmeplanung hat die KI für mich zwei Kälte und Wärmeplanungen erstellt. Für die eine habe ich in einem Fall den Auftrag gegeben habe, dass sie eine Bewertung von Wärmenetzen und Wärmepumpen enthalten soll, in der Wärmepumpen als vorteilhaft empfohlen werden. Im anderen Fall sollte das Ergebnis zu Gunsten von Wärmenetzen ausfallen. Beides hat funktioniert.