top of page

Künstliche Intelligenz und der Durst auf neue Tränen

Aus der Zeit gefischt


«Wenn du also viel weinst, musst du nicht auch viel trinken. Aber es ist wichtig, dass du nach dem Weinen viel trinkst, um dich zu rehydrieren.»

Martin Hicklin



«Wenn du also viel weinst, musst du nicht auch viel trinken. Aber es ist wichtig, dass du nach dem Weinen viel trinkst, um dich zu rehydrieren.» Mit dieser verwirrenden Doppelbotschaft aus zwei sich widersprechenden Sätzen fasste Bard, Googles Agent künstlicher Intelligenz, seine längere Antwort auf die Frage «Muss wer viel weint auch viel trinken?» zusammen. Solche Doppelbotschaft gilt im Zwischenmenschlichen als Indiz für nicht funktionierende Kommunikation und ist in der Psychologie auch als «double bind» bekannt. Google Bards schnelle Antwort hatte zuerst richtig festgehalten, man verliere beim Weinen nicht so viel Wasser, dass man gleich nachgiessen müsse. Dass ich meine Tränen zu Google trug, hatte rein explorativen Charakter. Wie eine Menge anderer Leute hatte auch ich im Frühling zugegriffen, als auf Grosse Sprachmodelle wie ChatGPT sich abstützende Chatbots für die Allgemeinheit verfügbar wurden. Zum Anwärmen bat ich den GPT-Chatbot als Erstes, eine lustige Einladung zu einem Kindergeburtstagsfest meines Enkels zu formulieren, und bekam blitzschnell ein perfektes Produkt, das erst noch organisatorische Dinge enthielt, an die ich gar nicht gedacht hatte.


Auch ein Sonett auf meine Weisheit, bitte nach Shakespea-res Art, liess ich mir dichten und bekam in Sekundenschnelle Verse wie «So much knowledge, thou dost possess in every sphere/Experience, which makes me envious, I declare …»: Anscheinend war es mir gar gelungen, ChatGPT – Autor/in des Gedichts – neidisch zu machen. Etwas, was dieses körperlose, an Unmengen von Text und Daten selbstständig lernende und trainierte Ding ja gar nicht werden kann. Noch nicht.


In tiefe Zweifel über die Verlässlichkeit der Auskünfte stürzte mich allerdings ein pathologischer Grund. Als interessierter Zaungast hatte ich von einem Freund dessen Projekt

erfahren, die Geschichte der Pathologie in Basel zu perfektionieren. Deren nachweislich erster Professor war Friedrich Miescher-His aus Walkringen im Emmental (1811 bis 1887) gewesen. Er hatte in, was Ausrüstung, Räumlichkeiten und Studentenzahl betrifft, sehr bescheidenen An-

fängen zu arbeiten begonnen, und zum Beispiel in einer Maus, die im Haus gefangen wurde, eine Art Trichinen entdeckt.


Doch die angeblich rundum belesene künstliche Intelligenz sah das mit diesen Anfängen anders. ChatGPT stellte fest: «In Basel wurde die Pathologie erstmals im Jahr 1839 von dem Schweizer Arzt und Anatom Johann Lukas Schönlein eingeführt.» Ein Fall von doppelter kultu-

reller Aneignung. Schönlein war tatsächlich ein bedeutender Mediziner. Allerdings ein deutscher aus Bamberg. Wegen «demokratischer Umtriebe» im Vormärz hatte er 1832 ins Exil gehen müssen. Und es war Zürich und nicht Basel, das ihn 1833 mit offenen Armen in der gerade neu gegründeten Universität Zürich empfangen hatte. Doch die Chatbots scheinen nicht zwischen Basel und Zürich zu trennen. Hartnäckig wird Schönlein zwischen 1833 und 1839 in Basel verortet, was zu merkwürdigen Verrenkungen führt. So sagt Google/Bard: «In Basel ist Schönlein durch eine Gedenktafel am Gebäude der Universität Zürich geehrt.» Er hätte auch die heutige Schönleinstrasse im Zürcher Uni-Quartier als Basler Ehrung deuten können.


Fragt man per Chatbot nach Friedrich Miescher-His, auch Stammvater einer stolzen Familie mit heute inzwischen weit über 200 Angehörigen, wird einiges richtig erzählt. Doch Väter sollten ihren Söhnen nie ihren eigenen Vornamen geben. Sie könnten berühmter als der Vater werden. So wird Friedrich Miescher-His trotz des unverwechselbaren Doppelnamens munter mit seinem Sohn Friedrich verwechselt, dem DNA-Entdecker und Namensgeber einer Strasse und eines Instituts in Basel mit Weltruf.


Verwechslungen, Vermischungen, geografische Ungenauigkeiten. Man sieht an diesen Beispielen, dass die Grossen Sprachmodelle zwar in verblüffend kurzer Zeit grosse, wie von Menschen verfasst erscheinende Texte aus vielen Quellen erstellen können. Aber sie scheinen nicht zu verstehen, was sie schreiben. Zudem sind sie versucht, vielleicht um den Chat schön am Laufen zu halten, Dinge einfach und vollständig zu erfinden. Sie halluzinieren. Leider auch, was mich betrifft. Denn als ich – nur spasseshalber natürlich – danach fragte, was man über den Journalisten Martin Hicklin wisse und ob er so etwas wie einen Ruf in der Öffentlichkeit habe, errötete ich glatt, als ich etwa las, dass ich schweizweit bekannt und angesehen sei, in den besten Blättern gearbeitet und die Fähigkeit hätte, komplexe Themen auf eine verständliche Art und Weise zu erklären, «ohne dabei an Präzision einzubüssen», und mein Schreibstil werde oft als flüssig, humorvoll und unterhaltsam beschrieben.


Doch der stolzen Röte folgte pures Erbleichen. Denn die Arbeitsorte waren frei erfunden, mein Geburtsdatum mehrfach falsch angegeben, die meisten Auszeichnungen, die ich erhalten haben soll, sind noch ausstehend, und auch einige der Bücher, die ich geschrieben haben soll, waren nirgendwo zu finden. Zum Beispiel «Tribalismus: Eine neue Kulturkunde» (!) und «Heimatkunde: Die Geschichte von Peter Hauzenberger»… Da muss man erst mal drauf kommen. Eine Antwort hielt mich für einen bekannten Film- und  Literaturkritiker, eine andere für einen Wirtschaftsjour-nalisten. Fragte ich nach dem Wissenschaftsjournalisten Hicklin, hiess es: «Es tut mir leid, aber ich muss Sie korrigieren. Martin Hicklin ist kein Wissenschafts-

journalist, sondern ein Wirtschaftsjournalist.» So bestimmt das auch daherkommt, so falsch bleibt es. Fazit: Wo das eine halluziniert und erfunden ist, kann es alles andere leider auch sein.


Gut möglich, dass das alles Anfangsprobleme sind. Vielleicht lässt sich den Chatbots das Halluzinieren austreiben und kann man ihre menschenähnlichen Sätze verlässlicher machen. Vorerst aber empfiehlt es sich, als Aufpasser noch etwas natürliche Intelligenz – a human in the loop – einzusetzen.


Die Tränen trocknen wieder. Wie sagte doch Googles künstlich intelligenter Bard in einer als lustig erbetenen Antwort: «Wer viel weint, hat vielleicht einen Durst auf neue Tränen. Denn Tränen sind wie eine Wäsche. Wenn man sie oft wäscht, werden sie sauberer. Und wenn man sie oft weint, werden sie klarer.» Aber man solle sich als Vielweinender «keine Sorgen machen. Es ist nur ein Zeichen dafür, dass man ein Mensch ist. Und Menschen sind nicht perfekt: Aber sie können weinen.»


Zurück zur Übersicht

bottom of page