Alles in allem sind das Tools, die genau in die heutige Zeit passen: Gefühlte Wahrheit ersetzt harte Fakten und (fast) alle sind zufrieden.
Nein, wer sich mit dem Thema ersthaft befasst, ist damit nicht zufrieden. Nur die, die sich nicht auskennen, werden mit jeder Antwort zufrieden sein und sich wie im Wunderland fühlen, wenn sie Antworten bekommen, die den Eindruck vermitteln, von einer echten Person zu stammen. Im Zweifel ist das sogar die Mehrheit, weil für einen KI-Chatbot Wissen / Know How nötig ist, das viele gar nicht haben und nie haben werden, denn dafür müssten sie Schulen besuchen, Seminare absolvieren und sich mit komplexen Themen auseinandersetzen.
Ein Chatbot ist nur so gut, wie die Datenbank, auf die er zugreift. Die Datenbanken eines Chatbots sind begrenzt. Der Fehler in deinem Fall war wohl, dass es kein Standardwerk wie die Wikipedia gibt, die schonmal zweifelsfrei einfache Fragen wie deine fehlerfrei beantworten kann. Sie müssten nur ein solches Werk in die Datenbank einbinden und dann gibt es auch die richtige Antwort. ChatGPT durchsucht nicht das Internet als Ganzes oder gar die Wikipedia, sondern vordefinierte Datenbanken! Eine solche Herangehensweise ist auch gar nicht das derzeitige Ziel der Entwickler, zudem gibt es rechtliche Probleme. KI-Bots wird schon länger vorgeworfen, sich beim geistigen Eigentum Dritter zu bedienen und es als das eigene Wissen auszugeben. Der Link, den jeder Autor immer setzen muss, um nicht in rechtliche Konflikte zu geraten, setzt ein Chatbot nicht. Technisch zwar kein Problem, aber ich orakel mal, warum sie es nicht tun: Das würde u.a. die Hardware zusätzlich fordern und so die Kosten in die Höhe treiben und die Nutzerzahl weiter begrenzen. Also machen die IT-Riesen das, was sie seit Napster, Youtube und Co. schon immer gut können, sie bedienen sich einfach am geistigen Eigentum Dritter und lassen das später von ihren Anwälten regeln.
Also man kann solche Systeme ohne Bedenken als "KD" bezeichnen, nämlich "künstliche Dummheit".
Das hätte ich vor 20 Jahren noch unterstrichen. Seit ChatGPTs neuem Sprachmodell sehe ich das aber anders. Die Antworten sind schon jetzt teils verblüffend "menschlich". Was KI schon jetzt kann, ist das extrem schnelle Durchsuchen und Filtern von für Menschen unglaubliche Datenmengen. Wenn man nur die Fehleranfälligkeit betrachtet, übersieht man, dass auch Schüler und selbst Fachleute Fehler machen, die man als Nichtfachkraft auch nicht erkennt.
KI ist aus meiner Sicht eher eine Art autistische Intelligenz, oder vielleicht besser ins technische Denken übertragen, ein autistischer Algorithmus. Das, was man diesem Algorithmus gezielt beibringt, worauf man ihn trainiert, das beherrscht er besser als jeder Mensch.