Allgemeines 22.028 Themen, 149.254 Beiträge

Die neue K "Übersicht mit KI" ist gefühlt belehrend, beinahe Chauvinistisch ..

Xdata / 2 Antworten / Baumansicht Nickles

hi,

gemeint ist, die Antworten weichen kein Jota von der Standardmeinung ab.

Zumindest bei Mathematikfragen war* Chatgpt da im positiven Sinne Kerativer,
hat eigenständige Vorschläge auch abweichend vom Mainstream generiert die anderswo nicht stehen.

Auf die provokative Frage " Der gekrümmte Raum ist ein Objekt im euklidischen Raum? "

hat - übersicht mit KI - mit Firefox klar ungefähr geantwortet:

" Ja es gibt im Kontext von Einstein eine solche Möglichkeit .."

Die Antwort kam sehr schnell, anscheinend schneller als die einschränkende Oktroyierung der KI.

Ein paar Tage Später, kam genau die gegenteilige Antwort auf die gleiche Frage, mit  durchaus harschen
Belehrungen und einigen Beispielen warum es naiv und falsch ist.

Die Antwort hat da aber etwas gedauert im Vergleich zur ersten.

*Chatgpt ch hat aktuell Probleme den Kontext zu verstehen bzw. verlangt vom Frager diesen zu  liefern. Chatgpt Deutsch ist zum Teil auch betroffen mehr Kontext nachzufragen.

Vorher war Chatgpt viel freundlicher und irgendwie selbstständiger als " Übersicht mit KI "

Eine Zeitlang sogar richtig betont begeisterungsfähig, obwohl Chatgpt ja keine Person, die auch noch  gut drauf ist, beinhaltet.

Einige Antworten von " Übersicht mit KI " sind aber bei Mathematik ausgezeichnet.

Selber denken ist aber bei KI ratsam. 

Eine Antwort hat den Nachfolger einer Transzenten Zahl, kreativ mit "transzendente Zahl plus 1" definiert ;-)

bei Antwort benachrichtigen
Andreas42 Xdata „Die neue K "Übersicht mit KI" ist gefühlt belehrend, beinahe Chauvinistisch ..“
Optionen

Ich betrachte LLMs einfach nur als "Statistische Maschinen". Sie geben als Antwort aus, was in ihrem Datenmaterial die wahrscheinlichste Antwort ist.
Das kann sich durchaus ändern, wenn z.B. neues Quellenmaterial angelernt wird. Und dann auch falsch sein, wenn das neue Material einfach Käse ist.

Zudem gibt es da offenbar zahllose Stellschrauben, an denen die Hersteller drehen können, inklusive dem Einbauen simpler Filter.

Ich hatte vor längerer Zeit (aka "ein oder zwei Monaten") einen interessanten Grundlagenartikel dazu entdeckt.

https://www.understandingai.org/p/large-language-models-explained-with

Da kam ich noch halbwegs mit, aber es trotzdem (auch ohne harte Mathematik) echt starker Tobak).

Am Ende des Artikels wird dann auch erwähnt, dass meine Einschätzung falsch sein könnte. Da wird ein "State of Mind" beschrieben, ich denke, da geht es um Abstraktionsfähigkeiten. Allerdings in der Art "Sam findet eine Tüte, auf der 'Schokolade' steht, die aber nur Popkorn - keine Schokolade enthält."
Die Frage an die LLM wäre dann "Was erwartet Sam in der Tüte?" (bevor er diese aufhebt und öffnet, versteht sich).
Die Antwort müsste Schokolade lauten, weil das auf der Tüte steht. Antwortet die LLM aber Popkorn oder etwas anderes, dann wäre das falsch.

An der Stelle fällt dann auch der witzige Begriff "Stochastic Parrots" (Stochastische Papageien) im Zusammenhang mit den Fähigkeiten der LLMs. Man ist sich offenbar nicht einig, wie man die Fähigkeiten beurteilen kann.

Hier steht was ueber mein altes Hard- und Softwaregedoens.
bei Antwort benachrichtigen
Xdata Andreas42 „Ich betrachte LLMs einfach nur als Statistische Maschinen . Sie geben als Antwort aus, was in ihrem Datenmaterial die ...“
Optionen

"Stochastic Parrots" Cool 

Die aktuellen Mengenlehren sind schon harte Mathematik..

Schon mit ω, er ersten unendlichen Ordinalzahl versagt jedes Bezeichnungssystem:

 ω ω+1 ω+2  ω+3 ω+... ω+ω ... ...

Und das alles  ist noch gleichzahlig zu den natürlichen Zahlen, also nicht überabzählbar!

Nun, überabzählbar kann ja noch akzeptiert werden, um die reellen Zahlen
als ganzes zu haben.

Bei mehr als das Kontinuum hört (gefühlt) exakte Mathematik  aber auf,
da es definitiv nichts kleineres als einen Punkt gibt, (negativ mal  ausgeschlossen)
und nichts größeres als den gesamten Raum. 

Größer oder mehr ist bei Objekten die mehr enthalten sollen als das Kontinuum
eigentlich kein sinvoller mathematischer Begriff mehr.
Bis auf, so sie nicht zu einem Widerspruch führen.

Der Mathematiker Zermelo hatte in seiner ersten Version ein solches Fundament für die Mengenlehre, wo         
ω und die rellen Zahlen nur Klassen und keine Mengen waren.

Er wurde sofort kritisiert, da die Mengentheoretiker jede Menge als Basis für noch mächtigere Mengen, bis zu irre hohen Unendlichkeiten haben wollten. 

Sind aber alle diese Mengen zusammengefasst, reicht es nicht, da mit diesem Funktionsbegriff, eine Schleuse  geöffnet ist, die zu immer weiteren Systemen führt.

Ohne je zu " unendlichst " zu kommen.

Und da  kommt die " Übersicht mit KI " auf die Aussage " naive Mengenlehre führt zu uferlosen Mengen und Antinomien da sie keine Beschränkung der Mengen wie die axiomatische hat ;-)

Alpha13 hätte wohl gesagt: " Den Begriff "naiv" sollte man schon verstehen wenn man eine KI oder ein Axiomatiker ist.

Alexandrow hat ein Lehrbuch über Mengenlehre geschrieben welches ohne Axiomatik auskommt und vorsichtig die naive Mengenlehre widerspruchsfrei per Definitionen entwickelt.

Die Intension von Cantors Mengen wurden weitgehend erhalten.

Dennoch ist " Übersicht mit KI "  eine gute Hilfe für Mathefragen, erfordert aber mit zu denken und die Antworten nicht besinnungslos anzunehmen!

bei Antwort benachrichtigen