Nein, es bastelt einfach Sachen zusammen, ohne den Inhalt wirklich zu wissen. Das funktioniert bei lexikographischen und mathematischen Dingen so gar nicht gut, weil ChatGPT natürliche Sprache generiert und die ist inhärent schwammig und doppeldeutig, also genau das Gegenteil einer logisch konstruierten Sprache.
Hängt es nicht damit zusammen, dass ChatGTP auf Englisch „denkt“ und die Antworten übersetzt werden?
Macht nicht wirklich Sinn, da weder “äussern” noch “bekanntgeben” auf Englisch mit “L” anfangen.
Nein, es bastelt einfach Sachen zusammen, ohne den Inhalt wirklich zu wissen. Das funktioniert bei lexikographischen und mathematischen Dingen so gar nicht gut, weil ChatGPT natürliche Sprache generiert und die ist inhärent schwammig und doppeldeutig, also genau das Gegenteil einer logisch konstruierten Sprache.