- cross-posted to:
- kintelligenz
- cross-posted to:
- kintelligenz
Manko in der Logik: KI-Systeme wie GPT haben offenbar ein grundlegendes Problem mit logischen Umkehrschlüssen, wie eine Studie belegt. Demnach verstehen die großen Sprachmodelle oft nicht, dass, wenn A gleich B ist, auch B gleich A sein muss – ein Mensch versteht dies dagegen instinktiv.
Paper: The Reversal Curse: LLMs trained on “A is B” fail to learn “B is A” | PDF
Leicht komplizierter aber ja, es geht nicht um einzelne Worte sondern schon um Satzbestandteile. Es wird Sprache gut imitiert, nicht Wissen.