- cross-posted to:
- kintelligenz
- cross-posted to:
- kintelligenz
Manko in der Logik: KI-Systeme wie GPT haben offenbar ein grundlegendes Problem mit logischen Umkehrschlüssen, wie eine Studie belegt. Demnach verstehen die großen Sprachmodelle oft nicht, dass, wenn A gleich B ist, auch B gleich A sein muss – ein Mensch versteht dies dagegen instinktiv.
Paper: The Reversal Curse: LLMs trained on “A is B” fail to learn “B is A” | PDF
Natürlich tun sie das nicht. Die Dinger generieren Text. Nichts weiter. Das sind einfach nur Programme die sehr gut voraussagen können welches Wort wohl als nächstes kommt basierend auf den Worten davor… Da ist keine Logik drin. Es sind nur Worte aneinandergereiht.
Leicht komplizierter aber ja, es geht nicht um einzelne Worte sondern schon um Satzbestandteile. Es wird Sprache gut imitiert, nicht Wissen.