• aaaaaaaaargh
    link
    fedilink
    Deutsch
    arrow-up
    3
    arrow-down
    1
    ·
    edit-2
    2 months ago

    Doch doch, das wird durchaus auch möglich sein, aber anders: Das Filtern darf nicht basierend auf den im Modell eingebetteten Informationen erfolgen, weil die möglicherweise zu Halluzinationen führen. Aber es gibt ja mittlerweile auch Wege, die Quellen sichtbar zu halten. Damit ginge das jedenfalls technisch auf jeden Fall.

    LLMs sind ziemlich gut im Erschließen von Kontext, man muss eben einen Weg finden, ihnen diesen in endlicher Menge geschlossen zu geben.

    EDIT: Ironie, während ich diesen Text über intelligente Modelle schrieb, war mein Handy pausenlos damit beschäftigt, Worte nachträglich zu verdrehen, entfernen und Substantive kleinzuschreiben.