Martin Bernklau wird Opfer der Künstlichen Intelligenz

Martin Bernklau aus Tübingen hat sich nie etwas zuschulden kommen lassen. Doch das, was er jetzt erlebt, versetzt ihn in Schock. Im Chat mit Copilot, der Künstlichen Intelligenz (KI) von Microsoft, wird er als verurteilter Kinderschänder, Ausbrecher aus der Psychiatrie oder Witwenbetrüger bezeichnet.

Zusätzlich liefert Copilot noch die volle Adresse von Bernklau mit Telefonnummer und Routenplaner.

Viele Jahrzehnte war Bernklau Gerichtsreporter, hat für verschiedene Zeitungen über Prozesse aus dem Landgericht Tübingen berichtet - über Fälle von Missbrauch, Gewalt und Betrug, mit denen er jetzt in Verbindung gebracht wird, weil sie auch im Internet zu finden sind. Die KI kombiniert, trägt zusammen und macht so den Reporter zum Täter.

Der zuständige Datenschutzbeauftragte vom bayerischen Landesamt wendet sich - Monate nach einer Beschwerde Bernklaus - mit dem Fall an Microsoft. Dort sichert man zu, das Problem abzustellen. Tatsächlich verschwinden die Einträge recht schnell. Doch nach ein paar Tagen erscheinen dieselben Aussagen wieder im Chat. …

EDIT: Der Link hat gefehlt! Sorry.

  • DetektivEdgar
    link
    fedilink
    Deutsch
    arrow-up
    1
    ·
    2 months ago

    Das deutsche Strafrecht setzt an das Verhalten von Personen an. Dementsprechend ist es nicht möglich, Unternehmen zur Verantwortung zu ziehen. Deswegen ist strafrechtlich hier nicht so viel zu holen, denke ich Mal. Anders wär es vielleicht, wenn man zufällig wüsste, dass bestimmte Angestellte für die falschen Angaben verantwortlich sind.

      • DetektivEdgar
        link
        fedilink
        Deutsch
        arrow-up
        3
        ·
        edit-2
        2 months ago

        Der trägt zivilrechtlich natürlich Verantwortung und daraus kann man im Strafrecht sicher auch teilweise etwas ableiten. Aber hier stand ja Verleumdung im Raum und die setzt Vorsatz voraus. Das scheint mir hier eine recht hohe Hürde.

        • trollercoaster@sh.itjust.works
          link
          fedilink
          Deutsch
          arrow-up
          4
          arrow-down
          1
          ·
          2 months ago

          Hinter dem Betrieb der “KI” dürfte durchaus Vorsatz stecken, das macht eine Firma ja nicht, weil sie das eigentlich gar nicht will.

          • DetektivEdgar
            link
            fedilink
            Deutsch
            arrow-up
            2
            ·
            2 months ago

            Ja, natürlich. Die Software wird vorsätzlich eingesetzt. Aber bei der Verleumdung muss sich der Vorsatz einer Person auch darauf beziehen, dass eine bestimmte Info falsch ist.

            • trollercoaster@sh.itjust.works
              link
              fedilink
              Deutsch
              arrow-up
              4
              arrow-down
              1
              ·
              edit-2
              2 months ago

              Eine Software, die Texte anhand statistischer Wahrscheinlichkeiten von Wortfolgen generiert, erzeugt zwangsläufig auch sachlich falsche Texte. Wer eine solche Software als “Assistenten” in ein Betriebssystem einbaut, nimmt billigend in Kauf, dass sie falsche Informationen verbreitet und die Benutzer das für bare Münze nehmen.

              • DetektivEdgar
                link
                fedilink
                Deutsch
                arrow-up
                1
                ·
                edit-2
                2 months ago

                So kann man sicherlich argumentieren, wenn Eventualvorsatz reicht.

                Mein Studium ist lange her und ich bin kein Strafrechtler, aber bei dem Aspekt, dass eine bestimmte Info falsch ist, braucht es wohl sicheres Wissen. Das wäre dolus directus 2. Grades, falls es jemand bei Wikipedia nachlesen will.

                Das in Kauf nehmen ist weniger streng.