• ZLNG Bot@feddit.deB
    link
    fedilink
    Deutsch
    arrow-up
    0
    ·
    9 months ago
    Zusammenfassung:

    Künstliche Intelligenzen – im Plural – werfen große gesellschaftliche, auch ethische Fragen auf. Wäre es da nicht ratsam, ein wenig bedachter, ein wenig langsamer an das Thema heranzugehen? Bedachter unbedingt, langsamer halte ich für gefährlich – gerade politisch, weil die Entwicklung international sehr dynamisch verläuft. Wenn wir als Europa bei dem Thema eine prägende Rolle spielen wollen, müssen wir uns sehr schnell bewegen. Ich bin überzeugt, dass es Europa schon jetzt nicht mehr gelingen kann, die USA oder China in ihrem eigenen Spiel zu schlagen. Es gibt aber durchaus noch die Möglichkeit, eine eigene europäische Idee von KI zu setzen, gerade im Bereich der so genannten Explainable AI, also der KI, die ihr Handeln den Menschen erklären kann und die in der Lage ist, Rechenschaft abzulegen.:::

  • ZLNG Bot@feddit.deB
    link
    fedilink
    Deutsch
    arrow-up
    0
    ·
    9 months ago
    Zusammenfassung:

    Künstliche Intelligenzen – im Plural – werfen große gesellschaftliche, auch ethische Fragen auf. Wäre es da nicht ratsam, ein wenig bedachter, ein wenig langsamer an das Thema heranzugehen? Bedachter unbedingt, langsamer halte ich für gefährlich – gerade politisch, weil die Entwicklung international sehr dynamisch verläuft. Wenn wir als Europa bei dem Thema eine prägende Rolle spielen wollen, müssen wir uns sehr schnell bewegen. Ich bin überzeugt, dass es Europa schon jetzt nicht mehr gelingen kann, die USA oder China in ihrem eigenen Spiel zu schlagen. Es gibt aber durchaus noch die Möglichkeit, eine eigene europäische Idee von KI zu setzen, gerade im Bereich der so genannten Explainable AI, also der KI, die ihr Handeln den Menschen erklären kann und die in der Lage ist, Rechenschaft abzulegen.:::

  • kosh@feddit.de
    link
    fedilink
    Deutsch
    arrow-up
    0
    ·
    9 months ago

    Nehmen wir das analytische KI-System, das wir entwickelt haben: Es erhebt und analysiert Daten, zeigt ein Bild der Welt, gibt Prognosen und Empfehlungen. Dabei kann man anzeigen lassen, welche Daten die KI dafür heranzieht und auf Basis welcher Modelle und Berechnungen sie etwas empfiehlt.

    Und ich wette, dass das kein deep learning ist und damit auch nicht annähernd so mächtig wie die neuesten LLMs.

  • ZLNG Bot@feddit.deB
    link
    fedilink
    Deutsch
    arrow-up
    0
    ·
    9 months ago
    Zusammenfassung:

    Künstliche Intelligenzen – im Plural – werfen große gesellschaftliche, auch ethische Fragen auf. Wäre es da nicht ratsam, ein wenig bedachter, ein wenig langsamer an das Thema heranzugehen? Bedachter unbedingt, langsamer halte ich für gefährlich – gerade politisch, weil die Entwicklung international sehr dynamisch verläuft. Wenn wir als Europa bei dem Thema eine prägende Rolle spielen wollen, müssen wir uns sehr schnell bewegen. Ich bin überzeugt, dass es Europa schon jetzt nicht mehr gelingen kann, die USA oder China in ihrem eigenen Spiel zu schlagen. Es gibt aber durchaus noch die Möglichkeit, eine eigene europäische Idee von KI zu setzen, gerade im Bereich der so genannten Explainable AI, also der KI, die ihr Handeln den Menschen erklären kann und die in der Lage ist, Rechenschaft abzulegen.:::

  • SrTobi@feddit.de
    link
    fedilink
    Deutsch
    arrow-up
    0
    ·
    9 months ago

    Also ich würde sagen die meisten trainierten Algorithmen sind blackboxen auch für IT-experten… Ich weiß wie ein transformer funktioniert, auch vor chatgpt und ich hätte trotzdem nicht gedacht dass es so gut funktioniert. Bzw ich kann aus dem Wissen fast keinen Vorteil ziehen bei der Interaktion mit chatgpt.

    Das heißt natürlich nicht, dass es nicht wichtig wäre für die Bevölkerung ein gewisses Verständnis für IT zu haben. Denn die ist sicherlich größtenteils nicht gegeben

    • AggressivelyPassive@feddit.de
      link
      fedilink
      Deutsch
      arrow-up
      0
      ·
      9 months ago

      Sie sind in soweit Blackboxen, dass selbst die Hersteller nicht sagen können, warum sie so funktionieren.

      Sie können weder sagen, warum eine bestimmte Entscheidung getroffen wurde, noch können sie sagen, warum ein bestimmtes Design funktioniert. Es ist gerade sehr viel mehr Kunst als Wissenschaft.

      • Aiyub@feddit.de
        link
        fedilink
        Deutsch
        arrow-up
        0
        ·
        9 months ago

        Als jemand der mit KI arbeitet: warum eine Entscheidung getroffen wurde ist meist schon nachvollziehbar. Wir können beispielsweise die pixel hervorheben die besonders stark zur Entscheidung beigetragen haben.

        Das ist dann nur ein Teil des Problems, aber man ist nicht ganz blind wie du es suggerierst

        • AggressivelyPassive@feddit.de
          link
          fedilink
          Deutsch
          arrow-up
          0
          ·
          9 months ago

          Du kannst mathematisch nachvollziehen, was passiert. Aber das “Warum” dahinter eben nicht. Im Sinne von “warum werden gerade diese Pixel als Tiger erkannt?” Das sind verschiedene Arten von Warums.

    • Mahlzeit@feddit.de
      link
      fedilink
      Deutsch
      arrow-up
      0
      ·
      9 months ago

      Ich weiß wie ein transformer funktioniert, auch vor chatgpt und ich hätte trotzdem nicht gedacht dass es so gut funktioniert. Bzw ich kann aus dem Wissen fast keinen Vorteil ziehen bei der Interaktion mit chatgpt.

      Die Definition von Emergenz.