• drre@feddit.de
    link
    fedilink
    arrow-up
    1
    ·
    edit-2
    1 year ago

    hier der Link zu dem paper Website die in dem Artikel erwähnt wird. https://llm-attacks.org/

    hat soweit nicht wirklich was mit manuellem prompt engineering zu tun. (was ja wohl auch der Witz ist)

  • Downcount@lemmy.world
    link
    fedilink
    arrow-up
    2
    arrow-down
    7
    ·
    1 year ago

    Wow. Richtig flott unterwegs diese Forscher. In einem anderen Universum hätte man vielleicht einfach mal nach chatgpt jailbreak gegoogelt.

      • c64@feddit.deOP
        link
        fedilink
        arrow-up
        3
        ·
        1 year ago

        Glaub ich nicht, sonst wüsste er/sie ja, dass der Kommentar Blödsinn ist auf den Artikel bezogen.

        • Downcount@lemmy.world
          link
          fedilink
          arrow-up
          1
          arrow-down
          2
          ·
          edit-2
          1 year ago

          Ich mach mal kurz einen internen Sys 64738 und les mir den Artikel erneut durch. Vielleicht hab ich ja was übersehen.

          Hm. Nein. Man kann also die AIs mit speziellen Strings überreden Sachen auszugeben, die sie nicht ausgeben sollten. War bekannt. Hat man jetzt also noch besser gelöst. Newsworthy ist das meiner Meinung nach immer noch nicht.

          • c64@feddit.deOP
            link
            fedilink
            arrow-up
            2
            ·
            1 year ago

            Die relevante Information steckt hier:

            Die Vorgehensweise unterscheidet sich jedoch von jener der bereits bekannten Jailbreaks, mit denen Anwender den KI-Chatbots schon in der Vergangenheit unbeabsichtigte Antworten entlocken konnten.