Zu den Selbstverpflichtungen neben den digitalen Wasserzeichen für KI-generierte Inhalte gehören nach Angaben der Nachrichtenagentur AP:

(teilweise) externe Sicherheits-Audits kommerzieller KI-Systeme,

die Einrichtung von Meldewegen für Sicherheitsforscher, die Schwachstellen in den Systemen entdecken,

die Veröffentlichung von Berichten über technische Schwachstellen und gesellschaftliche Risiken.

Damit kommen die Unternehmen einer gesetzlichen Regelung zuvor, über die sich der Kongress erst noch einigen muss.

  • c64@feddit.de
    link
    fedilink
    arrow-up
    1
    ·
    1 year ago

    Die Selbstverpflichtung ansich ist es nicht, die ich problematisch sehe, da die Unternehmen ein relativ hohes Eigeninteresse daran haben, diese Inhalte selbst erkennen zu können. KI-Inhalte verschlechtern beispielsweise das Ergebnis, wenn sie zum Training von KIs verwendet werden. KI-Inhalte stören auch Analyse-Tools (“Datensammler”) usw.

    Und zur Not kann man immer noch regulatorisch eingreifen.

    Ich mache mir eher Gedanken darüber, wie das technisch überhaupt zuverlässig funktionieren kann. Wasserzeichen in Audio und Video/Bildern funktionieren zwar theoretisch, praktisch gibt es aber genügend Mechanismen sie auszuhebeln. Wo ein DRM (und nix anderes ist es), da gibt es auch einen Crack. Und für reinen Text, wie ihn ChatGPT ausspuckt, gibt es nicht mal irgendwelche brauchbaren Wasserzeichen.