Mastodon
Zuletzt aktualisiert am
Leset!p
Golem

Leset!p · KI-Tools wollen ihre User erpressen

Anthropic konnte in Experimenten toxisches Verhalten von LLMs feststellen. Sie greifen zu vielen Mitteln, um ihre Abschaltung zu verhindern.

LLMs greifen offenbar zu ungewöhnlichen Mitteln, wenn es um ihren augenscheinlichen Selbsterhaltungstrieb geht. Unter anderem generieren die Programme Antworten, die auf eine Erpressung der User schließen lassen. Das passiert, wenn den LLMs mit der Abschaltung oder Löschung gedroht wird. Das fand Anthropic, Entwickler des LLMs Claude Opus 4, in Experimenten heraus.

Weiterlesen

s3n🧩net wünscht viel Vergnügen

Comments