Mastodon
Zuletzt aktualisiert am
Meredith Whittaker, Präsidentin von Signal, weist darauf hin, dass agentenbasierte KI "tiefgreifende" Sicherheits- und Datenschutzprobleme mit sich bringt
Übersetzung Techcrunch

Meredith Whittaker, Präsidentin von Signal, weist darauf hin, dass agentenbasierte KI "tiefgreifende" Sicherheits- und Datenschutzprobleme mit sich bringt

Die Präsidentin von Signal, Meredith Whittaker, warnte am Freitag, dass agentenbasierte KI ein Risiko für die Privatsphäre der Nutzer darstellen könnte.
Ein Artikel on Techcrunch - übersetzt von s3nnet.

In ihrer Rede auf der SXSW-Konferenz in Austin, Texas, bezeichnete die Befürworterin sicherer Kommunikation den Einsatz von KI-Agenten als "Ihr Gehirn in ein Glas stecken" und warnte davor, dass dieses neue Paradigma der Datenverarbeitung - bei dem KI Aufgaben im Namen des Nutzers übernimmt - ein "tiefgreifendes Problem" in Bezug auf den Datenschutz und die Sicherheit mit sich bringt.

Whittaker erläuterte, wie KI-Agenten als eine Möglichkeit vermarktet werden, einen Mehrwert für Ihr Leben zu schaffen, indem sie verschiedene Online-Aufgaben für den Nutzer erledigen. So könnten KI-Agenten beispielsweise Aufgaben wie die Suche nach Konzerten, die Buchung von Eintrittskarten, die Aufnahme des Termins in den Kalender und die Benachrichtigung von Freunden über die Buchung übernehmen.

"Wir können also einfach unser Gehirn in ein Gefäß stecken, weil das Ding das macht und wir es nicht anfassen müssen, oder?, scherzte Whittaker."

"Dann erläuterte sie die Art des Zugriffs, den der KI-Agent benötigen würde, um diese Aufgaben auszuführen, einschließlich des Zugriffs auf unseren Webbrowser und einer Möglichkeit, ihn zu steuern, sowie des Zugriffs auf unsere Kreditkarteninformationen, um Tickets zu bezahlen, auf unseren Kalender und auf die Messaging-App, um den Text an unsere Freunde zu senden.

Er müsste in der Lage sein, diesen [Prozess] über unser gesamtes System zu steuern, mit etwas, das wie eine Root-Berechtigung aussieht, und auf jede einzelne dieser Datenbanken zuzugreifen - wahrscheinlich im Klartext, denn es gibt kein Modell, um das verschlüsselt zu tun", warnte Whittaker.

"Und wenn es sich um ein ausreichend leistungsfähiges KI-Modell handelt, das dies antreibt, kann das auf keinen Fall auf dem Gerät geschehen", fuhr sie fort. "Das wird mit ziemlicher Sicherheit an einen Cloud-Server gesendet, wo es verarbeitet und zurückgeschickt wird. Es gibt also ein tiefgreifendes Problem mit der Sicherheit und dem Datenschutz, das diesen Hype um Agenten verfolgt und das letztendlich die Blut-Hirn-Schranke zwischen der Anwendungsebene und der Betriebssystemebene zu durchbrechen droht, indem es all diese separaten Dienste miteinander verbindet [und] ihre Daten verwirrt", schlussfolgerte Whittaker.

Wenn eine Messaging-App wie Signal mit KI-Agenten integriert würde, würde dies die Privatsphäre Ihrer Nachrichten untergraben, sagte sie. Der Agent muss auf die App zugreifen, um Ihren Freunden zu schreiben und auch Daten abrufen, um diese Texte zusammenzufassen.

Ihre Kommentare folgten auf Bemerkungen, die sie zuvor auf dem Podium gemacht hatte, wie die KI-Industrie auf einem Überwachungsmodell mit massenhafter Datenerfassung aufgebaut worden war. Sie sagte, dass das "Größer-ist-besser-Paradigma der KI" - je mehr Daten, desto besser - potenzielle Konsequenzen habe, die sie nicht für gut halte. Whittaker warnte, dass wir mit agentenbasierter KI die Privatsphäre und die Sicherheit im Namen eines "magischen Genie-Bots, der sich um die Anforderungen des Lebens kümmert", weiter aushöhlen würden, schloss sie.

s3n🧩net wünscht viel Vergnügen