Live Chat

Crypto News

Cryptocurrency News 1 years ago
ENTRESRUARPTDEFRZHHIIT

Nightshade: Neues Tool der University of Chicago schützt digitale Werke von Künstlern vor KI-Training

Algoine News
Summary:
Die Forscher der University of Chicago haben ein Tool namens "Nightshade" entwickelt, das es Künstlern ermöglicht, ihre digitale Kunst zu modifizieren, um zu verhindern, dass sie zum Trainieren von KI-Systemen verwendet wird. Das Tool verändert Bilder, um falsche Daten in KI-Trainingsdatensätze einzuspeisen, wodurch die Fähigkeit der KI, genau zu interpretieren und auszugeben, unterbrochen wird. Die bestehende Künstlerschutzsoftware Glaze wird Nightshade enthalten.
Wissenschaftler der University of Chicago haben eine Technik eingeführt, die es Kreativen ermöglicht, ihre digitale Kunst davor zu schützen, dass sie für die Ausbildung von Systemen der künstlichen Intelligenz (KI) verwendet wird. Dieses Instrument, das als "Nachtschatten" bezeichnet wird und an bestimmte botanische Arten erinnert, die für ihre tödlichen Beeren berüchtigt sind, verändert Bilder auf eine Weise, die die für das KI-Training verwendeten Datensätze mit falschen Daten verunreinigt. Der Technology Review des MIT erklärt, dass Nightshade die Pixel eines digitalen Bildes subtil überarbeitet und die KI dazu verleitet, das Kunstwerk falsch zu lesen. Tech Review veranschaulicht dies, indem es beschreibt, wie KI dazu verleitet werden kann, zu glauben, dass ein Katzenbild ein Hundebild ist, und umgekehrt. Folglich behindert dies die Fähigkeit der KI, präzise und logische Ergebnisse zu liefern. Hypothetisch: Wenn jemand ein "Katzen"-Bild von der kompromittierten KI anfordert, erhält er entweder einen fälschlicherweise identifizierten Hund oder einen Mischmasch aus allen "Katzen" in den Lerndaten der KI, einschließlich derer, die Hunde darstellen, aber mit Nachtschatten verändert wurden. In diesem Zusammenhang: Universal Music Group schließt sich zusammen, um die Rechte von Künstlern vor KI-Verstößen zu schützen. Der angesehene Akademiker Vitaly Shmatikov von der Cornell University, der die Arbeit sah, spekulierte, dass es derzeit keine substanziellen Abwehrmaßnahmen gegen solche Angriffe gibt. Seine Kommentare deuten darauf hin, dass selbst fortschrittliche Modelle wie ChatGPT von OpenAI verwundbar sein könnten. Professor Ben Zhao von der University of Chicago leitet das Team, das Nightshade entwickelt hat. Dieses neuartige Tool erweitert die bisherige Software Glaze, die darauf abzielte, Künstler abzuschirmen. Zuvor hatten sie ein Verfahren entwickelt, das es Künstlern ermöglicht, ihren Kunststil zu tarnen oder zu "glasieren". Zum Beispiel könnte ein Kohleporträtkünstler dies nutzen, um seine Kunst für ein KI-System als modern darzustellen. Zukünftige Pläne deuten darauf hin, dass Nightshade in Glaze integriert wird, das derzeit kostenlos online oder auf der Website der University of Chicago heruntergeladen werden kann.

Published At

10/23/2023 8:39:19 PM

Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.

Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal? We appreciate your report.

Report

Fill up form below please

🚀 Algoine is in Public Beta! 🌐 We're working hard to perfect the platform, but please note that unforeseen glitches may arise during the testing stages. Your understanding and patience are appreciated. Explore at your own risk, and thank you for being part of our journey to redefine the Algo-Trading! 💡 #AlgoineBetaLaunch