De Universiteit van Chicago heeft een nieuw gereedschap ontwikkeld genaamd Nightshade, een data-poisoning tool waarmee kunstenaars hun creatieve werk kunnen beschermen tegen oneigenlijk gebruik door AI-generatieve modellen. Deze tool is ontworpen om AI-modellen te 'vergiften' wanneer originele kunstwerken zonder toestemming worden hergebruikt en kan worden gedownload van de officiële website van het team. Nightshade werkt proactief, in tegenstelling tot een ander hulpmiddel van hetzelfde team, Glaze, dat defensief is bedoeld. Het team werkt aan integratie van beide tools.
Nightshade vormt een potentieel belangrijk wapen voor kunstenaars in de voortdurende strijd tegen de controversiële praktijken rond het gebruik van AI-technologie voor het repliceren van kunst. Zo kwam onlangs aan het licht dat Square Enix en Wizards of the Coast kunstwerken gemaakt met AI hadden gebruikt in hun producten.
Wat is het verschil tussen Nightshade en Glaze?Nightshade is een offensieve tool die ervoor zorgt dat de kenmerken in AI beeldmodellen vervormd worden, waardoor het gebruik van kunst voor AI-generatie wordt bemoeilijkt. Glaze daarentegen is defensief en helpt gebruikers zich te beschermen tegen AI-namaak. Samen bieden ze dus een gecombineerde aanpak om de controle over creatieve werken te behouden.
Extra achtergrondinformatie: AI-technologieën hebben een revolutie teweeggebracht in tal van industrieën, waaronder videogames en kunst. Ontwikkelaars zoals Square Enix staan bekend om hun innovatieve benadering van gametechnologie, terwijl Wizards of the Coast bekend is van het populaire kaartspel Magic: The Gathering. Toch is de inzet van AI in de creatie van kunstwerken controversieel, voornamelijk vanwege auteursrechtelijke vraagstukken en de vrees voor het verlies van werkgelegenheid voor menselijke kunstenaars.
Reacties
Nog geen reacties. Wees de eerste!