PhotoGuard van MIT beschermt je afbeeldingen tegen kwaadaardige AI-bewerkingen

FFrits 25 juli 2023 01:17

Het Massachusetts Institute of Technology (MIT) heeft een nieuwe techniek genaamd 'PhotoGuard' ontwikkeld die je afbeeldingen beschermt tegen ongeoorloofde bewerkingen door kunstmatige intelligentie. De techniek maakt subtiele aanpassingen aan pixels, waardoor AI-systemen de afbeeldingen niet goed kunnen begrijpen, zonder dat mensen deze veranderingen kunnen zien.

Generatieve AI en de problemen

Generatieve AI-systemen - denk aan chatbots die afbeeldingen aanpassen - worden steeds vaker gebruikt. Sterker nog, ze zijn bijna overal op het internet te vinden. Maar naarmate deze systemen prolifereren, beginnen we ook de nadelen ervan te zien. Er is bijvoorbeeld een toenemende bezorgdheid over ongeautoriseerde manipulatie en het regelrechte stelen van afbeeldingen en kunstwerken die online beschikbaar zijn. Hoewel watermerktechnieken enigszins kunnen helpen om diefstal te verminderen, zijn er nieuwe technieken nodig om manipulatie te voorkomen.

PhotoGuard: AI in de war brengen

Hier komt PhotoGuard van MIT in beeld. Deze techniek verandert selectieve pixels in een afbeelding op zo'n manier dat ze de mogelijkheid van een AI om te begrijpen wat de afbeelding is, in de war sturen. En het interessante is: deze veranderingen, ook wel 'perturbaties' genoemd, zijn onzichtbaar voor het menselijk oog maar gemakkelijk leesbaar door machines. Deze subtiele aanpassingen maken het voor de AI moeilijk om de afbeelding te begrijpen en te bewerken.

'Encoder' en 'diffusie': Twee methoden van PhotoGuard

PhotoGuard hanteert twee hoofdmethodes: de 'encoder' aanval en de 'diffusie' aanval. De 'encoder' methode introduceert deze artefacten in de latente representatie van het doelbeeld van het algoritmische model - de complexe wiskunde die de positie en kleur van elke pixel in een afbeelding beschrijft. Dit voorkomt in feite dat de AI begrijpt wat het ziet. De 'diffusie' methode daarentegen, is een meer geavanceerde en rekenintensieve aanpak. Het camoufleert een afbeelding als een andere afbeelding in de ogen van de AI. Het definieert een doelbeeld en optimaliseert de perturbaties in zijn afbeelding zodanig dat het op zijn doel lijkt. Elke bewerking die een AI probeert te maken op deze 'geïmmuniseerde' afbeeldingen wordt toegepast op de valse 'doel' afbeeldingen, wat resulteert in een onrealistisch ogende gegenereerde afbeelding.

Ondanks de belofte van PhotoGuard moet men er rekening mee houden dat de techniek niet waterdicht is. Kwaadwillende actoren kunnen proberen het beschermde beeld te reverse-engineeren. Ze kunnen dit doen door bijvoorbeeld digitaal ruis toe te voegen, het beeld bij te snijden of te spiegelen. Het is dus van het grootste belang dat samenwerking tussen modelontwikkelaars, sociale media platformen, en beleidsmakers wordt gestimuleerd om een robuuste verdediging tegen ongeautoriseerde beeldmanipulatie op te bouwen.

Een van de belangrijkste takeaways uit dit alles is de noodzaak van een gecoördineerde aanpak bij de aanpak van dit probleem. Zoals de hoofdonderzoeker van de paper, Hadi Salman, opmerkt: “Een samenwerkingsaanpak waarbij modelontwikkelaars, sociale media platforms en beleidsmakers betrokken zijn, biedt een robuuste verdediging tegen ongeautoriseerde beeldmanipulatie. Aan dit urgente probleem werken, is vandaag de dag van het grootste belang.” Dit onderstreept de noodzaak voor bedrijven die deze modellen ontwikkelen om te investeren in het bouwen van robuuste immunisaties tegen de mogelijke bedreigingen die deze AI-tools met zich meebrengen.

Meer artikelen

Lees ook

Hier zijn een aantal interessante artikelen op andere sites uit ons netwerk.