OpenAI neemt strikte maatregelen tegen misbruik van AI-tools tijdens verkiezingen

FFrits 17 januari 2024 07:01

OpenAI, de maker van de geavanceerde tekstgenerator ChatGPT, heeft aangekondigd dat er maatregelen worden genomen om misbruik van hun AI-tools tijdens verkiezingen te voorkomen. Dit komt naar aanleiding van de toenemende zorgen over desinformatie en manipulatie met behulp van AI-technologieën zoals deepfakes.

Proactieve maatregelen van OpenAI

Met het oog op het grote verkiezingsjaar 2024 heeft OpenAI, de maker van ChatGPT, een reeks maatregelen aangekondigd om misbruik van zijn tools tijdens verkiezingen te voorkomen. Dit is een reactie op eerdere gebeurtenissen, zoals in 2016, toen techbedrijven werden bekritiseerd voor het niet voldoende aanpakken van desinformatie. Het is duidelijk dat OpenAI zich proactief wil opstellen om dergelijke scenario's te vermijden en de integriteit van de verkiezingsprocessen te waarborgen.

Bestrijding van deepfakes en beïnvloedingscampagnes

OpenAI is bezig met het ontwikkelen van strategieën om specifieke vormen van misbruik te voorkomen. Dit omvat het creëren van deepfakes, dat wil zeggen afbeeldingen of video's die zijn gebaseerd op AI-gemanipuleerd beeldmateriaal, evenals grootschalige beïnvloedingscampagnes. Dit betekent in de praktijk dat verzoeken om afbeeldingen van verkiezingskandidaten te genereren met behulp van OpenAI's afbeeldingsgenerator DALL-E geweigerd moeten worden. Ook het bouwen van chatbots die zich voordoen als kandidaten of instellingen zoals overheden, op basis van OpenAI-technologie, is niet toegestaan.

Herkenningsmethode voor DALL-E gegenereerde beelden

OpenAI werkt aan de ontwikkeling van een methode om afbeeldingen te identificeren die zijn gegenereerd door hun eigen afbeeldingsgenerator, DALL-E. Hoewel de eerste resultaten van deze tests 'veelbelovend' worden genoemd, is er nog geen zekerheid over de nauwkeurigheid ervan. In het verleden heeft OpenAI een vergelijkbaar herkenningshulpmiddel offline moeten halen vanwege een te hoge foutmarge. Desondanks blijft het bedrijf streven naar effectieve tools om AI-gegenereerde content te kunnen onderscheiden van authentieke inhoud.

OpenAI erkent dat er nog veel onbekend is over de effectiviteit van zijn tools in het beïnvloeden van mensen. Totdat er meer duidelijkheid is over hoe hun technologieën mensen kunnen overtuigen, staat het bedrijf het bouwen van apps voor politieke campagnes en lobbywerk niet toe. Het bedrijf benadrukt dus de noodzaak van verantwoordelijk gebruik van AI, vooral in contexten waar de potentie voor manipulatie en misbruik hoog is.

Meer artikelen

Lees ook

Hier zijn een aantal interessante artikelen op andere sites uit ons netwerk.