AI's dubbele rand: Nieuwe cyberbedreigingen om op te letten

FFrits 22 september 2023 15:22

Cybersecurity-expert Eddy Willems waarschuwt voor de toenemende dreiging van 'prompt injection'-aanvallen, een nieuwe vorm van cybercriminaliteit die misbruik maakt van kunstmatige intelligentie. Lees verder om te ontdekken hoe dit werkt en wat je eraan kunt doen.

Nieuwe dreiging: 'prompt injection'-aanval

De technologische vooruitgang is een tweesnijdend zwaard. Terwijl kunstmatige intelligentie (AI) op talloze positieve manieren wordt gebruikt, wordt het helaas ook uitgebuit voor kwaadaardige doeleinden. Eddy Willems, een vooraanstaand expert op het gebied van cybersecurity en Global Security Officer bij G DATA CyberDefense, vestigt de aandacht op een zorgwekkende nieuwe trend: de 'prompt injection'-aanval. Dit is een geraffineerde techniek die cybercriminelen in staat stelt onze interacties met AI-gebaseerde systemen te manipuleren om persoonlijke informatie of geld te stelen.

Pleidooi voor meer AI-bewustzijn

Naarmate AI-systemen geavanceerder worden, worden ze ook moeilijker om te stoppen. De slimme en complexe algoritmen die ze gebruiken, maken het steeds lastiger om hun aanvallen te detecteren en te voorkomen. Volgens Willems is er een dringende behoefte aan meer bewustwording rond dit onderwerp. Het is essentieel dat zowel organisaties als individuen de potentiële gevaren van AI begrijpen en de nodige preventieve maatregelen nemen.

Phishing en 'prompt injection': AI's duistere kant

Eddy Willems wijst op twee specifieke bedreigingen verbonden aan het gebruik van AI in cybercriminaliteit: verbeterde taal in phishing e-mails en 'prompt injection'-aanvallen. Door gebruik te maken van geavanceerde AI, zijn phishing e-mails nu bijna niet meer te onderscheiden van legitieme e-mails. Daarnaast worden AI-systemen, zoals ChatGPT of Bing, gemanipuleerd om als social engineers te fungeren en persoonlijke informatie te stelen door middel van 'prompt injection'-aanvallen.

Hoewel beperkingen worden geïmplementeerd om de risico's van de interactie met geavanceerde AI-taalmodellen zoals ChatGPT, Bing en Bard te verminderen, blijft de dreiging bestaan. Een bijzonder punt van zorg is de hoeveelheid persoonlijke gegevens die we onwetend weggeven aan deze systemen. Deze gegevens kunnen worden gebruikt om ons persoonlijk te bereiken en te exploiteren, en maakt deze AI-systemen steeds slimmer.

Meer artikelen

Lees ook

Hier zijn een aantal interessante artikelen op andere sites uit ons netwerk.