OpenAI minimaliseert de risico's van ChatGPT bij de productie van biologische wapens

FFrits 2 februari 2024 07:01

OpenAI, het bedrijf achter chatbot ChatGPT, heeft onlangs een test uitgevoerd om te beoordelen of de chatbot kan bijdragen aan de productie van biologische wapens. De resultaten suggereren dat de kans laag is, maar experts roepen om meer onafhankelijk onderzoek.

OpenAI beoordeelt biowapenrisico van ChatGPT

OpenAI, de ontwikkelaar van de chatbot ChatGPT, heeft onderzoek gedaan naar de mogelijkheid dat hun chatbot zou kunnen bijdragen aan het creëren van biologische wapens. De resultaten van hun test geven aan dat de kans hierop 'hoogstens' gering is. Dit onderzoek is proactief uitgevoerd om te anticiperen op mogelijke misbruiken en om inzicht te krijgen in de mogelijke gevaren van hun AI-technologie.

Roep om onafhankelijk onderzoek en regulering

Hoewel OpenAI's onderzoek naar het risico van ChatGPT bemoedigend is, zijn er ook stemmen die pleiten voor onafhankelijk onderzoek. Jan Broersen, hoogleraar Kunstmatige Intelligentie aan de Universiteit Utrecht, wijst op het mogelijke belangenconflict wanneer een bedrijf zijn eigen producten evalueert. Hij stelt dat er een grotere behoefte is aan onafhankelijk onderzoek en regelgeving om eventuele ethische kwesties rond AI aan te pakken.

Sinds de snelle opkomst van ChatGPT en vergelijkbare technologieën, hebben zowel politici als leiders in de tech-industrie hun bezorgdheid geuit over de mogelijke gevaren. Er is angst dat dergelijke chatbots, die geavanceerde teksten kunnen genereren die menselijk lijken, kunnen worden misbruikt door kwaadwillenden, bijvoorbeeld door het creëren van biologische wapens of oplichting via geloofwaardige phishing-emails.

In het onderzoek van OpenAI werden twee groepen gecreëerd, één met toegang tot ChatGPT en één zonder. Ze ontdekten dat de groep met toegang tot de chatbot een lichte toename in nauwkeurigheid en volledigheid ervoer bij het verzamelen van informatie. Dit lijkt aan te geven dat hoewel ChatGPT nuttig kan zijn als hulpmiddel, het niet noodzakelijkerwijs een significante verhoging van het risico op misbruik betekent.

Onderzoek sluit nieuwe AI-mogelijkheden uit

Een potentieel over het hoofd gezien gebied in het onderzoek van OpenAI is hoe de chatbot zou reageren als hij wordt gevraagd om iets te creëren dat nog niet bestaat. Dit punt is aangekaart door Broersen, die stelt dat het vermogen van de chatbot om 'nieuwe richtingen' te bedenken een mogelijk gevaar kan vormen dat verdere evaluatie vereist.

Meer artikelen

Lees ook

Hier zijn een aantal interessante artikelen op andere sites uit ons netwerk.