Stability AI onthult Stable Diffusion XL 1.0: een geavanceerd beeldgenererend AI-model

FFrits 26 juli 2023 19:42

Stability AI heeft Stable Diffusion XL 1.0 gelanceerd, hun meest geavanceerde beeldgenererende model tot nu toe. Het model, dat op GitHub en via Stability's API en consumentenapps beschikbaar is, levert levendigere en nauwkeurigere kleuren, betere contrasten, schaduwen en belichting.

Toenemende concurrentie en ethische uitdagingen

Stability AI, een opstartend bedrijf, blijft zijn generatieve AI-modellen verbeteren ondanks toenemende concurrentie en ethische vraagstukken. Terwijl de concurrentie heviger wordt, wordt de startup ook geconfronteerd met ethische uitdagingen, met name met betrekking tot de potentiële misbruik van hun modellen voor het genereren van schadelijke of aanstootgevende content.

Volgens Stability AI biedt Stable Diffusion XL 1.0 levendigere en nauwkeurigere kleuren, betere contrasten, schaduwen en belichting in vergelijking met zijn voorganger. Het model kan daarom worden gebruikt om beelden te genereren met een hoog niveau van detail en nauwkeurigheid, wat het bijzonder nuttig maakt voor toepassingen die hoge kwaliteit en precisie vereisen in beeldgeneratie.

Stable Diffusion XL 1.0, met 3,5 miljard parameters, kan binnen enkele seconden afbeeldingen met een volledige resolutie van 1 megapixel genereren in meerdere beeldverhoudingen. Dit toont de rekenkracht en het vermogen van het model aan om snel en efficiënt hoogwaardige beelden te produceren.

Risico op misbruik

In theorie kan de open source versie van Stable Diffusion XL 1.0 worden misbruikt door kwaadwillende partijen om schadelijke of aanstootgevende inhoud te genereren, zoals non-consensuele deepfakes. Dit is een aandachtspunt voor het bedrijf, dat maatregelen heeft getroffen om de mogelijkheid van dergelijk misbruik te beperken.

Maatregelen tegen schadelijke inhoud

Stability AI heeft 'extra stappen' genomen om de generatie van schadelijke inhoud te beperken door het trainingsgegevens van het model te filteren op 'onveilige' beelden, nieuwe waarschuwingen uit te geven met betrekking tot problematische prompts en zoveel mogelijk individuele problematische termen in het hulpmiddel te blokkeren. Deze maatregelen benadrukken het engagement van het bedrijf om de veiligheid en ethiek van hun AI-modellen te waarborgen.

Meer artikelen

Lees ook

Hier zijn een aantal interessante artikelen op andere sites uit ons netwerk.