Claude Mythos gelekt: Anthropic bevestigt komst van krachtigste AI-model tot nu toe
Een onbedoeld datalek bij Anthropic heeft nieuwe details prijsgegeven over Claude Mythos, het meest geavanceerde AI-model van het bedrijf tot nu toe. Het model belooft een grote technologische sprong, maar brengt tegelijk aanzienlijke risico’s met zich mee op het vlak van cybersecurity. De onthulling benadrukt hoe snel AI evolueert en hoe belangrijk verantwoord gebruik wordt.
Intern lek onthult gevoelige informatie
Door een fout in het interne content management systeem van Anthropic zijn duizenden bestanden publiek toegankelijk geworden. Het ging om bijna 3.000 documenten, variërend van marketingmateriaal tot interne bedrijfsinformatie.
De oorzaak lag bij een eenvoudige maar ingrijpende fout: bestanden werden niet correct afgeschermd en belandden daardoor in een publiek toegankelijke opslagomgeving. Hoewel een deel van de data verouderd was, bevatte het lek ook actuele en gevoelige informatie waaronder details over een nog niet aangekondigd AI-model.
Claude Mythos zet nieuwe standaard
Uit de gelekte documenten blijkt dat Claude Mythos inmiddels volledig ontwikkeld is en intern wordt beschouwd als het krachtigste model dat Anthropic ooit heeft gebouwd. Volgens het bedrijf betekent dit model een duidelijke sprong vooruit in prestaties en mogelijkheden.
Anthropic spreekt zelf van een fundamentele verbetering, een nieuwe fase in AI-capaciteit. Op dit moment bevindt Claude Mythos zich nog in een testfase en is het enkel toegankelijk voor een selecte groep gebruikers via een early access-programma.
Die gecontroleerde uitrol past binnen een bredere trend in de sector, waarbij bedrijven nieuwe AI-systemen eerst beperkt beschikbaar maken om risico’s beter te evalueren voordat ze op grote schaal worden uitgerold.
Capybara: een nieuwe eliteklasse van AI
Naast Mythos werd ook een nieuwe modelcategorie onthuld: Capybara. Deze zou boven de huidige niveaus (Opus, Sonnet en Haiku) gepositioneerd worden en fungeren als de meest geavanceerde en krachtige variant.
De introductie van zo’n extra tier wijst op een verdere specialisatie binnen AI-modellen. Bedrijven lijken steeds vaker te kiezen voor een gelaagde aanpak, waarbij topmodellen gericht zijn op complexe en veeleisende toepassingen.
Cybersecurity als grootste zorg
Wat deze onthulling bijzonder maakt, is de expliciete aandacht voor risico’s. In de gelekte informatie erkent Anthropic dat Claude Mythos mogelijk ingezet kan worden voor cyberaanvallen.
Het model zou uitzonderlijk sterk zijn in het opsporen en benutten van kwetsbaarheden in software. Daardoor ontstaat een scenario waarin kwaadwillenden AI kunnen gebruiken om sneller en efficiënter digitale aanvallen uit te voeren.
Volgens interne evaluaties loopt deze technologie zelfs vooruit op de huidige verdedigingsmechanismen. Dat maakt het noodzakelijk om extra voorzichtig te werk te gaan bij de uitrol.
Om die reden geeft Anthropic beperkte toegang aan geselecteerde organisaties, zodat zij zich kunnen voorbereiden op deze nieuwe generatie dreigingen en hun systemen beter kunnen beveiligen.
AI evolueert sneller dan de verdediging
De situatie rond Claude Mythos illustreert een bredere ontwikkeling in de AI-sector: de balans tussen innovatie en veiligheid wordt steeds moeilijker te bewaren. Waar AI eerder vooral werd gezien als een hulpmiddel voor productiviteit en automatisering, verschuift de focus nu naar mogelijke misbruikscenario’s.
De technologie bereikt een punt waarop ze niet alleen oplossingen biedt, maar ook nieuwe risico’s creëert. Dat leidt tot een soort digitale wapenwedloop, waarin zowel aanvallers als verdedigers steeds geavanceerdere tools gebruiken.
Bedrijven zoals Anthropic spelen daarin een dubbele rol: ze ontwikkelen baanbrekende technologie, maar moeten tegelijk zorgen dat die niet uit de hand loopt.

