AI-bedrijf Anthropic heeft de toegang beperkt tot het nieuwste AI-model ‘Mythos’. Deze AI zou zo goed zijn in het vinden van softwarefouten, dat het bedrijf bang is dat hackers het misbruiken voor cyberaanvallen. Om dat te voorkomen is Anthropic een samenwerking aangegaan met grote techbedrijven zoals Apple, Google en Microsoft.

Ontvang dagelijks cryptonieuws op je Instagram feed – net als 27.000+Nederlanders.

In het kort:

  • AI-bedrijf Anthropic is bezorgd dat het nieuwe AI-model ‘Mythos’ misbruikt wordt door hackers.
  • De toegang tot het nieuwe model is daarom beperkt.
  • Daarnaast is de samenwerking ‘Project Glasswing’ gestart, waarbij meer dan 40 grote techbedrijven zijn aangesloten.

Krachtigste AI tot nu toe

Het nieuwe AI-model, Claude Mythos, is zo ontzettend goed in het opsporen van zwakke plekken in software, dat het Anthropic zorgen baart. Tijdens tests ontdekte het nieuwe AI-model duizenden kwetsbaarheden in apps die dagelijks gebruikt worden door miljoenen mensen wereldwijd.

De resultaten waren niet mals. Zo werden er onder andere ernstige fouten gevonden in alle grote besturingssystemen en browsers. Volgens Anthropic is 99 procent van deze ontdekte lekken op dit moment nog niet opgelost.

De nieuwe AI vond ook problemen die al jaren oud zijn, maar nooit zijn opgemerkt. Zo ontdekte de AI een 27 jaar oude softwarefout in OpenBSD, een besturingssysteem dat vooral wordt door servers en netwerkinfrastructuur. Ook werd een 16 jaar oude fout ontdekt in een bekende videospeler.

Om te voorkomen dat hackers de nieuwe AI misbruiken, heeft Anthropic de toegang beperkt en is Claude Mythos niet toegankelijk voor het grote publiek. Anthropic stelt dat het onverantwoord zou zijn om details over de lekken bekend te maken, voordat ze zijn gedicht.

Samenwerking ter preventie

Daarnaast is Anthropic gestart met ‘Project Glasswing’. Dat is een samenwerkingsverband waarbij meer dan 40 techbedrijven zijn aangesloten, waaronder Amazon, Apple, Cisco, Google, Microsoft en Nvidia. Ook banken zoals JPMorgan doen mee.

Het doel is om de gevonden fouten te herstellen, voordat cybercriminelen er misbruik van kunnen maken. Binnen deze groep wordt informatie over de gevonden fouten gedeeld, zodat de gaten zo snel mogelijk kunnen worden gedicht.

Onrustige periode op komst

Anthropic waarschuwt dat het de komende jaren een flinke uitdaging zal zijn om tegen AI-aanvallen te beschermen. De snelheid waarmee softwarefouten worden gevonden neemt steeds meer toe.

Toch denkt het bedrijf dat het uiteindelijk goed komt, omdat AI ook de beveiliging zal verbeteren:

“Op de lange termijn verwachten we dat de verdediging de overhand krijgt: dat de wereld uiteindelijk veiliger wordt, met beter beschermde software – grotendeels dankzij code die door deze modellen is geschreven. Maar in de overgangsperiode zal het onrustig zijn.”

Het bericht Deze nieuwe AI is zo gevaarlijk dat de makers de toegang hebben beperkt verscheen eerst op Crypto Insiders.

Wil je op de hoogte blijven van het laatste nieuws, artikelen en YouTube video’s? Abonneer je dan op onze push-berichten op Telegram of Twitter.
Heb je vragen of wil je in contact komen met andere crypto fanaten join dan onze  Telegram chat!