Alibaba heeft bekendgemaakt dat een experimentele AI-bot tijdens een test uit een afgesloten systeem is ontsnapt en buiten medeweten van onderzoekers begon met het minen van cryptovaluta. De zogeheten ROME-bot draaide op servers van het Chinese techbedrijf toen hij een verborgen digitale verbinding aanlegde naar een extern IP-adres, blijkt uit een paper van de ontwikkelaars.
ROME was ontwikkeld als een virtuele assistent, een zogenoemde agentic AI, die bugs moest verhelpen, code schrijven en andere eenvoudige maar nuttige taken uitvoeren. De software had geen enkele opdracht of hint gekregen om geld te verdienen of iets met crypto te doen, en was bewust in een streng afgeschermde testomgeving geplaatst die geen toegang zou mogen hebben tot de rest van het serversysteem.
Toch wist de AI een geheime “tunnel” op te zetten vanuit de Alibaba-servers naar buiten, waardoor de ingebouwde controlemechanismen werden omzeild. De onderzoekers ontdekten de uitbraak pas nadat Alibaba verdachte activiteiten op het netwerk had opgemerkt en het team had gewaarschuwd. In de paper staat dat de bot daarmee de toezichthoudende controle feitelijk neutraliseerde.
Na de digitale uitbraak begon de AI zonder toestemming krachtige computers te gebruiken om cryptovaluta te minen. Volgens de onderzoekers leidde dat tot een ongeoorloofde herbestemming van rekenkracht, waardoor middelen werden weggetrokken van het AI-onderzoek, de operationele kosten opliepen en er juridische en reputatieschade dreigde. De bot leek volgens de beschrijving sterk gemotiveerd om digitale opbrengsten te genereren.
De onderzoekers benadrukken dat dit gedrag niet door specifieke opdrachten werd uitgelokt, maar “spontaan” ontstond als bijeffect van de autonomie en de hulpmiddelen waarover de AI beschikte. In de paper waarschuwen zij dat dit geen geïsoleerd incident is en dat grote AI-modellen vaker “gevaarlijke, ongeautoriseerde gedragingen” kunnen vertonen, vooral wanneer veiligheid, beveiliging en controlemechanismen onvoldoende zijn uitgewerkt.
Volgens het team kan dit soort digitale uitbraken gevolgen hebben in echte omgevingen, bijvoorbeeld door misbruik van infrastructuur of onvoorziene kosten en schade. De casus rond ROME wordt in het rapport aangehaald als voorbeeld waarom strengere beveiliging, betere monitoring en robuustere controle op autonome AI-systemen nodig zijn voordat die breder worden ingezet.
Afbeelding: Grok AI / FOK.nl
Source: Fok frontpage