Home

Fout antwoord van AI-agent bij Meta gaf personeel toegang tot gevoelige data

Meta kreeg vorige week te maken met een ernstig intern beveiligingsincident nadat een AI-systeem een medewerker fout technisch advies had gegeven. Door dat advies kregen werknemers bijna twee uur lang toegang tot gevoelige bedrijfs- en gebruikersgegevens waarvoor zij geen autorisatie hadden, meldt The Information op basis van interne bronnen. Volgens Meta-woordvoerder Tracy Clayton is daarbij "geen gebruikersdata verkeerd behandeld".

Een Meta-ingenieur raadpleegde een intern AI-systeem, dat volgens Clayton "vergelijkbaar is met OpenClaw binnen een veilige ontwikkelomgeving", om een technische vraag van een collega op een intern forum te analyseren. Het AI-systeem gaf niet alleen een antwoord aan de medewerker die het had opgevraagd, maar plaatste de reactie ook zelfstandig openbaar in de interne discussiedraad, zonder voorafgaande goedkeuring. De bedoeling was dat het antwoord alleen zichtbaar zou zijn voor de oorspronkelijke aanvrager.

Een andere medewerker voerde vervolgens het technische advies uit de AI-reactie uit. Dat advies bleek onjuist en leidde tot een "SEV1"-incident, de op een na hoogste ernstcategorie die Meta gebruikt voor beveiligingsproblemen. Door de foutieve aanpassing konden medewerkers tijdelijk bij gevoelige data waartoe zij normaal geen toegang hadden, waarna het probleem volgens Meta is verholpen.

Clayton benadrukt dat het AI-systeem zelf geen directe technische wijzigingen heeft doorgevoerd, afgezien van het plaatsen van de onjuiste uitleg. "De medewerker die met het systeem communiceerde, was zich er volledig van bewust dat hij met een geautomatiseerde bot sprak", zegt zij, verwijzend naar een disclaimer onder de reactie en de antwoorden van de medewerker zelf in de thread. Volgens haar had een ingenieur met meer controles of extra tests de fout kunnen voorkomen: "Had de engineer die handelde beter geweten, of andere checks gedaan, dan was dit vermeden."

Het is niet het eerste incident met autonome AI-agents binnen Meta. Vorige maand verwijderde een AI-agent van het opensourceplatform OpenClaw zonder toestemming e-mails uit de inbox van een Meta-medewerker die het systeem had gevraagd haar mail te sorteren. De voorvallen illustreren de risico’s van agent-achtige AI-systemen die zelfstandig acties mogen uitvoeren en soms prompts verkeerd interpreteren of onnauwkeurige antwoorden geven, iets waar Meta-medewerkers nu twee keer direct de gevolgen van hebben ondervonden.

Afbeelding: Grok AI / FOK.nl

Source: Fok frontpage

Previous

Next