MIT-studie: AI-agenter uten kontroll og uten sikkerhetstesting
En ny omfattende analyse av 30 AI-agent-systemer avslører kritisk mangel på sikkerhetsdokumentasjon. Bare 4 av 13 høy-autonomi agenter oppgir noen form for sikkerhetsresultater.
Systematisk gjennomgang
Forskere fra MIT, Cambridge, Harvard, Stanford og andre institusjoner har publisert «The 2025 AI Agent Index» — den første systematiske kartleggingen av agentiske AI-systemer.
«Vi identifiserer vedvarende begrensninger i rapportering rundt økosystemiske og sikkerhetsrelaterte funksjoner ved agentiske systemer.»
— Leon Staufer, University of Cambridge
Nøkkelfunn
Åpenhetsgap: Av de 13 agentene med høyest autonominivå, oppgir bare 4 noen form for agentspesifikke sikkerhetsevalueringer. Utviklere deler langt mer informasjon om kapabiliteter enn sikkerhetspraksis.
Ingen standarder: Det finnes ingen etablerte standarder for hvordan agenter skal oppføre seg på nettet. Noen agenter er eksplisitt designet for å omgå anti-bot-beskyttelse og etterligne menneskelig surfing.
Konsentrasjon: Nesten alle agenter er avhengige av GPT, Claude eller Gemini-modellene, noe som skaper strukturelle avhengigheter på tvers av økosystemet.
OpenClaw i fokus
Studien kommer samtidig med at OpenAI har ansatt Peter Steinberg, skaperen av den virale AI-agent-plattformen OpenClaw. Plattformen har tiltrukket seg oppmerksomhet både for sine muligheter — som å sende og motta e-post på vegne av brukere — og for sine sikkerhetshull.
Geografisk skille
Agent-utvikling konsentrerer seg i USA (21/30) og Kina (5/30), med markant forskjellige tilnærminger til sikkerhetsrammeverk og samsvarsdokumentasjon. Kinesiske agenter mangler typisk dokumenterte sikkerhetsrammeverk.