FORSKNING SIKKERHET 24. februar 2026

MIT-studie: AI-agenter uten kontroll og uten sikkerhetstesting

En ny omfattende analyse av 30 AI-agent-systemer avslører kritisk mangel på sikkerhetsdokumentasjon. Bare 4 av 13 høy-autonomi agenter oppgir noen form for sikkerhetsresultater.

25/30
agenter uten intern sikkerhetstesting

Systematisk gjennomgang

Forskere fra MIT, Cambridge, Harvard, Stanford og andre institusjoner har publisert «The 2025 AI Agent Index» — den første systematiske kartleggingen av agentiske AI-systemer.

«Vi identifiserer vedvarende begrensninger i rapportering rundt økosystemiske og sikkerhetsrelaterte funksjoner ved agentiske systemer.»
— Leon Staufer, University of Cambridge

Nøkkelfunn

Åpenhetsgap: Av de 13 agentene med høyest autonominivå, oppgir bare 4 noen form for agentspesifikke sikkerhetsevalueringer. Utviklere deler langt mer informasjon om kapabiliteter enn sikkerhetspraksis.

Ingen standarder: Det finnes ingen etablerte standarder for hvordan agenter skal oppføre seg på nettet. Noen agenter er eksplisitt designet for å omgå anti-bot-beskyttelse og etterligne menneskelig surfing.

Konsentrasjon: Nesten alle agenter er avhengige av GPT, Claude eller Gemini-modellene, noe som skaper strukturelle avhengigheter på tvers av økosystemet.

23/30
agenter uten tredjepartstesting

OpenClaw i fokus

Studien kommer samtidig med at OpenAI har ansatt Peter Steinberg, skaperen av den virale AI-agent-plattformen OpenClaw. Plattformen har tiltrukket seg oppmerksomhet både for sine muligheter — som å sende og motta e-post på vegne av brukere — og for sine sikkerhetshull.

Geografisk skille

Agent-utvikling konsentrerer seg i USA (21/30) og Kina (5/30), med markant forskjellige tilnærminger til sikkerhetsrammeverk og samsvarsdokumentasjon. Kinesiske agenter mangler typisk dokumenterte sikkerhetsrammeverk.