AI cloaking er en teknikk der angripere prøver å lure kunstig intelligens (AI) ved å skjule ondsinnet innhold eller handlinger slik at AI-modeller eller sikkerhetssystemer ikke oppdager dem. Dette kan for eksempel skje ved at skadelig kode eller informasjon gjemmes i uskyldige eller tilsynelatende normale data, slik at den automatiserte analysen overser trusselen.
Teknikken gjør det mulig å omgå overvåkning og sikkerhetskontroller, og gir angripere tilgang til sensitive data, bedriftshemmeligheter eller lar dem manipulere AI-systemer uten å bli oppdaget. AI cloaking er spesielt farlig fordi det utnytter nettopp det AI-systemet er ment å beskytte, ved å manipulere hvordan det tolker informasjon.
I tillegg til den tekniske kompleksiteten krever AI cloaking ofte at angriperen er kreativ med språk og dataformater — for eksempel ved «prompt injection», hvor en AI lokkes til å utføre handlinger den ellers ikke ville gjort. Som et resultat representerer AI cloaking en ny, avansert form for cybertrussel som krever oppdatert kunnskap og løsninger for å kunne håndteres på en trygg måte.