UK Cybersecurity Agency advarer om at AI vil hjelpe ransomware-aktører, svindlere
Storbritannias cybersikkerhetsbyrå, National Cyber Security Center (NCSC), har advart om at fremveksten av kunstig intelligens vil komplisere identifiseringen av ekte e-poster kontra de fra svindlere og ondsinnede aktører, spesielt meldinger som ber om tilbakestilling av passord.
NCSC advarte om at sofistikeringen av AI-verktøy, spesielt Generativ AI som er i stand til å produsere overbevisende tekst, stemme og bilder, vil gjøre det utfordrende for enkeltpersoner å se phishing-forsøk der brukere blir lurt til å røpe passord eller personlig informasjon.
Generativ AI, eksemplifisert av teknologi som chatbots som ChatGPT og åpen kildekode-modeller, muliggjør opprettelse av realistisk innhold fra enkle spørsmål. NCSC, en del av GCHQ spionbyrå, uttalte i sin siste vurdering at AI sannsynligvis vil øke hyppigheten og virkningen av cyberangrep i løpet av de neste to årene.
Byrået fremhevet rollen til generative AI og store språkmodeller, underliggende teknologier for chatbots, i å komplisere innsatsen for å identifisere ulike angrepstyper, inkludert falske meldinger og sosial manipulering, en metode for å manipulere enkeltpersoner til å avsløre konfidensiell informasjon.
AI-drevet svindel rett rundt hjørnet
Rapporten understreket at innen 2025 vil utbredelsen av generativ kunstig intelligens og store språkmodeller gjøre det utfordrende for enkeltpersoner, uavhengig av deres ekspertise på nettsikkerhet, å vurdere ektheten av e-poster eller forespørsler om tilbakestilling av passord og å gjenkjenne forsøk på nettfisking, spoofing eller sosial ingeniørkunst. .
NCSC forutså også en økning i løsepengevare-angrep, med henvisning til senkingen av barrierer for amatør-cyberkriminelle og hackere til å utnytte systemer. AIs sofistikering ble bemerket for å legge til rette for mer overbevisende tilnærminger til potensielle ofre, ved å lage falske dokumenter uten typiske feil knyttet til phishing-angrep. Rapporten klargjorde imidlertid at selv om generativ kunstig intelligens kan forbedre overtalelsesevnen til phishing-forsøk, vil det ikke nødvendigvis forbedre effektiviteten til løsepengevarekode.
Byrået advarte om at statlige aktører sannsynligvis er godt posisjonert til å utnytte AI i avanserte cyberoperasjoner, med potensial til å trene AI-modeller som er i stand til å lage ny kode som unngår sikkerhetstiltak. I tillegg anerkjente NCSC AIs potensial som et defensivt verktøy, i stand til å oppdage angrep og designe sikrere systemer.