UK Cybersecurity Agency advarer om, at AI vil hjælpe Ransomware-aktører, svindlere
Det britiske cybersikkerhedsagentur, National Cyber Security Center (NCSC), har advaret om, at fremkomsten af kunstig intelligens vil komplicere identifikation af ægte e-mails i forhold til dem fra svindlere og ondsindede aktører, især meddelelser, der anmoder om nulstilling af adgangskode.
NCSC advarede om, at de sofistikerede AI-værktøjer, især Generativ AI, der er i stand til at producere overbevisende tekst, stemme og billeder, vil gøre det udfordrende for enkeltpersoner at skelne phishing-forsøg, hvor brugere bliver bedraget til at afsløre adgangskoder eller personlige oplysninger.
Generativ kunstig intelligens, eksemplificeret ved teknologi som chatbots såsom ChatGPT og open source-modeller, muliggør skabelsen af realistisk indhold fra simple prompter. NCSC, en del af GCHQ-spionagenturet, udtalte i sin seneste vurdering, at AI sandsynligvis ville øge hyppigheden og virkningen af cyberangreb i løbet af de næste to år.
Agenturet fremhævede rollen af generative AI og store sprogmodeller, underliggende teknologier til chatbots, i at komplicere bestræbelserne på at identificere forskellige angrebstyper, herunder spoof-beskeder og social engineering, en metode til at manipulere enkeltpersoner til at afsløre fortrolige oplysninger.
AI-drevet svindel lige rundt om hjørnet
Rapporten understregede, at udbredelsen af generativ kunstig intelligens og store sprogmodeller i 2025 ville gøre det udfordrende for enkeltpersoner, uanset deres cybersikkerhedsekspertise, at vurdere ægtheden af e-mails eller anmodninger om nulstilling af adgangskode og at genkende phishing, spoofing eller forsøg på social manipulation. .
NCSC forudså også en stigning i ransomware-angreb med henvisning til sænkningen af barrierer for amatør-cyberkriminelle og hackere til at udnytte systemer. AI's sofistikerede blev bemærket for at lette mere overbevisende tilgange til potentielle ofre ved at skabe falske dokumenter uden typiske fejl forbundet med phishing-angreb. Rapporten præciserede dog, at selvom generativ kunstig intelligens kunne øge overbevisningsevnen af phishing-forsøg, ville det ikke nødvendigvis forbedre effektiviteten af ransomware-kode.
Agenturet advarede om, at statslige aktører sandsynligvis er godt positionerede til at udnytte AI i avancerede cyberoperationer, med potentialet til at træne AI-modeller, der er i stand til at skabe ny kode, der unddrager sig sikkerhedsforanstaltninger. Derudover anerkendte NCSC AI's potentiale som et defensivt værktøj, der er i stand til at opdage angreb og designe mere sikre systemer.