ASV tehnoloģiju gigants Microsoft trešdien paziņojis, ka galvenokārt Irāna un Ziemeļkoreja, kā arī mazākā mērā Krievija un Ķīna, sāk izmantot ģeneratīvo mākslīgo intelektu (MI), lai īstenotu vai organizētu kiberuzbrukumus.
Microsoft paziņojis, ka sadarbībā ar OpenAI, tie ir atklājuši un izjaukuši daudzus draudu dalībniekus (threat actors), kas izmantoja vai mēģināja izmantot viņu izstrādāto MI tehnoloģiju.
Uzņēmums savā blogpostā norādīja, ka šīs metodes ir agrīnā stadijā un nav īpaši jaunas vai unikālas. Taču ir svarīgi tās publiski atklāt, jo ASV sāncenši izmanto lielo valodu modeļus (LLM – Large language model), lai paplašinātu savas iespējas ielauzties tīklos un veikt ietekmes operācijas (influence operations).
Kiberdrošības uzņēmumi jau sen izmanto mašīnmācīšanos (Machine learning) aizsardzībai, galvenokārt, lai atklātu anomālu uzvedību tīklos. Taču to izmanto arī noziedznieki un hakeri.
Microsoft trešdienas paziņojumā tika norādīts, ka sagaidāms, ka ģeneratīvais MI padarīs efektīvāku ļaunprātīgu sociālo inženieriju, tādējādi radot vēl izsmalcinātākus dziļviltojumus (deepfakes) un balss klonēšanas iespējas.
Microsoft sniedza dažus piemērus. Katrā no šiem gadījumiem, visi nosaukto grupu ģeneratīvā MI konti un aktīvi ir atspējoti:
- Ziemeļkorejas kiberspiegošanas (cyber-espionage) grupējums, kas pazīstams ar nosaukumu Kimsuky, ir izmantojis modeļus, lai pētītu ārvalstu domnīcas un, lai radītu saturu, ko varētu izmantot pikšķerēšanas kampaņās.
- Irānas Revolucionārā gvarde (Revolutionary Guard) ir izmantojusi LLM, lai palīdzētu sociālajā inženierijā, programmatūras kļūdu novēršanā un pat pētījumos par to, kā iebrucēji var izvairīties no atklāšanas kompromitētā tīklā. Tas ietver arī pikšķerēšanas (phishing) e-pasta vēstuļu ģenerēšanu. Mākslīgais intelekts palīdz paātrināt un palielināt e-pastu sagatavošanu.
- Krievijas GRU militārās izlūkošanas vienība Fancy Bear ir izmantojusi LLM, lai pētītu satelītu un radaru tehnoloģijas, kas varētu būt saistītas ar karu Ukrainā.
- Ķīnas kiberspiegošanas grupējums, kas pazīstams kā Aquatic Panda (kura mērķis ir dažādas nozares, augstākās izglītības iestādes un valdības no Francijas līdz Malaizijai), ir mijiedarbojies ar LLM tādā veidā, kas liecina par ierobežotu izpēti par to, kā LLM var papildināt to tehniskās operācijas.
- Ķīnas grupējums Maverick Panda, kas jau vairāk nekā desmit gadus ir vērsies pret ASV aizsardzības nozares uzņēmējiem, arī ir izmantojis LLM. Norādot, ka tas novērtē to efektivitāti kā informācijas avotu par potenciāli jutīgām tēmām, augsta ranga personām, reģionālo ģeopolitiku, ASV ietekmi un iekšlietām.
Atsevišķā trešdienas blogā, OpenAI paziņoja, ka tās pašreizējais GPT-4 modeļa tērzēšanas robots (chatbot) piedāvā tikai ierobežotas iespējas ļaunprātīgu kiberdrošības uzdevumu veikšanai.
Kiberdrošības pētnieki sagaida, ka situācija mainīsies.
Pagājušā gada aprīlī ASV Kiberdrošības un infrastruktūras drošības aģentūras (CISA) direktore Džena Eisterlija, kongresā paziņoja, ka pastāv divi laikmetu noteicoši draudi un izaicinājumi. Viens no tiem ir Ķīna, bet otrs – Mākslīgais intelekts.
Eisterlija toreiz teica, ka ASV ir jānodrošina, ka Mākslīgais intelekts tiek veidots, domājot par drošību.