ES tiesībaizsardzības aģentūra pirmdien (27. martā) publicēja steidzamu ziņojumu, kurā brīdina, ka ChatGPT un citas ģeneratīvas mākslīgā intelekta (MI) sistēmas var tikt izmantotas krāpšanai tiešsaistē un citiem kibernoziegumiem.
Kopš darbības uzsākšanas novembra beigās ChatGPT ir kļuvis par vienu no visstraujāk augošajiem interneta pakalpojumiem, pirmajos divos mēnešos pārsniedzot 100 miljonu lietotāju skaitu. Pateicoties vēl nebijušajai spējai ģenerēt cilvēkam līdzīgu tekstu, balstoties uz pamudinājumiem, šis modelis ir kļuvis plaši izplatīts.
Lieli valodas modeļi, kurus var izmantot dažādiem mērķiem, piemēram, Open AI ChatGPT, var sniegt labumu uzņēmumiem un individuāliem lietotājiem. Tomēr Eiropols uzsvēra, ka tie rada arī tiesībaizsardzības izaicinājumus, jo tos var izmantot ļaunprātīgos nolūkos.
“Noziedznieki parasti ātri izmanto jaunās tehnoloģijas, un jau dažas nedēļas pēc tam, kad ChatGPT tika publiskots, viņi ātri nāca klajā ar konkrētiem noziedzīgiem ekspluatācijas veidiem, sniedzot pirmos praktiskos piemērus,” teikts ziņojumā.
Publikācijas rezultāti iegūti no Eiropola Inovāciju laboratorijas organizētajām darba grupām, kur apspriesta ChatGPT iespējamā izmantošana krimināllietās. Tas ir visizteiktākais lielo valodas modeļu piemērs, tādēļ tika apspriest arī tas, kā šos modeļus varētu izmantot izmeklēšanas darbā.
Sistēmas trūkumi
ES aģentūra norāda, ka ChatGPT moderēšanas noteikumus var apiet, izmantojot tā saukto ātro inženieriju (prompt engineering). Proti, paredzot, ka tiek nodrošināta input ievadīšana MI modelī, lai iegūtu konkrētu output.
Tā kā ChatGPT ir salīdzinoši jauna tehnoloģija, trūkumi tiek atklāti nepārtraukti, neraugoties uz pastāvīgu labojumu ieviešanu. Šīs nepilnības var izpausties tā, ka MI tiek uzdots sniegt ieteikumu, lūdzot tam izlikties par izdomātu personāžu vai sniegt atbildi kodētā veidā.
Citi apiešanas gadījumi var aizstāt aktivizējošos vārdus (trigger words) vai mainīt kontekstu vēlāk mijiedarbības laikā. ES iestāde uzsvēra, ka visspēcīgākie apiešanas veidi, kas ļauj atbrīvoties no jebkādiem ierobežojumiem, pastāvīgi attīstās un kļūst arvien sarežģītāki.
Krimināllietu pieteikumi
Eksperti identificēja virkni nelikumīgu ChatGPT izmantošanas gadījumu, kas saglabājās arī OpenAI vismodernākajā modelī GPT-4. Tajā sistēmas kaitīgo reakciju potenciāls dažos gadījumos bija vēl progresīvāks.
Tā kā ChatGPT var ģenerēt uzreiz nolasāmu informāciju, Eiropols brīdina, ka jaunā tehnoloģija var paātrināt noziedznieku spējas veikt izpētes procesu. It sevisķi, ja viņam nav iepriekšēju zināšanu par potenciālo nozieguma jomu, piemēram, ielaušanos mājoklī, terorismu, kibernoziegumiem vai bērnu seksuālu izmantošanu.
“Lai gan visa ChatGPT sniegtā informācija ir brīvi pieejama internetā, iespēja izmantot modeli, lai nodrošinātu konkrētus soļus, uzdodot kontekstuālus jautājumus, nozīmē, ka ļaunprātīgiem dalībniekiem ir ievērojami vieglāk izprast un pēc tam veikt dažāda veida noziegumus,” teikts ziņojumā.
Ļoti svarīga lietojumprogrammu joma ir pikšķerēšana, respektīvi, viltotu e-pasta vēstuļu sūtīšana, lai piespiestu lietotājus noklikšķināt uz saites. Agrāk šīs krāpšanas bija viegli atklājamas gramatikas vai valodas kļūdu dēļ, savukārt MI ģenerēts teksts ļauj veikt šādas imitācijas ļoti reālistiskā veidā.
Līdzīgi arī krāpšanai tiešsaistē var piešķirt lielāku leģitimitātes tēlu, izmantojot ChatGPT, lai radītu viltus sociālo mediju iesaisti, kas var palīdzēt krāpniecisku piedāvājumu uzskatīt par leģitīmu. Citiem vārdiem sakot, pateicoties šiem modeļiem, šāda veida pikšķerēšanu un krāpšanu tiešsaistē var izveidot ātrāk, daudz autentiskāk un ievērojami lielākā mērogā.
Turklāt MI spēja atdarināt konkrētu cilvēku stilu un runu var novest pie vairākiem ļaunprātīgas izmantošanas gadījumiem saistībā ar propagandu, naida runu un dezinformāciju.
Papildus tekstam ChatGPT var radīt arī kodu dažādās programmēšanas valodās. Tādējādi paplašinot ļaunprātīgo dalībnieku iespējas, kuriem ir nelielas vai nekādas zināšanas par IT izstrādi, lai pārveidotu dabisko valodu par ļaunatūru.
Neilgi pēc tam, kad ChatGPT tika publiskots, drošības uzņēmums Check Point Research demonstrēja, kā mākslīgā intelekta modeli var izmantot, lai izveidotu pilnu infekcijas plūsmu. Rādot kā izveidojas pikšķerēšanas e-pasta vēstules no spear-phishing līdz reverse shell darbināšanai, kas pieņem komandas angļu valodā.
“Būtiski ir tas, ka safeguards, kas neļauj ChatGPT nodrošināt potenciāli ļaunprātīgu kodu, darbojas tikai tad, ja modelis saprot, ko tas dara. Ja pamudinājumi ir sadalīti atsevišķos soļos, šos drošības pasākumus ir triviāli (vienkārši) apiet,” piebilsts ziņojumā.
Outlook
ChatGPT tiek uzskatīts par vispārējas nozīmes MI (General Purpose AI). MI modeli, ko var pielāgot dažādu uzdevumu veikšanai.
Kamēr Eiropas Parlaments izstrādā galīgo nostāju attiecībā uz AI aktu, deputāti apspriež dažu stingru prasību ieviešanu šim pamatmodelim. piemēram, attiecībā uz riska pārvaldību, robustumu un kvalitātes kontroli.
Tomēr Eiropols, šķiet, uzskata, ka šo sistēmu radītais izaicinājums tikai pieaugs, jo tās kļūs arvien pieejamākas un izsmalcinātākas, piemēram, radot ļoti pārliecinošus dziļviltojumus.
Vēl viens risks ir tas, ka šie lielie valodas modeļi var kļūt pieejami tumšajā tīmeklī bez jebkādiem aizsardzības pasākumiem un var tikt apmācīti, izmantojot īpaši kaitīgus datus. Tas, kādi dati tiks izmantoti šajās sistēmās un kā tās varētu tikt kontrolētas, ir galvenie nākotnes jautājumi.