Eiropas privātuma regulatori pastiprināti pārbauda, kā uzņēmumi izmanto mākslīgo intelektu (MI), pieņemot darbā ekspertus un atverot jaunas struktūrvienības, lai cīnītos pret datu aizsardzības pārkāpumiem.
Uzņēmumu arvien plašāka MI izmantošana dažādās lietojumprogrammās, sākot no automatizētiem cilvēkresursu procesiem līdz mazumtirdzniecības tērzēšanas robotiem un krāpšanas novēršanas tehnoloģijām, liek regulatoriem palielināt savas spējas izmeklēt iespējamos Eiropas Savienības Vispārīgās datu aizsardzības regulas pārkāpumus.
“Mākslīgais intelekts parādās visās nozarēs,” sacīja Norvēģijas datu aizsardzības iestādes pētniecības, analīzes un politikas nodaļas vadītāja Kari Laumanna. Regulatora birojs ir sadarbojies ar 64 uzņēmumiem, lai tās uzraudzībā testētu MI iniciatīvas programmā, kas tika uzsākta 2020. gadā.
Jauni noteikumi MI uzraudzībai
Eiropas Komisijas viceprezidente Margrēte Vestagere, 2021. gadā prezentējot jauno MI tiesību aktu projektu, teica, ka gaidāmie Eiropas noteikumi palīdzēs izstrādāt jaunas globālas normas, lai nodrošinātu, ka MI var uzticēties.
Francijas privātuma regulators pagājušajā mēnesī paziņoja, ka tas veido mākslīgā intelekta nodaļu ar pieciem darbiniekiem, lai izmeklētu iespējamos tehnoloģijas ļaunprātīgas izmantošanas gadījumus.
Spānijas digitalizācijas valsts sekretārs decembrī paziņoja, ka valdība šogad izveidos jaunu aģentūru mākslīgā intelekta uzraudzībai.
Nīderlandes datu aizsardzības regulators pagājušajā mēnesī atklāja jaunu algoritmu uzraudzības nodaļu, kas kopā ar citiem valdības regulatoriem veiks izmeklēšanu, šogad sākot ar 1 miljona eiro budžetu, kas līdz 2026. gadam tiks palielināts līdz 3,6 miljoniem eiro.
Vairāki ar MI saistītie juridiskie aizsargmehānismi ir pie apvāršņa: ES likumdevēji vienojas par 2021. gadā ierosināto tiesību akta projektu, lai ierobežotu riskantus MI izmantošanas veidus, piemēram, sistēmas, kas izmanto biometriskos datus cilvēku identificēšanai vai izmanto MI kritiskās infrastruktūras darbībai. Paredzams, ka jaunie noteikumi stāsies spēkā nākamgad.
MI pielietojums uzņēmumā
Lielbritānijas uzņēmumā RELX PLC, kam pieder zinātnes un medicīnas izdevniecība Elsevier un juridiskās informācijas sniedzējs LexisNexis, privātuma un uzņēmējdarbības struktūrvienības sadarbojas, lai novērtētu tehnoloģiju lietojumprogrammu ietekmi uz datu aizsardzību pirms to palaišanas apritē, teica RELX globālais privātuma direktors Maikls Lambs.
Datu zinātnieki, kas izstrādā uzņēmuma MI produktus, ir atbildīgi par to, lai tie izvairītos no neobjektivitātes un netaisnīgiem rezultātiem. Privātuma komandas aizsardzības funkciju izstrādē ir iesaistītas jau no sākuma. “Galvenais ir tas, lai arī cilvēki, kas nav saistīti ar privātuma jautājumiem, aplūkotu privātuma apsvērumus, kādus datus izmantot, kā tos izmantot, kā pārbaudīt neobjektivitāti un precizitāti,” viņš teica.
LexisNexis izmanto MI krāpšanas atklāšanas produktos un pakalpojumos. Tas veido alternatīvus kredītpunktus, analizējot dažādus datu avotus, lai palīdzētu korporatīvajiem klientiem paplašināt savu potenciālo klientu loku, viņš teica.
MI trūkst vadlīnijas un skidrība tiesību aktu piemērošanā
Regulatori pēdējos gados ir sodījuši uzņēmumus par privātuma pārkāpumiem MI lietojumprogrammās, taču Eiropas datu aizsardzības amatpersonas un privātuma analītiķi apgalvo, ka joprojām nav skaidrs, kā tehnoloģijai piemērot dažus Eiropas privātuma tiesību aktu aspektus. Šomēnes Itālijas datu aizsardzības regulators lika Sanfrancisko bāzētajai kompānijai Luka Inc., kas ir MI čatbota Replika izstrādātāja, pārtraukt Itālijas lietotāju datu apstrādi. Apgalvojot, ka tā nav pietiekami pārredzama attiecībā uz to, kā tā izmanto datus. Un tas varētu apdraudēt neaizsargātas personas un bērnus, kuri dalās ar personisko informāciju.
Daudzos uzņēmumos korporatīvie privātuma speciālisti iesaistās MI riska novērtēšanā attiecībā uz privātumu, pārredzamību un neobjektivitāti, sacīja Katarina Koerner, Ņūhempšīrā bāzētās Starptautiskās privātuma profesionāļu asociācijas (International Association of Privacy Professionals) galvenā pētniece tehnoloģiju jautājumos.
Lai gan uzņēmumi, iespējams, apzinās MI radītos riskus, tie apgalvo, ka tiem trūkst rīku un vadlīniju, lai tos pienācīgi risinātu, sacīja Koerner. “Eiropas regulatori līdz šim nav snieguši detalizētas vadlīnijas vai izdevuši lēmumus par tādām tēmām kā uzņēmumu spēja izskaidrot savus MI algoritmus vai izvairīšanās no diskriminācijas,” viņa teica.
Gaidāme ES tiesību akti
Standard Chartered PLC neiesaistīsies mākslīgā intelekta projektā, kamēr nebūs veikts privātuma novērtējums, teica Vijay Jairaj, Lielbritānijā bāzētās bankas datu pārvaldības riska un atbildīgā MI vadītājs.
Viens no pirmajiem jautājumiem, ko viņa komanda uzdod, ir, kāpēc banka konkrētam pielietojumam izmanto MI, nevis citas tehnoloģijas, viņš teica, uzstājoties tiešsaistes pasākumā.
Jairaj sacīja, ka gaidāmie ES tiesību akti liks uzņēmumiem rūpīgi izvērtēt trešo pušu MI produktu piegādātājus. Eiropas Savienības MI likumprojekts paredz, ka datu, programmatūras, iepriekš apmācītu modeļu un citu produktu piegādātājiem būs jāsadarbojas ar klientiem, kas sniedz datus regulatoriem. Kad regulatori identificē riskantas MI sistēmas, tiem ir jāsniedz detalizēta informācija par tehnoloģiju un piegādes ķēdi citu ES valstu iestādēm.
“Ja jūs nezināt savus datus, jūs nonāksiet lielās nepatikšanās, jo īpaši ar personas datiem,” viņš teica.