OpenAI populārais tērzēšanas robots ChatGPT regulāri sniedz nepatiesu informāciju par cilvēkiem, neparedzot iespēju šo informāciju labot. Šīs, tā dēvētās, “halucinācijas” daudzos gadījumos var nopietni kaitēt personas reputācijai – iepriekš ChatGPT nepamatoti apsūdzējis cilvēkus korupcijā, bērnu seksuālā izmantošanā vai pat slepkavībā.
Pēdējais gadījums skāra kādu Norvēģijas lietotāju, kurš vēlējās noskaidrot, kāda informācija tērzēšanas robotam par viņu ir pieejama. ChatGPT pārliecinoši izdomāja viltus stāstu, kurā lietotājs tika attēlots kā notiesāts slepkava.
Šis gadījums nav vienīgais. Tādēļ noyb ir iesniegusi jau otro sūdzību pret OpenAI. Apzināti ļaujot ChatGPT izplatīt apmelojošu informāciju, kur uzņēmums acīmredzami pārkāpj GDPR (VDAR-Vispārīgās datu aizsardzības regulas) principu par datu precizitāti.
MI halucinācijas: no nevainīgām kļūdām līdz apmelojošiem meliem
Straujā mākslīgā intelekta tērzēšanas robotu, piemēram, ChatGPT, attīstība jau no paša sākuma izraisīja kritiku un brīdinājumus – lietotāji nekad nevar būt pilnībā pārliecināti, ka sniegtā informācija ir pareiza. Iemesls ir vienkāršs: šīs MI sistēmas vienkārši prognozē, kurš vārds visdrīzāk sekos nākamais, balstoties uz ievadīto pieprasījumu.
Šī iemesla dēļ Mākslīgais intelekts bieži “halucinē” – proti, izdomā nepatiesus faktus vai veselas situācijas. Dažkārt tas var būt nekaitīgi vai pat izklaidējoši, taču citos gadījumos šādām halucinācijām var būt graujošas sekas cilvēku dzīvēs.
Ir vairāki mediju ziņojumi par izdomātiem seksuālas uzmākšanās gadījumiem, nepamatotām apsūdzībām kukuļošanā vai bērnu seksuālā izmantošanā – un šie gadījumi jau ir noveduši pie tiesvedībām pret OpenAI.
Uzņēmums reaģēja, pievienojot nelielu brīdinājumu, kurā norādīts, ka ChatGPT var radīt neprecīzus vai nepatiesus rezultātus.
ChatGPT izdomā slepkavību un cietumsodu: MI sajauc reālus faktus ar meliem
Diemžēl šādi gadījumi nav pagātnes atskaņas – tie notiek joprojām. Kad norvēģu lietotājs Arve Hjalmar Holmen mēģināja noskaidrot, kāda informācija par viņu ir pieejama ChatGPT, viņš sastapās ar izdomātu šausmu stāstu.
Tērzēšanas robots viņu attēloja kā notiesātu noziedznieku, kurš nogalinājis divus savus bērnus un mēģinājis nogalināt trešo.
Šo situāciju vēl nopietnāku padara fakts, ka izdomātais stāsts tika papildināts ar reāliem personas datiem – tajā tika iekļauts patiesais bērnu skaits, dzimums un Holmena dzimtās pilsētas nosaukums. Turklāt ChatGPT apgalvoja, ka viņš esot notiesāts uz 21 gadu cietumā.
Šāds gadījums, kurā sajaukti identificējami personas dati ar pilnībā izdomātu, apmelojošu informāciju, nepārprotami pārkāpj GDPR prasības. Saskaņā ar 5. panta 1. punkta (d) apakšpunktu, uzņēmumiem ir pienākums nodrošināt, ka personas dati, ko tie ģenerē vai izplata, ir precīzi un patiesi.

Potenciāli plašas sekas: OpenAI nespēj vai nevēlas novērst nepatiesu informāciju
Diemžēl šķiet, ka OpenAI nav ne īpašas intereses, ne spēju nopietni risināt nepatiesas informācijas problēmu ChatGPT sistēmā.
noyb jau 2024. gada aprīlī iesniedza pirmo sūdzību, kas saistīta ar MI “halucinācijām”. Tajā tika pieprasīta nepareiza dzimšanas datuma labošana, kādai sabiedrībā zināmai personai. Atbildot uz to, OpenAI apgalvoja, ka nespēj labot datus — tā vietā tā var tikai “bloķēt” konkrētus pieprasījumus, taču pati kļūdainā informācija joprojām paliek sistēmā.
Lai gan kaitējums varētu būt mazāks, ja nepatiesie dati netiek tālāk izplatīti, GDPR attiecas arī uz iekšēji glabātu informāciju, ne tikai uz publiski koplietotu.
Papildus tam uzņēmums cenšas apiet savu pienākumu nodrošināt datu precizitāti, pievienojot atrunu, ka ChatGPT “var kļūdīties” un lietotājiem “vajadzētu pārbaudīt svarīgu informāciju”. Tomēr juridiskos pienākumus nevar atcelt ar vienkāršu atrunu – uzņēmumam joprojām ir saistošs likums, kas prasa nodrošināt personas datu precizitāti.
ChatGPT kļūst par meklētājprogrammu – taču bažas par datu dzēšanu saglabājas
Kopš incidenta ar Arve Hjalmar Holmen, kurā ChatGPT nepamatoti attēloja viņu kā bērnu slepkavu, OpenAI ir atjauninājis savu modeli. Tagad ChatGPT, atbildot uz jautājumiem par konkrētām personām, papildus izmanto informāciju no interneta, padarot to faktiski par meklētājprogrammu.
Holmena gadījumā tas nozīmē, ka tērzēšanas robots vairs neizplata nepatiesu informāciju par slepkavību. Taču kļūdainie dati joprojām var būt daļa no lielā valodas modeļa (LLM) datu kopas. Pēc noklusējuma ChatGPT izmanto lietotāju datus, lai pilnveidotu sevi turpmākai apmācībai. Tas nozīmē, ka nav iespējams būt pilnībā drošam, ka šādu rezultātu var pilnībā dzēst – vismaz ne bez visa modeļa pārapmācības, kas šobrīd praktiski nav realizējams.
Turklāt OpenAI arī nepilda GDPR 15. panta prasības par piekļuves tiesībām. Tādējādi lietotājiem nav iespējams noskaidrot, kāda informācija par viņiem tiek glabāta un apstrādāta iekšējās sistēmās. Šī situācija saprotami rada pastāvīgu nedrošības sajūtu un satraukumu lietotājam.