Foto: AFP/Scanpix/LETA

Cik sekmīgi mākslīgais intelekts tiek galā ar naida runas un dezinformācijas atpazīšanu? Ja par konkrētiem vārdiem šaubu ir maz, tad ko darīt ar jēdzieniem un simboliem, kas ir "pelēkajā zonā"? Piemēram, skaitli 88, kas daudziem ir vienkārši skaitlis, bet noteiktā kontekstā ir ar pavisam citu un konkrētu nozīmi – pauž piederību vai atbalstu nacisma ideju sludinātājiem. Par mašīnmācīšanās algoritmu spējām dezinformācijas ierobežošanā jaunākajā "Alma Mater" izdevumā Māris Zanders sarunājas Latvijas Universitātes Datorikas fakultātes asociēto profesoru, Matemātikas un informātikas institūta Mākslīgā intelekta laboratorijas vadītāju Normundu Grūzīti.

Vai, mēģinot pamanīt agresijas, naida runas izpausmes tīmeklī, algoritms – man vienkārši apnicis lietot apzīmējumu "mākslīgais intelekts" – pamana konkrētus vārdus, vai arī spēj novērtēt kontekstu? Paskaidrošu. Vārdi "vatņiks", "fašists" – te viss it kā skaidrs. Tomēr ir, piemēram, neonacistu aprindās vesela šķietami nevainīgu jēdzienu buķete. "88" man un jums ir skaitlis. Noteiktās aprindās tie ir alfabēta burti pēc kārtas, kas nozīmē "Heil Hitler". Tātad algoritms "saprot" nepārprotamas pazīmes – vai arī spēj "saprast" kontekstu?

Patiesībā jau tieši konteksts ir tas, kas pēdējo gadu laikā ir "cēlis zirgā" visus šos mākslīgā intelekta modeļus. Agrāk patiešām konteksts, ko šie modeļi spēja aptvert, bija salīdzinoši neliels. Aptvērums pēdējo gadu laikā ir palielinājies no dažiem desmitiem vārdu līdz vairākiem tūkstošiem vārdu, un šie modeļi strādā tik labi, ka spēj pamanīt kopsakarības. Proti, skaidrs, ka izolētam vārdam vai vārdu kopai – sauksim tādas par "atslēgvārdiem" – var dot tikai norādes par kādu potenciālu kontekstu. Savukārt tā sauktie transformeru tīkli tiek lietoti gan attēlu, gan tekstu, gan audio tekstu saprašanai.

Labi. Ja turpinām runāt par to, cik pareizi tiek saprasts izteikuma konteksts, labs piemērs ir dažādu indivīdu sociālajās platformās, teiksim, "Facebook", žēlošanās par to, ka platforma viņus ir bloķējusi par, piemēram, naida runu. Lai gan indivīds saka, ka nekādas naida runas nav bijis, un nereti patiešām nav bijis. Var gadīties, ka pārcenšas "Facebook" strādājošie, un tad ir cerība, ka algoritms, lai cik amizanti tas skan, būs labāks izvērtētājs nekā cilvēks. Tomēr tikpat labi nē, būs vēl trakāk. Kā jums šķiet?

Es gan ieteiktu paturēt prātā, ka "Facebook" vai kādas citas platformas darbinieku gadījumā varētu būt spēkā kādi politiski apsvērumi, tomēr skaidrs arī, ka informācijas apjoms ir tāds, ka cilvēki vien šo monitorēšanu veikt nevar, tāpēc jau tagad ir iesaistīti dažādi modeļi un algoritmi. Bet tad nu uzreiz man jāsaka nākamais: cilvēkiem patīk idealizēt tehnoloģiskos risinājumus. Lūk, algoritms strādā precīzi, cilvēkam savukārt raksturīga subjektivitāte un tā tālāk. Tā gluži nav. Piekrītot, ka jēdziens "mākslīgais intelekts" ir jau nodrāzts, es lietošu "mašīnmācīšanās".

Kas ir mašīnmācīšanās? Tā ir tādu problēmu risināšana, kurām nevar uzrakstīt precīzus algoritmus. Ir problēmas, kas var būt ļoti sarežģītas, bet to pamatā ir precīzi algoritmi – te kā piemēru var minēt grāmatvedības programmas. Savukārt mašīnmācīšanās nodarbojas ar problēmām, kuras nevar aprakstīt ar skaidriem likumiem, tāpēc tā mācās – piemēram, lasot milzīgus tekstu apjomus. Ja mēs šo konstrukciju salīdzinām ar svariem, tad tajos ir miljoni, miljardi skrūvīšu, kuras mācīšanās procesā tiek pagrieztas vaļīgāk, piegrieztas ciešāk. Šā procesa neizbēgama sastāvdaļa ir arī testēšana. Tāpat kā testēšana ir obligāta jebkurai datorprogrammai, kas domāta tirgum.

Mēs jau gan gribētu, lai mašīnmācīšanās modeļu precizitāte būtu 100%, bet patiesībā – atkarībā no problēmas sarežģītības – tā var būt 70, 80, 90 procenti.
Iespējams, ka vieglāk saprotams piemērs te būtu runas atpazīšana. Ja mēs šo mūsu sarunu atdotu programmai, lai jums pašam nav tā jāatšifrē, skaidrs, ka transkripcijā būs kļūdas – varbūt kāds no mums būs pārāk neskaidri vai ātri izteicies. Mēs varam jau pirms programmas iesaistīšanas vienkārši prognozēt, ka 10–20% būs pašiem vēlāk jāpielabo.

Parunāsim par darbošanos ar "skrūvītēm". Pirms dažiem mēnešiem lasīju par ķīniešu modeli "Ernie", ko paši ķīnieši, protams, slavē. Tikai, lūk, kāda ķeza – kad modelim jautā par Covid-19 izcelsmi, tas "dod ārā" klasiskus murgus par "amerikāņu militārām laboratorijām", savukārt par protestiem Tjaņaņmeņas laukumā 1989. gadā neko "nezinot". Tātad principā cilvēks modeli var būtiski ietekmēt, veicot tā saukto "data poisoning".

Pirmā un diplomātiskā atbilde ir tāda, ka tāpēc jau ir tādi modeļi, kurus cilvēki pasaulē grib lietot un lieto, un ir tādi, kurus nelieto, jo tas ir bezjēdzīgi. Kopumā jautājums ir interesants. Mēs laboratorijā – un, protams, arī citur pasaulē tas notiek – esam diskutējuši, nonākot pie secinājuma, ka šie tā sauktie neironu tīkli ir jauna tehnoloģija, savā veidā jauns dators. Un tāpat kā datoru gadījumā – ja kādam bija tāda vēlme – varēja šo "mašinēriju" ietekmēt, tāpat neironu tīklus, tikai tīklu gadījumā runa ir par valodu. Tāpēc, ja ķīnieši dod tādus datus, kas atbilst viņu pasaules skatījumam, tas būs viens modelis, bet tikpat labi tas varētu būt modelis, kas atbilst amerikāņu pasaules skatījumam. Un tomēr mums gribētos ticēt, ka brīvā tirgus ekonomika visu beigu beigās noregulē, jo sliktie modeļi nebūs interesanti lietotāju vairākumam.

Paturpināsim par "skrūvēm" vai modeļu apmācīšanu. Ir priekšstats, ka mūsdienu pasaulē ir datu pārbagātība. Vai taisnība, ka modeļu izstrādātājiem datu sāk pietrūkt, tāpēc viņi meklē jaunus datu masīvus, piemēram, tos, kuri uzkrājas zvanu centros?

Šis jautājums ir cieši saistīts ar iepriekšējo. Tāpat tas ļoti saistīts ar to, par kuru valodu mēs runājam. Skaidrs, ka angļu vai ķīniešu valodā pieejamo datu apjoms ir daudz lielāks nekā latviešu valodā. Lai gan latviešu valoda, starp citu, nav tā mazākā – ir virkne citu, kurām situācija ir vēl grūtāka. Vai tā ir problēma? Pieļauju, ka tie, kuri par šiem modeļiem interesējas, būs pamēģinājuši "ChatGPT" un pamanījuši, ka tas komunicē ne tikai angļu, bet arī latviešu vai, teiksim, lietuviešu valodā. Proti, "maģija", kas šajos lielajos neironu tīklos darbojas, ir tā, ka galu galā ir tādas zināšanas par pasauli, kas ir vispārzināmas, ontoloģiski fakti. Un nav svarīgi, kurā valodā tas ir pateikts. Mēs varam mācīties par fiziku angliski, bet mēs varam sarunāties par fiziku ar šo modeli arī latviski, jo nav obligāti, lai modelis par fiziku būtu lasījis tieši latviešu valodā. Modelis būs par fiziku lasījis angliski, krieviski, ķīniski un tā tālāk. Galvenais, lai modelim būtu priekšstats par latviešu valodu – kā tiek veidoti teikumi, kā izskatās mūsu leksika.

Foto: Patriks Pauls Briķis, DELFI

Normunds Grūzītis arī bija viens no viesiem, kas viesojās "Delfi" podkāstā "Zinātne vai muļķības", kur stāstīja par mākslīgā intelekta iespējām un ierobežojumiem. Podkāstu var klausīties šeit:

Kad "ChatGPT" vēl bija tikai GPT, proti, kad ar šo modeli darbojās nevis plašāka publika, bet pētnieku grupas, mēs arī paspēlējāmies. Uzdevums bija radīt latviešu tautas pasaku, dodot pirmo teikumu, kas būtu raksturīgs tipiskai latviešu pasakai. Kāds bija rezultāts? Gramatiski pietiekami kvalitatīvs teksts, savukārt šādas pasakas dzīvesziņa – lai gan iekšēji loģiska – vairāk atbilstu kādai sabiedrībai ar kapitālistiskāku pasaules uztveri (iesmejas). Respektīvi, modelim bija spēja sarunāties latviski – pat ja šī spēja balstījās salīdzinoši nelielā apjomā, vienā teikumā –, bet zināšanas bija iegūtas kaut kur citur. Tāpēc, protams, paliek jautājums par to, lai modeļi spētu darboties ar specifiskiem kultūras kontekstiem, lai mēs varētu sarunāties par konceptiem, kas varbūt citām kultūrām nav svarīgi.

Ja esam tikuši līdz tam, ko mēs sagaidām no šiem modeļiem, tad es gribētu saprast komercializācijas pusi. Tātad pie jums atnāk Latvijas valdība – lai būtu divdomīgāk, "atnāk kādas valdības pārstāvji". Ko viņi var gribēt? Labi, sabiedrības noskaņojuma analīzi, proti, vai pieaug trauksme, agresivitāte. Ko vēl?

Faktiski pasūtītāju ierobežo vienīgi viņa domas lidojuma spējas, tomēr es ierosinu sašaurināt jautājumu līdz agresijas, dezinformācijas tēmai. Pirms gandrīz desmit gadiem mēs kopīgi ar Rīgas Stradiņa universitātes komunikācijas jomas ekspertiem sākām nelielu eksperimentu, kas vairāk ir dzīvojis, balstoties uz entuziasmu – agresijas mērīšanu ziņu portālu tiešsaistes komentāros. Vienkāršoti izsakoties, sākotnēji mēs varējām zīmēt līkni – tā iet augšup, lejup –, kas pati neko daudz neizsaka. Labi, var skatīties, kas tajā dienā noticis, un meklēt cēloņsakarības. Sākotnēji tātad šis darbs balstījās uz atslēgvārdiem. Turklāt te jāņem vērā, ka, piemēram, vārda "karš" parādīšanās vien nenozīmē, ka komentārs ir agresīvs. Tad atslēgvārdu meklēšana izauga līdz detalizētāku kritēriju kopumu, kas ļauj komentāru izvērtēt kopumā. Te parādās mašīnmācīšanās.

Tas, ko savukārt mums dod jau šie jaunie modeļi, ir mēģināt saprast – vai komentārā, kurā, mūsuprāt, ir dezinformācija, ir, piemēram, apzinātas manipulēšanas, apzinātas propagandas elementi. Te, protams, jāpatur prātā, ka šie jaunie modeļi vienalga būtībā dod atbildi, vadoties pēc tā, kāda ir ticamākā atbilde konkrētajā kontekstā. Tomēr, ja atbildes pamatā ir lieli datu apjomi, tad arī šī ticamākā atbilde vairumā gadījumu izrādās pietiekami precīza. Bet, protams, vienalga ir nepieciešama komunikācijas vai, teiksim, ģeopolitikas eksperta klātbūtne.

Replika par "dzīva cilvēka" nepieciešamību. Mēs esam pamanījušies devalvēt tik daudzus jēdzienus – piemēram, "genocīds" –, ka šī jēgas devalvācija var, ja tā drīkst teikt, sajaukt galvu arī gudram algoritmam.

Taisnība, bet šo lielo valodas modeļu priekšrocība ir tā, ka mēs varam jēdzienus vajadzības gadījumā pārdefinēt. Proti, mēs varam modelim uzdot jēdzienu "genocīds" saprast tā, kā mēs to saprotam.

Tātad šie modeļi kļūst arvien labāki. Sabiedrības kopīgais ieguvums būtu iespēja laikus pamanīt kādas tendences. Taču – var teikt, ka ar šo modeļu palīdzību kāds var kontrolēt sabiedrību. Proti, var laikus pamanīt ne tikai, piemēram, dezinformācijas palielināšanos, bet arī pilnīgi leģitīmas no sabiedrības interešu viedokļa sociālās protesta pazīmes.

Šī dilemma ir kopš alu laikiem – ar nazi vai cirvi var rīkoties ļoti dažādi. Modeļi, par kuriem mēs runājam, šajā izpratnē nav nekāds izņēmums.

Taisnība, bet tā ir arī pārāk ērta atbilde. Varu formulēt citādi. Vai modeļu izstrādātājiem ir kaut kas līdzīgs profesionālajai ētikai?

Jā, par to tiek runāts sen un pēdējā laikā arvien vairāk. Jo tā ir: kamēr mēs runājam par zinātnes un izpētes līmeni, iesaistītie spēlējas brīvi. Kad mēs produktu vēlamies dot sabiedrībai vai komercializēt, parādās ētikas jautājumi. Turklāt ar to nodarbojas ne tikai pētnieki vai bizness, bet arī valdības. Un te var atsaukties uz Eiropas Parlamenta deputātu Ivaru Ijabu, kurš nesen publiski atzina, ka Eiropas Savienība varbūt atpaliek no ASV tehnoloģiju inovācijās, toties ir līderis, ja ir runa par inovācijām šo tehnoloģiju regulēšanā.

Regulācija nav nekas slikts arī no pētnieku vai biznesa viedokļa, ja šī regulācija rada visiem vienādus spēles noteikumus. Tomēr kopumā ar regulēšanu ir jāuzmanās. Ir lieli riski un mazi riski.
Ja cēlais mērķis ir mazināt lielos riskus, tad tas nenozīmē, ka "jānoslauka" ir viss, kam ir kaut kāds potenciāls kļūt pat par mazu risku. Piemēram, datu izmantošana, un es te nerunāju par autortiesībām. Ziņas ir pilnas ar nejauši, uzsveru – nejauši – pieminētiem cilvēkiem. Personas datu aizsardzība attiecas arī uz viņiem. Tas viss rada problēmas, risku nonākt kaut kādā "pelēkajā zonā" no regulējama viedokļa.

--

Jau pēc sarunas Normunds Grūzītis atsūtīja divas piezīmes, kuras šķiet būtiskas:

"Interesanti, ka, ieminoties par runas sintēzi [ārpus intervijas es Normundam minēju par kādas populāras TV ziņu moderatores šoku, kad viņai studijā tika atskaņots viņas it kā teiktais par pašas darbavietu], šobrīd priekšplānā izvirzījušās bažas par balss viltošanu, bet oriģinālais mērķis ir pavisam cits un godprātīgs: ģenerēt audiogrāmatas (īpaši non-fiction, īpaši neredzīgajiem, bet ne tikai), nolasīt priekšā "avīzi" vai pienākušās ziņas, braucot mašīnā. Tā pati Ilvara Jansona sintezētā balss mums radās sadarbībā ar "Neredzīgo bibliotēku", kurai viņš daudz ierunājis grāmatas, bet nevar jau visu ierunāt, un daudz kam nav vērts tērēt dzīva cilvēka resursu. Katrā ziņā, ja kāds gribēs kādu viltot un ja mērķis attaisnos pūles, tad to izdarīs. Vienkārši sabiedrībai jākļūst gudrākai un kritiskākai, līdzīgi kā mēs jau sen neticam aizdomīgiem spam e-pastiem, tā arī ir jādomā līdzi aizdomīgiem attēliem, balss ierakstiem un tā tālāk.

Mākslīgā intelekta ētika tikusi apspriesta jau sen, bet līdz šim tie pamatā bija futūristi, un citi tam lielu uzmanību nepievērsa. Pēdējos gados situācija ir strauji mainījusies, top Eiropas Savienības regula un citas aktivitātes, ieskaitot dažādas atklātās vēstules. Pirms šā gada vēstules ("OpenAI" kontekstā) iepriekš bija viena paliela aktivitāte par mākslīgā intelekta ierobežošanu letālu ieroču izstrādē, taču, kā parāda Ukrainas pieredze, piemēram, droni-kamikadzes, kas spēj finiša taisnē rīkoties autonomi, jo sakari ar operatoru tiek bieži vien noslāpēti, ir nepieciešami. Tas, protams, ir koks ar diviem galiem, jo ienaidnieks arī dara līdzīgi. Bet tur jau tā problēma, ka ienaidniekiem un ļaundariem ētikas normas un regulas parasti neko nenozīmē, un vienpusēja ētika var izrādīties liktenīga mums pašiem."

Seko "Delfi" arī Instagram vai YouTube profilā – pievienojies, lai uzzinātu svarīgāko un interesantāko pirmais!