Foto: Shutterstock

Mākslīgais intelekts (MI) pasaulē attīstās straujos tempos, un, lai gan tas var veicināt darba ražīgumu un uzņēmumu konkurētspēju, vienlaikus pastāv bažas par tā radītajiem riskiem cilvēku un uzņēmumu drošībai. 2023. gada decembrī Eiropas Savienība pieņēma pasaulē pirmo regulējumu mākslīgā intelekta jomā, lai aizsargātu cilvēku intereses. "Delfi Bizness" uzrunātie vietējie eksperti gan uzskata, ka tas palielinās birokrātiju un attieksies tikai uz likumpaklausīgajiem uzņēmumiem, jo būs grūti izkontrolēt, vai jaunās prasības tiek ievērotas.

Pirmie pasaulē

Jaunā Eiropas regulējuma mērķis ir nodrošināt MI izstrādātājiem un ieviesējiem skaidras prasības un pienākumus attiecībā uz konkrētiem MI lietojumiem.

Valodas tehnoloģiju uzņēmuma “Tilde” mākslīgā intelekta attīstības vadītājs Mārcis Pinnis “Delfi Bizness” stāsta, ka Eiropa ļoti atbalsta MI tehnoloģiju attīstību caur dažādām pētniecības un inovāciju programmām. Tās lielākoties ir mērķētas mazo un vidējo uzņēmumu un akadēmisko institūciju atbalstam. Arī “Tilde” tajos aktīvi piedalās. 

Taču jaunais regulējums MI attīstību ierobežos. Gan Pinnis, gan Rīgas Tehniskās universitātes docents un mākslīgā intelekta pētnieks Ēvalds Urtāns ir skeptiski par jauno regulējumu un norāda, ka MI akts veicina arvien lielāku birokrātiju. 

“Līdz ar to MI akta kontekstā būtu svarīgi neaizšaut garām, lai tas pēkšņi nepaliek pārāk liels slogs mazajiem un vidējiem uzņēmumiem, jo tas šos uzņēmumus varētu sākt spiest ārā no tirgus,” saka Pinnis. Viņš arī piebilst, ka MI izstrāde jau tā ir dārga, jebkuras papildu prasības sadārdzina gala produktu.

Pinnis saka, ka “Tilde” pašlaik vērtē, cik lielā mērā MI akts ir slogs viņu uzņēmumam, analizējot, kā šie birokrātiskie ierobežojumi varētu ietekmēt katru produktu. Ja slogs būs pārāk liels un no tā nebūs ieguvuma, uzņēmums ar šo MI sistēmas izmantošanu nenodarbosies. “Inovācijas tajā brīdī apstājas,” saka “Tilde” pārstāvis.

MI izmantošana uzņēmējdarbībā var palīdzēt palielināt produktivitāti un uzņēmumu konkurētspēju, it īpaši mazajām valstīm, uzsver Urtāns, taču ierobežojumi var to iznīcināt. Viņš uzskata, ka Eiropa pārāk daudz visu regulē: “Ir izveidojies joks - Amerika inovē, Ķīna kopē un Eiropa regulē.” 

Viņaprāt, Eiropai izveidojušās neracionālas bailes no tā, kas novērots Ķīnā, kur cilvēki ar MI palīdzību tiek izsekoti un tiek vērtēta viņu uzticība valstij. Šāda valdības sociālā novērtējuma sistēma Eiropā ir aizliegta ar nesen pieņemto MI aktu, taču biometriskā tālidentifikācija ir pieļaujama tiesībaizsardzības nolūkos.

Mākslīgā intelekta aktā ir definēti četri MI sistēmu riska līmeņi un atbilstoši tiem arī to lietošanas prasības:

  • nepieņemams risks

    nepārprotams apdraudējums cilvēku drošībai, iztikas līdzekļiem un tiesībām, piemēram, valdības sociālā vērtēšana, rotaļlietas, kas ar balss palīdzību veicinātu bīstamu uzvedību. Visas sistēmas, kas atbilst šim riskam, ir aizliegtas.

  • augsts risks

    ietekmē sabiedrības drošību, darba iespējas, veselību, pamattiesību aizsardzību u.c. Piemēram, eksāmenu vērtēšana, MI izmantošana robotizētā ķirurģijā, kredītu novērtējums, liedzot pilsoņiem iespēju saņemt aizdevumu. Uz šīm MI sistēmām attieksies stingri nosacījumi, pirms tās varēs laist tirgū.

  • ierobežots risks

    attiecas uz riskiem, kas saistīti ar pārredzamības trūkumu MI izmantošanā, piemēram, izmantojot MI tērzēšanas robotus, jānorāda, ka cilvēks mijiedarbojas ar iekārtu, kā arī jāmarķē, ka saturs ir mākslīgi radīts.

  • minimāls risks

šādas sistēmas, kas, piemēram, saistītas ar MI iespējotām videospēlēm vai surogātpasta filtriem, drīkst brīvi izmantot.

Ievēros tikai likumpaklausīgie

Kamēr Urtāns ir negatīvi noskaņots pret pieņemto MI aktu, norādot, ka regulējums parasti tiek ieviests, kad rodas problēmas, nevis, mēģinot iedomāties, pirms kaut kas notiek, Pinnis ir samiernieciskāks. "Ir jomas, kur vajag regulēt un nodrošināt to, ka mēs varam kontrolēt, kāda veida tehnoloģijas tiek izmantotas."

Taču viņš norāda, ka ir būtiska atšķirība, vai tehnoloģija tiek radīta vai lietota. "Radīšanu regulēt nav iespējams, jo tu nevari izkontrolēt, ko katrs cilvēks dara savā mājā aiz slēgtām durvīm. Tu vari kontrolēt tikai to, kā tas tiek lietots," saka Pinnis.

Urtāns norāda, ka MI tiek izmantots tik daudzos neuzkrītošos veidos, ka izsekot likumneplaklausīgajiem būs neiespējami. Viens no ierobežojumiem nosaka, ka būs jāmarķē MI radīts saturs. Taču viņš uzskata, ka lielākā daļa varēs publicēt saturu bez šiem marķējumiem un neviens nevarēs pierādīt, ka tas ir vai nav ģenerēts, jo nav tādas sistēmas, kas to atpazītu.

Par MI sistēmu uzraudzību būs atbildīga katras ES dalībvalsts valsts pārvalde. Latvijā tā ir Vides aizsardzības un reģionālās attīstības ministrija. Tā taujāta, vai ir izlemts, kura būs kompetentā iestāde, kas uzraudzīs regulējuma ievērošanu, norāda, ka tas šobrīd vēl tiek lemts. Regulējums oficiāli stāsies spēkā maijā/jūnijā un tā ieviešana notiks pakāpeniski.

Arī Latvijas likumdevējs ir pievērsies mākslīgā intelekta regulējumam. Saeima 14.martā 1.lasījumā atbalstīja Valsts prezidenta rosinātos grozījumus Priekšvēlēšanu aģitācijas likumā. Tie paredz vēlētāju informēšanu par mākslīgā intelekta izmantošanu aģitācijas materiālu sagatavošanā.

Kā veicas Latvijai?

Pinnis jautāts, kur Latvija MI attīstībā jomā atrodas uz Eiropas fona, norāda, ka ir jomas, kur mēs visiem esam ļoti priekšā, piemēram, ir izstrādāta valsts pārvaldes valodas tehnoloģiju platforma "Hugo". "Esam pioneri šajā jomā Eiropā," saka Pinnis. Taču ir arī jomas, kurās nepieciešams nevis tieši attīstīt MI, bet gan digitalizēt manuālos mehāniskos procesus.

Urtāns arī norāda, ka Latvijā ir veiksmes stāsti, kad uzņēmumi spēj konkurēt ar lielajiem uzņēmumiem ārvalstīs tikai pateicoties MI izmantošanai. Vienlaikus viņš saka, ka lielākā daļa Latvijas uzņēmumu, kas nodarbojas ar mākslīgo intelektu, savus pakalpojumus un produktus eksportē, jo vietējie uzņēmumi ir ļoti nobijušies, turklāt tagad regulējums vēl pievieno nepamatotas bailes.

Lai attīstītu kompetences mākslīgā intelekta izmantošanā valsts drošībai un ekonomiskajai izaugsmei, paredzēts VARAM virsvadībā veidot Nacionālā mākslīgā intelekta centru. To plānots veidot uz Rīgas Tehniskās universitātes, Latvijas Universitātes un Rīgas Stradiņa universitātes bāzes, apvienojot trīs universitāšu konsorcija resursus un personālu.

Universitātēm ir, kur augt

Taču situācija akadēmiskajā jomā MI izpētē un attīstībā nav spīdoša. Trūkst gan valsts atbalsta, gan universitāšu vadības spēju šos jautājumus virzīt. Latvija ievērojami atpaliek no Rietumeiropas valstīm, īpaši attiecībā uz piekļuvi skaitļošanas resursiem.

"Lai attīstītu MI tehnoloģijas, ir nepieciešama liela skaitļošanas jauda," saka Pinnis, norādot, ka "Tilde" skaitļošanas jaudas ir līdzvērtīgas RTU vai LU. "Lai gan būtu jābūt tā, ka universitātēm skaitļošanas jaudas ir būtiski pārākas pār uzņēmumu, kurā ar MI pētniecību nodarbojas tikai 10 pētnieki," saka Pinnis. Tas savukārt ietekmē, kādas ir studentu iespējas tehnoloģiju apmācībā, lietošanā un savu zināšanu pierādīšanā pētniecības darbos.

Turklāt nepieciešams audzēt tieši matemātikas studentu skaitu. "Nav iespējams radīt MI tehnoloģijas bez matemātikas zināšanām. Ja to trūkst, tu vari radīt tikai lietojumus, kas izmanto gatavas, kāda cita MI izstrādātas tehnoloģijas," saka Pinnis. Urtāns atklāj, ka katru gadu Latvijā rodas aptuveni 200-500 jauni MI speciālisti, kas ne tikai spēj izmantot, bet arī radīt jaunus risinājumus. Taču vajadzētu vairāk, tāpēc jaunieši jāmudina mācīties matemātiku.

Kādi riski Latvijai? Atbild CERT

Informācijas tehnoloģiju drošības incidentu novēršanas institūcija "Cert.lv" norāda, ka mākslīgais intelekts zinātnes nozarē pastāv jau 60 gadus un tas nepastāv kā atsevišķs un jauns apdraudējuma veids. "Riski ir tie paši, atšķirība ir tajā, ka tagad krāpniekiem ir pieejami jauni rīki. Tie pārsvarā ir balstīti uz ģeneratīvajiem modeļiem teksta un attēlu ģenerēšanai, kas ietver arī atdarināšanu."

Kā jebkuru instrumentu, tai skaitā arī MI, iespējams izmantot gan ļaunprātīgiem nodomiem, gan labiem mērķiem, piemēram, sabiedrības drošības uzlabošanai. Kā arī kiberdrošības jomā, analizējot lielus datu apjomus, kas cilvēkam prasa daudz vairāk laika.

Savukārt krāpnieki to izmanto savām kampaņām vai citas personas identitātes "klonēšanai". Ar MI palīdzību iespējams ierakstīt personas balsi un pēc tam to izmantot, lai atskaņotu audio, kas skan tieši tāpat kā konkrētā indivīda balss. Līdzīgas darbības iespējams veikt arī ar attēliem vai video. Tehnoloģijām attīstoties, visticamāk, zvanus, kas veikti ar MI palīdzību, nevarēs atšķirt no īsta un reāla konkrētās personas zvana, pieļauj "Cert.lv".

Tomēr, izņemot krāpšanas kampaņas, kuras daļēji tiek veidotas arī ar MI palīdzību, "Cert.lv" praksē līdz šim nav bijis neviens kiberdrošības incidents, kur uzskatāmi būtu izmantotas mākslīgā intelekta iespējas.

"Cert.lv" aicina iedzīvotājus domāt kritiski pirms ātrumā pieņemt neapdomīgus lēmumus - piekļuves datu sniegšana, nepārbaudītu saišu atvēršana, programmu lejupielādēšana -, ko aicina darīt krāpnieki.

Savukārt, attiecībā uz riskiem kritiskajai infrastruktūrai, mākslīgais intelekts nebūtu izceļams kā īpašs drauds, norāda "Cert.lv", jo tās aizsardzības sistēmai ir vairāki līmeņi. Ietekmējot vienu no tiem, tiek ietekmēts tikai konkrētais līmenis. Tā nav garantija veiksmīgam uzbrukumam kopumā. "Sistēma ir būvēta tā, lai ar noteiktām procedūrām un pasākumu kompleksu tiktu minimalizēts risks, kas varētu radīt nopietnu ietekme uz kādu citu līmeni. Piemēram, kādas darbības apstiprināšanai nepieciešama vairāk nekā vienas personas atļaujas saņemšana u.tml.," atklāj "Cert.lv".

PAR PUBLIKĀCIJAS SATURU ATBILD TĀS AUTORI. EIROPAS SAVIENĪBA NENOSAKA PUBLIKĀCIJU SATURU UN TO IESPĒJAMO TĀLĀKO IZMANTOŠANU.

Seko "Delfi" arī Instagram vai YouTube profilā – pievienojies, lai uzzinātu svarīgāko un interesantāko pirmais!