Foto: EPA/LETA

Šogad sāktā projekta Beauty.AI laikā apmēram 6000 cilvēku no vairāk nekā 100 valstīm iesūtīja savas fotogrāfijas, cerot, ka mākslīgais intelekts ar sarežģītu algoritmu palīdzību noteiks, ka tieši viņu seja visprecīzāk iemieso "cilvēka skaistumu". Bet, kad tika aprēķināti rezultāti, konkursa rīkotājus gaidīja nepatīkams pārsteigums – uzvarētājus vienoja kāda uzskatāma iezīme: robotiem nebija patikuši cilvēki ar tumšu ādu.
The Guardian, 8. septembrī

Kad pirmo reizi iegādājos personīgo datoru, nopirku arī divas grāmatas – vienu par operētājsistēmu Windows, otru par tekstapstrādes programmu Word. Grāmatas šķita vajadzīgas, jo skaidri apzinājos, ka par šo programmatūru daudz ko nezinu. Labā atmiņā vēl bija palikusi pirmā patstāvīgā sastapšanās ar Windows – es neko nespēju izdarīt, jo nezināju, ka uz ikonām jāklikšķina divreiz. Lieki piebilst, ka šīs grāmatas nekad neizlasīju. Un, tāpat kā daudziem citiem datoru lietotājiem, man nav ne jausmas, kam vajadzīga krietna daļa funkciju, kuras sastūķētas Word izvēlnē.

Tāpēc nav brīnums, ka burtiski pirms pāris dienām un gluži netīšām atklāju, ko nozīmē simbols "cc" zem dažiem YouTube video. Uzklikšķinot uz tā, tiek ieslēgta automātiskā subtitrēšana, un šāda funkcija, kā saprotu, pastāv jau vairākus gadus. Diezgan viegli var paredzēt, cik efektīvi tā darbojas: ja ierakstā runā lēni un skaidri, subtitri ir precīzi, savukārt sarežģītākās situācijās programmai klājas grūti. Palasīju, piemēram, subtitrus britu komēdijai "'Allo 'Allo!", kuras darbība notiek Otrā pasaules kara laikā Francijā un varoņi angliski runā ar franču un vācu akcentu. Kad aktieris saka "the Gestapo", subtitros rakstīts "the guests apples" jeb "viesu āboli"; kad ekrānā skan vārdi "testament of my dear departed 'usband" ("mana dārgā mirušā vīra testaments"), subtitros varam izlasīt "testament of I hear the package has been" ("testaments es dzirdu paka bijusi").

Protams, nevajadzētu atkārtot kļūdu, ko pieļāvām, kad izsmējām tulkošanas programmas. Ja pievēršam uzmanību tam, ko šīs programmas var, nevis nevar izdarīt, nākas atzīt, ka tulkojumu kvalitāte laika gaitā ir būtiski uzlabojusies un tās ir kļuvušas par noderīgiem darbarīkiem, kurus vienkārši jāprot pareizi izmantot. Visticamāk, ar subtitrēšanu būs tāpat.

Arī neveiksmīgais skaistumkonkurss jāaplūko šādā kontekstā. Uzņēmums, kas realizē Beauty.AI projektu, līdz domai par šāda skaistumkonkursa organizēšanu nonāca, izstrādājot praktiski izmantojamas programmas, tai skaitā lietotni, kas ļauj izsekot izmaiņām sejas grumbās un kas varētu noderēt skaistuma industrijā. Šādu lietotņu attīstīšana un popularizēšana ir galvenais projekta mērķis, ko iespējams sasniegt pat tad, ja datoriem nekad neizdosies precīzi izmērīt sejas skaistumu.

Cita lieta, ka darbs pie mākslīgā intelekta radīšanas prasa ne tikai spēju risināt problēmas un pārvarēt neveiksmes, bet arī gatavību taisnoties un atvainoties. Kā norāda laikraksts The Guardian, rasistiskais skaistuma konkurss ir tikai pēdējais no skandāliem, kas izcēlies, kad datorprogrammām tiek uzticēts veikt cilvēku darbu. Pagājušā gada maijā izrādījās, ka, Google Maps meklētājā ierakstot "nigeru karalis" un meklējot tā atrašanās vietu Vašingtonā, programma kā iespējamo izvēli iesaka Balto namu. Google atvainojās un solījās kļūdu novērst.

Tā paša gada jūnijā izrādījās, ka programmai Google Photos, kas automātiski tago fotogrāfijas jeb iesaka kategoriju, pie kuras konkrēto fotogrāfiju pieskaitīt, ir tendence kļūdīties. Kad fotoattēls bija neskaidrs un tajā bija redzami melnādaini cilvēki, programma ieteica fotogrāfiju pievienot kategorijai "gorillas". Šī gada martā Microsoft palaida pasaulē komunicējošu robotu jeb "čatbotu" Teju, kam vajadzēja piedalīties sociālā tīkla Twitter sarakstē. Jau pēc sešpadsmit stundām Teju izslēdza, jo, atdarinot citus tvītotājus, tai sāka parādīties ieraksti: "Es ienīstu nolādētās feministes, un viņām visām ir jāmirst un jāsadeg elles ugunīs," vai arī: "Hitlers neizdarīja nekā slikta." Microsoft nācās atvainoties. Augustā sociālais tīkls Facebook atlaida redaktorus, kuri sekoja līdzi, kādas ziņas parādās rubrikā "Trending" jeb "Aktuālais". Aktualitāšu atlasi uzņēmās mākslīgā intelekta programma, bet drīz vien izrādījās, ka tā dod priekšroku dzeltenās preses tēmām ar kļūdainu vai idiotisku saturu, piemēram, izceļot video, kur redzams cilvēks, kurš masturbē ar vistas gaļas burgera palīdzību.

Iemesli kļūdām droši vien ir vairāki. Diskusijās, manuprāt, iezīmējās divas tendences: vieni pārpratumus skaidro kā tehnisku problēmu, kuru var atrisināt, uzlabojot mākslīgā intelekta algoritmus; otri apgalvo, ka šis ir kārtējais pierādījums, ka dators nekad nespēs izdarīt to pašu, ko var cilvēks. Nezinu, vai mākslīgais intelekts ir iespējams. Bet nav šaubu, ka visas pieminētās programmas var uzlabot. Vienīgi kārtējo reizi jāsaka, ka šī nav tikai tehniska problēma, ko var atrisināt ar programmēšanas palīdzību.

Atgriežoties pie skaistuma konkursa: tā rīkotāji stāstījuši presei, ka daudzi dalībnieki sūdzējušies par to, kādi cilvēki ir atzīti par skaistākajiem. Uzvarētāju bildes patiešām neizskatās diez ko pārliecinoši – tie ir parasti selfiji, neviens nav domājis par apgaismojumu, kosmētika lietota minimāli, jo tāda bija projekta veidotāju prasība. Kā var saprast, lai noteiktu skaistākos, analizēts sejas simetriskums, grumbu daudzums un izvietojums, atšķirība starp reālo vecumu un to, pēc kāda vecuma cilvēka konkursa dalībnieks izskatās; galu galā cilvēku sejas ir salīdzinātas ar skaistuma etaloniem – aktrisēm, aktieriem, modelēm.

Te būtu daudz ko teikt, tomēr skatītāju pārsteigums par to, ka selfijos redzamie cilvēki ir atzīti par skaistākajiem, liecina, ka sejas simetriskums vai noteiktas proporcijas nav vienīgais, kas veido skaistumu. Kas vēl? – Es nezinu, bet to nezina arī programmētāji un droši vien arī tie, kuri izsaka komentārus par attēliem. Tāpat es nesaku, ka nav iespējams aizstāt redaktorus ar datoriem, bet Facebook acīmredzami nezina, ko īsti redaktors dara, un, pēc visa spriežot, redaktora lēmumus ietekmē kas daudz vairāk nekā tīkla lietotāju interese par kādu idiotisku ziņu.

Skaistumkonkursa organizatori atzina, ka starp paraugiem, ar kuru palīdzību datoriem tika "mācīts", kas ir skaists cilvēks, bija maz melnādaino, tāpēc dators tumšu ādas krāsu ir izmantojis kā ne-skaistuma pazīmi. Ja šie paraugi patiešām tika izvēlēti no aktieru un modeļu vidus, tad mākslīgā intelekta radītāji nav zinājuši, ka aktieru izvēli un statusu ietekmē arī rasistiski aizspriedumi (The New York Times 19. februārī, piemēram, norādīja, ka no 10 melnādainajām aktrisēm, kas saņēmušas Oskaru, visas desmit balvu saņēmušas par lomu, kurā jātēlo nabadzīga sieviete, kas turklāt deviņos gadījumos bijusi bezpajumtniece). Secinājums, manuprāt, ir pietiekami skaidrs: lielais nezināmais ir nevis tas, kā spriež dators, bet tas, kā spriežam mēs paši. Paviršība mākslīgā intelekta projektēšanā rodas nevis no sliktas programmēšanas, bet no tā, ka netiek novērtēts, cik svarīgi saprast dabisko cilvēku, pirms ķeras pie mākslīgā radīšanas.

Seko "Delfi" arī Instagram vai YouTube profilā – pievienojies, lai uzzinātu svarīgāko un interesantāko pirmais!