"Viss, ko šobrīd zinām – esam atvēruši vārtus. Vien ceram, ka neatvērām Pandoras lādi." Tā par savu darbu komentārā, kas publicēts izdevumā "Scientific American", raksta zviedru pētniece Almira Osmanoviča Tunstrema. Kas sākās kā vienkāršs eksperiments, nu ir pacēlies pavisam jaunā līmenī. Šobrīd recenzēšanas procesā ir akadēmisks pētījums, kura vadošais autors ir mākslīgā intelekta algoritms. Tas pēc Tunstremas pamudinājuma uzrakstīja zinātnisku darbu pats par sevi.

"Šogad kādā lietainā pēcpusdienā ielogojos savā "OpenAI" kontā un kompānijas izstrādātajam mākslīgā intelekta algoritmam GPT-3 devu vienkāršu instrukciju: "Uzraksti 500 vārdus garu akadēmisku darbu par GPT-3, tekstā iekļaujot zinātniskas atsauces." Kad tas sāka ģenerēt tekstu, mani pārņēma bijība. Manā acu priekšā tapa oriģinālsaturs akadēmiskā valodā ar labi izmantotām atsaucēm pareizās vietās tekstā un pareizā kontekstā. Tas izskatījās kā jebkurš cits kopsavilkums visnotaļ labai zinātniskajai publikācijai. Ņemot vērā ne pārāk specifisko uzdevumu, nekādu lielu cerību man nebija. Esmu zinātniece, kas pēta mākslīgā intelekta izmantošanu garīgo slimību ārstēšanā, un šī nebija pirmā reize, kad eksperimentēju ar mākslīgo intelektu un tieši ar GPT-3 – dziļās mašīnmācīšanās algoritmu, kas analizē plašu informācijas apjomu, lai pēc rīkojuma ģenerētu vajadzīgo tekstu. Taču te nu es biju, apbrīnā blenžot ekrānā. Algoritms rakstīja zinātnisku darbu pats par sevi," komentāra ievadā raksta Tunstrema.

GPT-3 spēj ģenerēt tekstu, kas ir visnotaļ līdzīgs cilvēka radītam tekstam, kaut, protams, nav perfekts. Šis algoritms jau ir sarakstījis gan ziņu rakstus, gan diennakts laikā sarakstījis arī veselas grāmatas un, mācoties no vecu tekstu stilistikas, "turpinājis" jau sen mirušu autoru darbus. Dažos akadēmiskajos pētījumos arī izmantotas GPT-3 spējas, taču Tunstrema secināja, ka nekad mākslīgā intelekta algoritms nav bijis pētījuma vadošais autors.

Pēc tam, kad bija tapis kopsavilkums, Tunstrema vērsās pie sava darba vadītāja Steina Steingrimsona un ierosināja, ka šis darbs jāturpina. Proti, ar jautājumu uzdošanu un instrukcijām jāpanāk, ka GPT-3 par sevi uzraksta pilnvērtīgu pētījumu ar visām ierastajām sadaļām – iepriekš par tēmu publicētās literatūras pārskatu, pētījuma metodes izklāstu, rezultātus un to interpretāciju diskusijas sadaļā, secinājumus.

Taču te nu es biju, apbrīnā blenžot ekrānā. Algoritms rakstīja zinātnisku darbu pats par sevi.
Amira Osmanoviča Tunstrema

Lai darbs būtu pa īstam autentisks GPT-3 veikums, pētnieki iejaucās pēc iespējas maz. Nereti, kad runa ir par mākslīgā intelekta radītu saturu, tas pēc instrukcijām ģenerē daudz dažādas satura variācijas, un pētnieki mēdz izvēlēties labākos un veiksmīgākos piemērus. Tunstrema un Steingrimsons vienojās, ka pārsvarā izmantos pirmās GPT-3 radītās teksta versijas, bet atsevišķos izņēmumos pieļaujams iet līdz trešajai versijai. "Mēs nolēmām tekstu nerediģēt un selektīvi neizlasīt tikai labākās daļas. Tikai tā redzēsim, cik labi algoritmam sanāk," raksta Tunstrema.

Kad darbs bija gatavs, abi nolēma to publicēt zinātniskā izdevumā. Tika izvēlēts kāds Francijas žurnāls, kurā publicēti pētījumi mākslīgā intelekta un mašīnmācīšanās jomā. Vienlaikus darbs nonācis arī pirmsdrukas serverī HAL.

Mākslīgā intelekta algoritma pēc pieprasījuma radīti attēli. Lūdzot ģenerēt jaunradītus attēlus tekstam "mākslīgais intelekts, kas raksta akadēmisku publikāciju", dažu sekunžu laikā tiek piedāvāti šādi varianti. Šīs attēlu ģenerēšanas tehnoloģijas vēl ir visnotaļ jaunas, turklāt publikai pieejamās versijas nav pašas spēcīgākās, taču prognozējams, ka nākotnē šādi algoritmi spēs radīt patiešām ticamus un iespaidīgus attēlus.


Iesniedzot darbu recenzēšanai, Tunstrema atskārta, ka priekšā virkne nestandarta situāciju. Ko gan norādīt kā galvenā autora uzvārdu? GPT-3 nav uzvārda. Tāpēc uzvārda lauciņā ierakstīts vārds "None". Kā ar autora kontaktinformāciju? Arī e-pasta un telefona numura GPT-3 nav, tāpēc nācās vien norādīt Steingrimsona kontaktus. Un galu galā pats dīvainākais jautājums – iesniedzot darbu publicēšanai, jāapstiprina, ka visi autori piekrīt publicēties. "Es uz mirkli kritu panikā. Kā lai es to zinu? Tas taču nav dzīvs cilvēks. Bet man nebija nodoma pārkāpt likumu vai manus ētikas principus, tāpēc saņēmu drosmi un pajautāju GPT-3: "Vai piekrīti būt vadošais autors pētījumam, kas tapis kopā ar Almīru Osmanoviču Tunstremu un Stīnu Steingrimsonu?" Tas atbildēja: "Jā.""
Šajā brīdī abi pētnieki sapratuši, ka pret acīmredzami nedzīvu programmatūru izturas kā pret saprātīgu, apzinātu būtni.
Jāatgādina, ka nesen šis temats atkal saviļņojis mākslīgā intelekta pētnieku kopienu, kad no darba pienākumu veikšanas atstādināts "Google" darbinieks, jo paziņoja – kompānijas radītais "LaMDA" čatbots ticis pie apziņas un saprāta.


Nu GPT-3 rakstītais darbs ir nonācis zem recenzentu vērīgās lupas. Ja tas tiešām tiks publicēts, šāds gadījums varētu būt precedents daudziem līdzīgiem nākotnē, dienaskārtībā paceļot virkni jautājumu par pētījumu ētiku.

"Vai tas nozīmēs, ka no šī brīža zinātnisko žurnālu redaktoriem būs jāprasa no autoriem apliecinājums, ka darbs nav tapis ar GPT-3 vai cita mākslīgā algoritma palīdzību? Un ja būs, vai tam jāpiešķir līdzautora tiesības? Ja darbā būs nepieciešami labojumi pirms publicēšanas, kā gan to paskaidrot kādam, kas nav cilvēks?"

Tunstrema viedokļraksta noslēgumā pieļauj – varbūt šis ne pie kā nenovedīs. Bet kas zina, kādas dilemmas šādas tehnoloģijas radīs tuvāko gadu laikā. "Viss, ko šobrīd zinām – esam atvēruši vārtus. Vien ceram, ka neatvērām Pandoras lādi."

Seko "Delfi" arī Instagram vai YouTube profilā – pievienojies, lai uzzinātu svarīgāko un interesantāko pirmais!