Mākslīgā intelekta (MI) valodas modelis "ChatGPT" turpina pārsteigt. Un dažu labu varbūt arī padarīt bažīgu – vai drīzumā mūs ārstēs algoritms, nevis apmācīti profesionāļi? Ne gluži. Taču par asistentu mediķiem gan šādi valodu modeļi kādreiz varētu kļūt. Galu galā MI risinājumus medicīnā jau izmanto šobrīd tādās jomās kā radioloģija. Nupat populārais "ChatGPT" pierādījis savu potenciālu un gandrīz nokārtojis ASV medicīnas profesionāļu licencēšanas testu jeb USMLE (US Medical Licensing Exam).

USMLE pārbaudījumu veido trīs eksāmeni, un tas nav nekāda "viegla pastaiga parkā". Kā raksta vietne "Science Alert", lai sagatavotos šim eksāmenam, parasti vajag ieguldīt vairākus simtus stundu darba, un tematu loks ir ļoti plašs. Gan eksakto zinātņu pamati, gan jau specializēti medicīnas jautājumi, gan bioētikas situāciju analīze. Pētnieki pirms valodas modeļa "eksaminēšanas" arī pārbaudīja, vai atbildes uz šiem USMLE jautājumiem noteiktā formulējumā jau nav brīvi pieejamas tīmeklī, lai salīdzinātu, cik oriģinālas atbildes valodas modelis piedāvās.

"ChatGPT" atsevišķajos testos uzrādīja rezultātus no 52,4 līdz 75 procentiem. Lai tests tiktu uzskatīts par sekmīgi nokārtotu, jābūt ap 60 procentiem pareizu atbilžu. Tādējādi gluži izcilnieks šis algoritms nav, bet ir ļoti tuvu robežai, lai nokārtotu visu lielo eksāmenu. Kas interesanti, lielākajā daļā gadījumu valodas modelis arī izvērsti argumentēja savu atbildi un raksturoja situāciju gan oriģināli, gan korekti no klīniskā viedokļa. Turklāt tas apsteidza "PubMedGPT" – valodas modeli, kas apmācīts tieši ar medicīnas literatūru. Šim čatbotam pareizi izdevās atbildēt tikai pusē gadījumu.

Taču – un šis ir pats būtiskākais – jāatceras, ka "ChatGPT" ir tikai valodas modelis un nezina lietas šī vārda ierastajā izpratnē. Tas nezina, ka simptomi X un Y ir raksturīgi slimībai Z, vai ka tādi un tādi faktori var izraisīt konkrētas veselības problēmas. Gluži vienkāršots skaidrojums, taču šāds valodas modelis ir "varbūtību mašīna". Proti, tie ir apmācīti ar milzīgu (tiešām, ļoti milzīgu!) daudzumu teksta un var izdarīt prognozes, kādi vārdi vai frāzes parasti seko citiem vārdiem vai frāzēm teikumā.

Valodas modelis spēj uzkonstruēt teikumus, kas gan pēc formas ir sakarīgi, gan arī pēc satura šķiet ticami un loģiski. Taču, kā norāda "Science Alert", atslēgas vārds ir "šķiet". Arī podkāstā "Zinātne vai muļķības" mākslīgā intelekta pētnieki norādīja, ka maldīgi par "ChatGPT" runāt kā par domājošu algoritmu.

"Tie "domā" tikai nosacīti un tikai brīdī, kad mēs kaut ko jautājam. Brīžos starp jautājumiem šie modeļi neko nedomā un arī neapmācās. Modelis vienreiz ir apmācīts ar lielu datu apjomu, un tāds tas arī ir. Mēs, protams, varam apmācīt to atkārtoti ar jauniem datiem un parametriem, taču pats no sevis tas jaunus uzdevumus neizvirza un neizdomā, ko risināt," skaidroja Latvijas Universitātes Matemātikas un informātikas institūta Mākslīgā intelekta laboratorijas vadītājs Normunds Grūzītis.
Tieši tāpēc šo eksperimentu, kur "ChatGPT" gandrīz nokārto mediķu eksāmenu, nevajadzētu uztvert kā priekšvēstnesi, ka ārsti drīz varēs piepulcēties bezdarbniekiem.
Potenciāls ir, taču vispirms jau kā asistentam, nevis ārstam. Galavārdam tādos sarežģītos jautājumos kā medicīna (diagnostika) vai, piemēram, tiesu prakse, tomēr jābūt cilvēka ziņā.

Starp citu, šis nav vienīgais eksāmens, kurā "ChatGPT" visai sekmīgi izdevies notēlot zinošu cilvēku. Raidorganizācija "CNN" nesen vēstīja, ka valodas modelim izdevies nokārtot eksāmenus tiesību zinātnē Minesotas Universitātē un biznesa zinību eksāmenu Pensilvānijas Universitātes Vartona biznesa skolā. Šo universitāšu profesori, vērtējot eksāmenus, nezināja, kuru atbilžu autors ir čatbots. Eksāmenā bija gan atvērtie jautājumi, gan slēgti vairāku izvēļu jautājumi. Līdzīgi kā medicīnas eksāmenā, arī šeit "ChatGPT" gluži nebija izcilnieks. Drīzāk tāds viduvējs students. Taču eksāmeni tiesību zinātnē būtu nokārtoti vidēji C līmenī, bet biznesa zinībās pat B līmenī.

Vājā vieta valodas modelim aizvien mēdz būt skaitļi. Īpaši biznesa zinību eksāmenā tas spējis lieliski atbildēt uz jautājumiem par procesu vadību un analīzi, bet reizēm pieļāvis rupjas kļūdas vienkāršās matemātiskās darbībās. Par grāmatvedi "ChatGPT" likt nevajadzētu.

Seko "Delfi" arī Instagram vai YouTube profilā – pievienojies, lai uzzinātu svarīgāko un interesantāko pirmais!