Ar Grūzīti par mākslīgā intelekta pētniecības attīstību un arī dažādu regulējumu ietekmi uz to sarunājās Latvijas Radio žurnāliste Sintija Ambote.
Pieraksties ziņām!
Ja mākslīgā intelekta tēma aizrāvusi, ir iespēja pierakstīties jaunākajām šīs tēmas ziņām, šī raksta beigās nospiežot zvaniņu!
Vairāk par LSM.lv tēmu paziņojumiem un to lietošanu var lasīt te.
Tāpat pievienojies sarunu grupai par un ap mākslīgo intelektu sociālajā tīklā "Facebook".
Sintija Ambote: Kur mūsu ikdienā ir sastopams mākslīgais intelekts?
Normunds Grūzītis: Mūsu ikdienā tas ir pilnīgi visur mums apkārt. Mākslīgais intelekts principā ir joma, kurā problēmām, kam vēl nav atrasti precīzi risinājumi, tiek meklēts tuvināts risinājums ar mašīnmācīšanās palīdzību. Un tas aptuveni līdz ar to nozīmē, ka atkarībā no problēmas sarežģītības tā precizitāte var būt augstāka vai zemāka, bet tā reti kad būs 100%. Tad tai problēmai jābūt ļoti šaurai un specifiskai, nu, piemēram, [automašīnu] numurzīmju atpazīšana. Mēs visi esam pieraduši, ka, piebraucot pie barjeras, tiek atpazīta mūsu numurzīme, tā tiek piereģistrēta un barjera paceļas. Tā ir datorredze, tas ir mākslīgais intelekts, bet tas ir ļoti vienkāršs un fokusēts modelītis, kas šo problēmu principā veic ar teju 100% precizitāti.
Taču ir citas problēmas, kur tā precizitāte nav tik augsta, kā runas transkribēšana. Tāpat mašīntulkošana, seju atpazīšana, mēs esam jau pieraduši, ka telefons mūsu seju atpazīst. Tās ir tādas ļoti fokusētas problēmas, kurās šī mašīnmācīšanās jau strādā ļoti labi.
Šogad visus arī satricināja jaunie valodas modeļi, ka mēs pēkšņi varam ar vienu universālu modeli runāt par jebko un varam viņu pat nosacīti programmēt, dot tam uzdevumus, skaidrot, ko un kādu rezultātu gribam panākt, un tālāk jau strādāt ar kādu čatu. Čata jēdziens arī ir ļoti paplašinājies, un ir izaugusi vēl viena vesela produktu un pakalpojumu gūzma ap šiem modeļiem, kas veikli apstrādā šos nosacīti programmēšanas trikus, kā paprasīt modelim konkrētus uzdevumus risināt, un tam mēs uzbūvējam virsū kādu konkrētu lietojumu, un ir gatavs jauns produkts, ar kuru var pelnīt un risināt kaut kādas vajadzības.
Raugoties nākotnē pēc 10 gadiem, cik ļoti mākslīgais intelekts jau tad būs ienācis cilvēku ikdienā?
Tā kā visām tehnoloģijām ir attīstības cikli, tad šis gads ir spilgts piemērs tam "hype", ko latviski sauc par ažiotāžu, ka tagad, lūk, šis jēdziens, ja vēl pagājušajā gadā bija jāskaidro, ar ko tad īsti mēs nodarbojamies, tad šogad visi zina. Milzīga ažiotāža, ka viss būs pilnīgi ar kājām gaisā, un savā ziņā tā arī ir, bet tajā pašā laikā
visiem šiem ažiotāžas cikliem seko brieduma cikli, ka tas vairs nav tikai vārdu savienojums, kuru mēs liekam klāt pilnīgi visiem produktiem, bet tas ar laiku nomierināsies un kļūs par pašsaprotamu realitāti un instrumentu.
Patiesībā agrāk tas bija tikai viens pētniecības virziens, ar ko nodarbojās konkrētas pētnieku grupas, kas nodarbojās ar valodas tehnoloģijām, datorredzi un tā tālāk, bet šobrīd tas kļūst par instrumentu arī citās zinātnes jomās – bioloģija, ķīmijā, medicīnā.
Kāda būs mākslīgā intelekta nākotne darba vidē un darbaspēka izaicinājumu jomā?
Protams, pirms gada vēl galvenais jautājums bija par to, vai mēs visi zaudēsim darbu, bet šobrīd tās bažas kaut kā ir padzisušas. Ir skaidrs gan, ka kaut kādi darbi līdz ar to zudīs, bet tas ir normāli, jo vienmēr tā ir bijis, ka ar kaut kādām jaunām tehnoloģijām kaut kādas darbības vienkārši kļūst nelietderīgas. Kāpēc izniekot cilvēkresursu kaut kam, ko var automatizēt un savukārt izmantot šo cilvēku resursu kam citam. Mans viedoklis ir, ka eksperti savās jomās vienmēr būs vajadzīgi.
Piemēram, mēs varam teikt – mums nav vajadzīgs vairs ārsts un tagad mēs aiziesim parunāt ar kādu čatu, nu, viņš mums pārliecinoši saģenerēs kaut kādas rekomendācijas, ja vien nebūs instruēts no tādām rekomendācijām izvairīties, bet – vai mēs varam tā akli paļauties, mēs tomēr droši vien gribam, lai tas ir eksperts, kas pieņem kaut kādu gala lēmumu. Tas noteikti nebūs tādā pašplūsmā, ka šie modeļi tagad mums aizvietos cilvēku un cilvēci, bet tas, ka viņi var kļūt par palīgu, ir viennozīmīgi. Tam pašam ārstam, veicot kādu izmeklējumu, varbūt viņš aizmirsis secinājumos kaut ko būtisku pierakstīt un tas, ka viņam paralēli darbojas šāds mākslīgā intelekta modelītis, kas arī skatās līdzi un jautā, vai varbūt secinājumos jāpievieno vēl kaut kas un varbūt kādreiz ārsts noraidīs šo piedāvājumu, bet citreiz konstatēs, ka tiešām to ir aizmirsis un pievienos savā secinājumā. Tādi sīki piemēri, kur eksperts ir vajadzīgs, bet modelis palīdz strādāt.
Es ikdienā pārstāvu datorzinātņu jomu un nosacīti protu programmēt, bet arī es izmantoju šos modeļus šobrīd kā mazus asistentus kādiem programmēšanas uzdevumiem, kuros es saprotu problēmu un māku noformulēt, kā šo problēmu vajadzētu risināt, bet man ir slinkums pašam rakstīt to skriptu, bet šis modelis man perfekti to spēj izdarīt, bet atkal ir vajadzīgs eksperts, kas spēj noformulēt problēmu, kas saprot, vai tas rezultāts ir labs, bet manu darbu tas padara efektīvāku.
Vēl par mākslīgo intelektu
Vai un kā Eiropas Savienība šobrīd atšķiras no pārējās pasaules mākslīgā intelekta pētniecībā?
Šis ir daudzpusīgs jautājums. Viens ir tehnoloģiski. Vai Eiropā ir cilvēkresursu kapacitāte, lai konkurētu ar tiem resursiem un prātiem, kas ir pieejami Amerikā vai citur. Otrs jautājums ir par dažādām regulām un politikām, un dzīves redzējumu, kāds ir ASV un Eiropā. Eiropa un mūsu darba vide ļoti atšķiras. Droši vien, pirmkārt, tā problēma, kas iezīmējās jau pirms daudziem gadiem, ka principā starp akadēmisko pasauli un lielajām korporācijām šī situācija, ka pēkšņi ne tikai Eiropā, bet arī ASV un citur tie prāti un citi resursi aizplūst no akadēmiskās un pētniecības vides un lielajām korporācijām, un vienā brīdī tās virza vislielākās inovācijas. Bet Eiropas specifika noteikti ir vērtības, ka mēs ļoti pievēršam uzmanību ētikai, privātumam, tikai šis process līdz ar to neizbēgami rada arī dažādus izaicinājumus mākslīgā intelekta attīstībā.
Pēc tiem 10 gadiem tad citi reģioni arvien būs priekšgalā mākslīgā intelekta attīstībā, bet šeit Eiropā tā savukārt būs ļoti pārdomāti attīstīta tehnoloģija un produkti?
Es ceru, ka tādas plaisas nebūs, bet Eiropai tas droši vien nāks ilgāk. Pētniecībā gan viss, ar ko mēs nodarbojamies, mums dod jaunas zināšanas un pieredzi. Bet tas parāda to, ka, no vienas puses, šī diskusija ir objektīva, bet, no otras puses, tie ir arī sprunguļi riteņos. Varbūt tā vajag darīt, bet tas attīstību nepaātrina.
Mēs Eiropas Savienībā arī šobrīd kaut kā atšķiramies no citiem reģioniem tajā, kurā virzienā mākslīgais intelekts vairāk tiek attīstīts?
Manuprāt, nē. Ir tehnoloģija kā tāda, nākamais posms ir universāli modeļi, un tad ir ļoti, ļoti daudz lietojumu, kurām nagliņām šo āmuru pielietot.
Kā šajās tehnoloģijās iegūt kaut kādu ieguvumu un risku balansu? Piemēram, kiberuzbrukumu vai dezinformācijas gadījumos to var izmantot gan kā ieroci, gan kā risinājumu.
Bet šī problēma ir ar pilnīgi visu. Mēs jebko varam izmantot dažādi un joprojām veikalos tirgo nažus, lai gan skāde, ko naži ir nodarījuši, ir lielāka nekā skāde tādā acīmredzamā virspusējā līmenī, ko nodara viens vai otrs mākslīgā intelekta modelis, kas ir uzģenerējis kādu viltus ziņu. Tā ka visu var lietot dažādi, un tā ir lietotāju atbildība bieži vien.
Tas ir mīts, ka tagad šie modeļi dzīvo savu dzīvi un visu laiku mācās. Nē, viņi to dara tikai tad, kad kāds viņus apmāca periodiski. Pašam modelim iniciatīva nepiemīt, tā piemīt lietotājam.
Savukārt no pētnieciskās puses tās bažas ir, ka jāļauj spēlēties un tad skatīties, kas sanāk no tā, un pēc tam diskutēt par to rezultātu un pielietojumu, kas ir labs un kas nav.
Tas, kas mani reizēm samulsina, ka, lai šos lielos modeļus satrenētu, mums vajag ļoti daudz datu, bet tā ir ļoti daudzu Eiropas valodu problēma, ka tā informācija neeksistē tādā apjomā, lai mēs varētu izveidot tādus modeļus, kādi ir pieejami angļu, ķīniešu vai spāņu valodai. Tajā pašā laikā tā jaunā tendence un iespēja ir trenēt daudzvalodu modeļus, kas tās zināšanas sasmeļas vienā valodā, un no latviešu valodas mēs varam iemācīt to latvisko kultūru un specifiskas lietas, kas neparādās citās valodās, bet ir specifiskas mums. Lai to visu darītu, ir vajadzīgs viss, kas vien latviski ir saražots. Pietiekami daudz it kā ir pieejams, nerunājot par sensitīviem datiem, kam pašsaprotami nebūtu nekur jāparādās, bet datu izmantošanu ierobežo arī autortiesības. Taču jāsaprot, ka nav mērķis izveidot modeli, kas sāks kopēt un pārkāpt autortiesības. Tā kā nevajadzētu ierobežot pašu tehnoloģiju, bet būt atbildīgiem tās lietošanā.
Taču tas, kas mani uztrauc, ka daži Eiropas līmeņa pētnieki paši proaktīvi saka, ka to mēs nevaram darīt un tās ir autortiesības, un kādam modelim pastāv riski, ka tas var atražot kādu darbu, un tāpēc to nevar padarīt atvērtu, to var darīt tikai laboratorijā zem galda. Un tas liekas dīvaini, ka mēs sākam sevi pašregulēt jau pētniecības procesā.
Vai tas ir arī jaunās Eiropas Savienības Mākslīgā intelekta regulas kontekstā?
Nav jau arī viss traki, tāpat Eiropā visi saprot, ka mums ir jāiet tehnoloģijās uz priekšu, un mēģina to Autortiesību regulu padarīt brīvāku tieši pētniecībai un tehnoloģiju izstrādei. Mākslīgā intelekta regula nemainīs neko būtiski, tā vienkārši ir kaut kāda fakta konstatācija, un es uz to vairāk skatos kā uz rekomendāciju kopumu. Mērķis ir apkarot lielos riskus.