Vai mākslīgais intelekts esam mēs paši? Latviešu zinātnieki diskutē par šīs tehnoloģijas nākotni

Pēdējā laika viena no lielajām aktualitātēm – izrāviens mākslīgā intelekta jomā. Nozīmības ziņā to mēdz salīdzināt pat ar interneta izgudrošanu un ieviešanu. Kamēr vieni uz mākslīgā intelekta straujo attīstību skatās ar aizdomām, citi ir sajūsmā par jaunām iespējām. Bet attīstība neapturami notiek burtiski pa stundām un nenoliedzami itin drīz ar to šādā vai tādā veidā saskarsies ikviens no mums. Par to, kurš šis ceļš var aizvest, sprieda Latvijas un diasporas zinātnieki tiešsaistes sarunā "Mākslīgais intelekts. Kurp ejam?"

Mākslīgais intelekts kā zinātnes nozare patiesībā piedzima jau sen – šo terminu radīja amerikāņu matemātiķis un datorzinātnieks, Masačūsetsas Tehnoloģiju institūta profesors Džons Makārtijs 1956. gadā, lai šo jomu nodalītu no kibernētikas. Viņš un Alens Ņūels, Herberts Saimons, Mārvins Minskis un Artūrs Semjuels kļuva par mākslīgā intelekta izpētes dibinātājiem un līderiem. Kopā ar studentiem viņi izveidoja programmas, kas toreizējai sabiedrībai likās pārsteidzošas un neticamas: datori spēlēja dambreti, pierādīja teorēmas, runāja angļu valodā. 

Kopš tā laika mākslīgā intelekta izpēte piedzīvojusi dažādus posmus: gan kāpumus, gan kritumus; gan paaugstinātu interesi no zinātnieku un investoru puses, gan pieklusuma periodus.

Latvija turas līdzi progresam 

Šobrīd valda pamatīgs mākslīgā intelekta attīstības, pilnveides un izpētes bums. Pasaule vārās, bet neiesaistītajiem šķiet, ka mākslīgā intelekta izpētes jomā Latvijā nekas īsti nenotiek. Tā tomēr nav.

"Mākslīgā intelekta nozare, vismaz zinātnes pusē, ir ļoti atvērta, tāpēc mūsdienās to, cik tālu esam pie mums, Latvijā, universitātē, institūtos, uzņēmumos, ļoti grūti atdalīt no pārējās pasaules," stāstīja Elektronikas un datorzinātņu institūta (EDI) vadošais pētnieks un Robotikas un mašīnuztveres laboratorijas vadītājs Dr. sc. Ing. Roberts Kadiķis, kas savos pētījumos galvenokārt pievēršas mākslīgajam intelektam, datorredzei, mašīnmācīšanās tēmai, dziļo neironu tīkliem, sintētisko apmācības datu ģenerēšanai, skaitļošanas ziņā efektīvu redzes algoritmu izveidei un dabīgā intelektā balstītu konceptu pārnesei uz mākslīgo intelektu. "Var teikt, ka visā pasaulē mēs esam līdzīgi tālu tikuši. Protams, ir atsevišķas nianses, un tad vēl lielāka starpība varbūt ir tagad ar tiem ļoti populārajiem lielajiem valodas modeļiem kā "ChatGPT", un ne tikai valodas modeļiem, bet ko mēs sauktu tagad par fundamentālajiem modeļiem. Lai tādus apmācītu, ir vajadzīgi tādi dati un resursi, kādu, jā, varbūt Latvijā nevienam īsti nav. Tieši tajā šaurajā jomā, kas ir fundamentālie lielie modeļi, tur varbūt ir grūtāk tieši tādus modeļus uztrenēt, bet viņus lietot, uzlabot, izdomāt, kā optimizēt, izdomāt, kur pielietot, – to arī tepat pie mums dara."

Roberts Kadiķis
Roberts Kadiķis

Tieši dalīšanās un atklātība šajā jomā savulaik ieinteresējusi un saistījusi arī Kadiķi. Tiesa, nu jau lielie uzņēmumi, vēloties aizskriet priekšā konkurentiem, tik dāsni ar atklājumiem vairs nedaloties: "Kaut kur ap 2015. gadu, kad viss bija ļoti atklāts, tika dots pasaulei uz āru, bija moments, kad lielie uzņēmumi, tādi kā "Facebook", "Google" un tamlīdzīgi, sāka no lielajām universitātēm izpirkt profesorus, kas bija šo jomu pētījuši arī "sasaluma" laikā. Tad nu šie profesori ienāca šajos lielajos uzņēmumos ar to savu kultūru, viņi joprojām gribēja dalīties, rādīt savus modeļus, un tas varbūt bija viens no lielajiem iemesliem, kāpēc tā joma arī turpināja ļoti strauji attīstīties – visi labi dalījās. Tagad lielie uzņēmumi mēģina vairāk pie sevis paturēt, lai konkurētu tālāk, bet vēl joprojām tā joma ir diezgan atvērta."

Aizliegt nav risinājums

Šobrīd atskan arī daudzi aicinājumi apturēt mākslīgā intelekta attīstību, pat aizliegt. Tomēr skaidrs, ka aizliegumi neko nedos, viss jau notiek, ir kļuvis un arvien vairāk kļūst par ikdienas sastāvdaļu daudziem cilvēkiem. 

Tāpēc ļoti nozīmīgi kļūst ētiskie jautājumi – datu aizsardzība, autortiesību jautājumi, tiesiskais regulējums. Šobrīd tehnoloģijas skrien uz priekšu, bet likumdošana mēģina tās panākt, steidzoties nopakaļ. 

"Svarīgs kopējais skats, atsevišķas institūcijas var darīt ļoti maz," uzsvēra Latvijas Universitātes Juridiskās fakultātes Juridiskās zinātnes institūta pētniece un lektore Dr. iur. Irēna Barkāne. Kā eksperte viņa piedalījusies UNESCO starptautiskajā darba grupā, kas izstrādā rekomendācijas par mākslīgā intelekta ētiku.

Mākslīgā intelekta attīstības ātrums pēdējos mēnešos motivējis vairākas prominentas personas uzrakstīt atklātu vēstuli ar lūgumu apturēt mākslīgā intelekta treniņus, lai sagatavotu priekšrakstus un ietvaru, kā mākslīgā intelekta treniņi ietu uz priekšu ētiskākā ietvarā.

"Situācija šobrīd ir ļoti interesanta, un arī mākslīgā intelekta regulējumi attīstības jomā, jo tik tiešām – aprīļa sākumā "Future of Life" publiskoja atklāto vēstuli, ko parakstījuši vairāk nekā 10 000 [nu jau parakstu skaits tuvojas 30 000] speciālistu un uzņēmumu vadītāju, tostarp arī Īlons Masks, aicinot piemērot šo pagaidu aizliegumu uz sešiem mēnešiem," sacīja Barkāne. 

Irēna Barkāne
Irēna Barkāne

Barkāne uzskata, ka aizliegt šīs tehnoloģijas nav īstais risinājums: "Jo tā saucamie tērzēšanas roboti kā "ChatGPT", arī bilžu veidošanas lietotnes ļoti daudziem jau ir kļuvušas par noderīgām lietotnēm, un tās viennozīmīgi ir uz palikšanu. "ChatGPT" ir ļoti nozīmīga un jauna veida tehnoloģija, kas var būt ļoti noderīga cilvēkiem gan ikdienā, gan profesionālo pienākumu pildīšanā, un tā ir kļuvusi ļoti populāra ar visstraujāk augošo lietotāju skaitu. Lai gan sagaidāms, ka nākamajos gados šī tehnoloģija sniegs milzīgus ieguvumus, tā rada arī virkni politisku un juridisku jautājumu par privātumu, datu aizsardzību, intelektuālā īpašuma tiesībām, atbildību, kā arī bažas par to, vai tādā veidā netiks izplatīta dezinformācija. Par aizliegumu varēja runāt, pirms šī tehnoloģija kļuva pieejama plašākai sabiedrībai, pirms cilvēki saprata, cik tā var būt noderīga, jo šobrīd jādomā par to, kā var to izmantot, lai tā sniegtu labumu, vienlaicīgi arī novēršot riskus un apdraudējumus un domājot, kā panākt šo delikāto līdzsvaru starp šīs tehnoloģijas ieviešanas veicināšanu, vienlaikus nodrošinot arī atbilstošus aizsardzības pasākumus."

Regulējumi mēģina panākt tehnoloģijas

Barkāne uzsvēra, ka vēstulē daudz kas ir pārspīlēts un daudz kas no zinātniskās fantastikas, pārspīlētas arī mākslīgā intelekta spējas: ""ChatGPT" noteikti ir dažādas iespējas tādā ātrumā un mērogā, kā cilvēkiem nav, taču dažreiz tas sniedz atbildes, kas ir neprecīzas, neobjektīvas, arī muļķīgas, un tā tīri matemātisko pieeju argumentācijai nevajadzētu sajaukt ar cilvēkam līdzīgu inteliģenci."

Tomēr vēstulē norādīts arī uz dažādiem nopietniem riskiem: propaganda, dezinformācijas izplatīšana. 

Barkāne norādīja: "Galvenais jautājums tomēr ir, – ko mēs šobrīd varam darīt. Pašregulācija nestrādās, un tas nebūs pietiekami, jo nevar sagaidīt, ka uzņēmumi, kas attīsta šīs tehnoloģijas, tiešām ierobežos savu darbību. Ir nepieciešams izstrādāt juridiski tiesiski saistošu regulējumu, kurš turklāt ir saderīgs ar esošo regulējumu, un tas pavisam drīz tiks arī pieņemts, vismaz Eiropas Savienībā. Šajā vēstulē nekas par to nav minēts, bet darbs pie šāda regulējuma izstrādes notiek ļoti sen. 2019. gadā Ekonomiskās sadarbības un attīstības organizācijā (OECD) pieņēma rekomendāciju par mākslīgā intelekta ētiku. UNESCO 2021. gadā pieņēma rekomendāciju par mākslīgā intelekta ētiku, arī lūdzot, lai valstis izstrādā savu regulējumu. Eiropas Savienībā (ES) jau no 2018. gada tiek izstrādāts regulējums, un arī Eiropas Padome izstrādā šobrīd konvenciju, kas regulēs mākslīgo intelektu. Kamēr šī regulējuma nav, Eiropā daudzas datu aizsardzības uzraudzības iestādes ir sākušas izmeklēšanu un mēģina panākt, lai tiktu nodrošināta "ChatGPT" atbilstība esošajam datu aizsardzības regulējumam."

Vai mākslīgais intelekts esam mēs paši?

Itālijā nesen pieņemts lēmums par "ChatGPT" pagaidu aizliegumu, pamatojoties uz to, ka ir neskaidrs veids, kā tiek vākti dati, ar kuriem tas tiek apmācīts, un kā dati tiek izmantoti tālākapmācībā. Kā arī tika norādīts, ka uz mākslīgā intelekta atbildēm nevar paļauties. Tika minēts arī tas, ka jānodrošina vecuma ierobežojums personām, kas to drīkst izmantot.  

"Šis Itālijas aizliegums no vienas puses ir kā skaidrs brīdinājums, ka datu aizsardzības prasības ir nopietni uztveramas un ka būtu jāatbilst šīm prasībām. Arī daudzas citas iestādes Francijā, Vācijā, Īrijā un arī Eiropas datu aizsardzības kolēģija, kas ir tāda kā uzraugošā institūcija ES, izmeklē šobrīd šī "ChatGPT" atbilstību datu aizsardzības prasībām. Ir jāvienojas ES ietvaros, jābūt vienotai pieejai, un ir nepieciešams šis jaunais ES mākslīgā intelekta regulējums. Regulējuma pieņemšana ir ļoti lēna, un tad, kad tas tiek pieņemts, tehnoloģijas jau ir attīstījušās un citādākas. Bet šobrīd vēl ir iespēja ietvert nepieciešamos noteikumus regulējumā, šīs prasības, kas paredzētas augsta riska sistēmām, attiecinot arī uz "ChatGPT"," stāstīja Barkāne. 

Latvijas līmenī nedarbojas kāda īpaša darba grupa saistībā ar šo, jautājums tiek izstrādāts ES līmenī, jo līdzīgi kā datu aizsardzības regula arī jaunais mākslīgā intelekta akts būs piemērojams visās ES dalībvalstīs. "Atsevišķas iestādes var darīt ļoti maz, var pieņemt atsevišķus lēmumus, bet, ja nebūs šī starptautiskā vai Eiropas redzējuma un regulējuma, netiks nodrošināta atbildība, un mēs dzīvosim "mežonīgajos rietumos"," piebilda Barkāne. 

Būtisks ir arī ētiskais aspekts, ietvari, kas nosaka, ko un kā mācīt mākslīgajam intelektam. Arī šos jautājumus paredzēts risināt, lai dati tiktu vākti atbilstoši, lai tiktu nodrošināta datu kvalitāte un nebūtu tā, ka sistēma rada aizspriedumus, diskrimināciju, jo rezultāts, ko izdod mākslīgais intelekts, ir ļoti atkarīgs no savāktajiem datiem, no "apmācības". Tā šobrīd ir viena no lielajām risināmajām problēmām, šis jautājums ietverts arī juridiski nesaistošajā UNESCO mākslīgā intelekta ētikas rekomendācijā, un arī tālāk mākslīgā intelekta aktā paredzēts to kaut kā risināt un regulēt. 

Agnis Stibe
Agnis Stibe

Savukārt pētnieks Dr. Agnis Stibe uzskata – mākslīgais intelekts jau esam mēs paši, un mākslīgā intelekta ētika ir tā pati cilvēku ētika: "Mēs saskaramies paši ar savu dabu. Tas viss, ko mēs cenšamies šobrīd panākt ar regulējumiem, – lai mēs savu tumšo dabas pusi apvaldītu vai pārvaldītu. Mēs neesam radījuši neko mākslīgu, mēs esam radījuši tehnoloģisku atbalstu savas inteliģences paplašināšanai. Un, ja mēs to saprotam, tad mēs skatāmies, kā šis tehnoloģiskais palīgs mums palīdz izglītībā, pārvaldībā, drošībā un visos citos jautājumos, kur mēs, cilvēki, paši saskaramies ar savu cilvēka dabu."

Panākt, lai melnā kaste kļūst caurredzama

Vēl viena joma, kura cieši saskaras ar mākslīgā intelekta izmantošanu, ir izglītība. Barkānes viedoklis ir, ka jaunie rīki var būt ļoti noderīgi gan pasniedzējiem, gan studentiem, bet šī brīža mākslīgā intelekta attīstības stadijā jābūt ļoti piesardzīgiem, jo mākslīgais intelekts mēdz dot nepatiesu un pat brīžiem ļoti komisku informāciju, pat pilnīgas muļķības. Turklāt mākslīgā intelekta izmantošana rada daudz jautājumu – par plaģiātismu, par privātumu. 

Stibe aicina pasniedzējus būt radošiem un, piemēram, ļaut studentiem izmantot mākslīgo intelektu, pašiem pēc tam pārbaudot tā kļūdas. 

Kadiķis bilda, ka šobrīd aizliegt lietot mākslīgo intelektu būtu bezcerīgi un arī kontrolēt to tāpat nebūtu iespējams, tāpēc būtiski ir norādīt, ka šie rīki nav nekļūdīgi. Vēl viens aspekts – cilvēkam tad ir jāuzņemas atbildība ne tikai par sevis rakstīto, bet arī par mākslīgā intelekta izdoto informāciju. 

"Mākslīgais intelekts pēc būtības ir kā melnā kaste – mēs iedodam datus, viņš izdod rezultātus," viņš salīdzināja, runājot, piemēram, par slimību diagnosticēšanu pēc rentgena attēliem. "Protams, mēs viņu esam apmācījuši parasti izdot pareizu rezultātu, bet ne vienmēr tā būs, un mēs nevarēsim uzzināt, kāpēc viņš ir izlēmis, ka, piemēram, šajā attēlā, jā, ir konstatēta tā slimība vai nav. Tur ir vesela pētniecības joma, kas ir izskaidrojamais mākslīgais intelekts, ar ko mēs arī Elektronikas un datorzinātņu institūtā nodarbojamies. Tas ir par to, kā panākt, lai šī kaste nav tik melna, lai mēs nedaudz redzam tai cauri. Piemēram, ja attēlā mākslīgais intelekts ir konstatējis, ka ir nelabs veidojums šajos audos, lai viņš arī norāda, vismaz iekrāso, kuras pazīmes viņam lika tā domāt, lai pēc tam, iedodot rezultātu ārstam un pacientam, ārsts var tiešām redzēt – jā, es arī būtu pieņēmis līdzīgu lēmumu, jo es saprotu, kāpēc tas tā ir noticis. Bet tā ir joprojām joma, kas vēl tikai pētniecībā, kurai, cerams, rezultāti nāks ar gadiem."

Stibe gan oponēja, sakot, ka tādā gadījumā mums, cilvēkiem, ir "pelēkā kaste", ar to domājot smadzenes. Arī ārstam tad katru reizi būtu jāpaskaidro, kāpēc viņš uzstādījis tādu vai šādu diagnozi. Viņš arī uzsvēra, ka mākslīgais intelekts nav jāuztver kā drauds, bet kā cilvēka radīts palīgs: "Man nepatīk tas vārds "mākslīgais". Es teiktu, tie ir tehnoloģijās balstīti, tehnoloģiju vadīti digitālie aģenti, palīgi, kas prot spriest, prot kaut ko darīt, līdzīgi kā cilvēks. Šobrīd šaurās jomā jau ļoti labi, ja mēs varētu to paplašināt, tas būtu līdzīgi kā cilvēks. Plus mēs mācām, kā viņam pašam mācīties, lai kļūtu spējīgāks."

Lielās krustceles un nezināmā nākotne

Kas gan mums sagaidāms nākotnē? Daļa ļaužu ir nobažījušies, daļa – priecājas par jauno pasauli. Ko tā mums nesīs?  

"Šobrīd šos rīkus ne tikai pētu, bet arī izmantoju ikdienā. Redzu, ka nākotnē tādas lietas tikai pieaugs. Viens cilvēks spēs izdarīt daudz vairāk, nekā viņš šobrīd spēj iedomāties. No šādas puses skatoties, tā var būt ļoti gaiša nākotne. Protams, ja cilvēkam ir slikti nodomi, viņš arī sliktas lietas varēs izdarīt daudz plašāk. Domāju, ka dažādi produkti kļūs daudz personalizētāki. Jau tagad, piemēram, tiek veidotas individuālas pasaku grāmatas konkrētam bērnam," sacīja Kadiķis. 

Arī Barkāne piekrita, ka mākslīgais intelekts tikai attīstīsies un kļūs arvien plašāk izmantojams un arvien jaudīgāks: "Man ir lielas cerības, ka tas tiks beigās arī pietiekami nopietni uztverts un noregulēts, lai atbilstu cilvēktiesībām, demokrātiskām vērtībām, tiesiskumam, lai drošības jomā būtu regulējums, kas šobrīd iztrūkst."

Stibe ir optimistisks: "Neko mākslīgais intelekts pats mums sliktu neizdarīs! Visiem, kas satraucas, klausās, skatās filmas, atbilde ir – nē. Jo attīstītāku tehnoloģiju mēs veidojam, jo ar lielāku izšķirtspēju mēs ieraugām paši sevi. Punkts. Kādreiz bija āmurs, ar āmuru var sist naglas vai cilvēkus. Tagad ir mākslīgais intelekts. Un tas ir tieši tas pats. Gluži kā pirms 2000 gadiem bija regulējums "nesit ar āmuru kaimiņam", tāpat mums vajag regulējumu šobrīd. Mēs paši cenšamies pārvaldīt savu dabu, un mākslīgais intelekts ir sava veida paplašinātājs. Attālums, kas mums kādreiz bija starp cilvēka pelēko kastīti un ārējo melno kasti, bija ļoti liels, bet tagad tehnoloģijas ar visām tām brillēm un citām lietām, mūs satuvina. Jo tuvāk saplūstam, jo svarīgāk pārvaldīt tumšo pusi. Un tā arī būs nākotne – saplūšana."

Izcilais zinātnieks Stīvens Hokings reiz par mākslīgo intelektu teica: "Tas būs vai nu vislabākais, kas ar mums jebkad ir noticis, vai arī vissliktākais. Ja mēs nebūsim uzmanīgi, tas visai droši var būt otrais variants." Šobrīd cilvēce vēl atrodas krustcelēs. Bet tikpat labi vienmēr iespējams arī trešais variants. 


Saruna ir viens no V Pasaules latviešu zinātnieku kongresa ieskaņas pasākumiem, ko organizē diasporas zinātnieku, uzņēmēju un starptautisko organizāciju profesionāļu kustība #esiLV un Eiropas Latviešu apvienība ar Izglītības un zinātnes ministrijas atbalstu. Sarunu moderē Latvijas Jauno zinātnieku apvienības pārstāve Laura Bužinska. 

Kļūda rakstā?

Iezīmējiet tekstu un spiediet Ctrl+Enter, lai nosūtītu labojamo teksta fragmentu redaktoram!

Iezīmējiet tekstu un spiediet uz Ziņot par kļūdu pogas, lai nosūtītu labojamo teksta fragmentu redaktoram!

Saistītie raksti

Vairāk

Svarīgākais šobrīd

Vairāk

Interesanti