Brīvības bulvāris

Iveta Kažoka: Mums ir neliela politiskā stagnācija valstī, šis ir vairāk mazu darbu laiks

Brīvības bulvāris

Andrejs Veisbergs: Vārdu krājums ir audzis. Ne katrs valodas lietotājs ir dubultojis to

Jurģis Šķilters: Īsti nezinām, kā cilvēks mijiedarbojas ar mākslīgā intelekta sistēmām

Mākslīgais intelekts un tas, ko mēs vēl nezinām. Saruna ar profesoru Šķilteru

Ir ļoti daudz pētījumu par mākslīgā intelekta izveidi un par cilvēka bioloģiskajiem procesiem, bet – kā tie savā starpā mijiedarbojas, kāda ir šīs interakcijas specifika, cena, zaudējumi, ieguvumi – tas ir daudz mazāk skaidrs. Šobrīd tehnoloģiskā perspektīva aizskrien priekšā tam, ko zinām par cilvēka uztveres un kognitīvajiem procesiem, Latvijas Radio raidījumā "Brīvības bulvāris" vērtēja kognitīvo zinātņu pētnieks profesors Jurģis Šķilters. 

Jurģis Šķilters ir Latvijas Universitātes profesors, Datorikas fakultātes Uztveres un kognitīvo sistēmu laboratorijas vadītājs. Doktora grādu ieguvis Maincas Universitātē kognitīvajās zinātnēs. Studējis filozofiju Latvijas Universitātē, Kārļa Universitātē Prāgā un Greifsvaldes Universitātē Vācijā. Studējis arī Austrumeiropas vēsturi un grāmatzinātni. 

Viņš ir kognitīvo zinātņu pētniecības aizsācējs Latvijā. 2005. gadā Latvijas Universitātē nodibinājis Kognitīvo zinātņu un semantikas centru, savos pētījumos pievērsies valodai un tam, kā domājam, uztveram pasauli un sevi. Uztveres un komunikatīvo sistēmu laboratorijas pētniecības ietvaros pēta virzienus, kas saistīti ar krāsu un formu kategorizāciju un to uztveri plašākā kontekstā, un telpas uztveres pētniecību. 

2015. gadā saņēmis Ziedoņa balvu zinātnē. Daudzu starptautiski atzītu filozofijas, kognitīvo zinātņu un semantikas izdevumu rakstu autors, kā arī grāmatu autors.

Gints Grūbe: Eksperti saka, ka mēs pašlaik esam tikai paša sākuma beigu posmā, runājot par to, kā mākslīgais intelekts mainīs mūsu dzīvi pilnībā – gan to, kā dzīvojam, kāda ir mūsu izglītība un kāds ir mūsu darbs. Šobrīd arī bailes no kara maina mūsu uztveri, sociālie mediji jau sen ir mūsu realitātes daļa. Kā vispār ir iespējams atbildēt uz to, kādā ziņā notikumi ietekmē mūs, vai precīzāk, – ko indivīds vispār var ietekmēt, kas ir tas pasaules notikumu līmenis, kurus mēs varam un kurus mēs nevaram ietekmēt?

Jurģis Šķilters: Droši vien stāsts par mākslīgo intelektu un stāsts par karu ir ļoti atšķirīgi pēc jēgas un būtības, bet, domājot par mākslīgo intelektu, man liekas, ka kognitīvo zinātņu pētniekiem tas nav tāds pārāk liels pārsteigums, jo faktiski tehnoloģiskā attīstība visnotaļ paredzami mūs novedusi situācijā, kad ir ļoti jaudīgas mākslīgā intelekta sistēmas. Patiesībā arī kolēģu vidū ļoti liela pārsteiguma par šo nav. Drīzāk ir viena cita problēma – mēs īsti nezinām, kā cilvēks, ikviens no mums kā bioloģisks veidojums, – kā mēs mijiedarbojamies ar tām jaudīgajām mākslīgā intelekta sistēmām. Tas ir salīdzinoši mazāk pētīts. Ir ļoti daudz pētījumu par mākslīgā intelekta izveidi, ir ļoti daudz pētījumu par cilvēka bioloģiskajiem procesiem, kas nosacīti darbina mūsu dabisko intelektu, bet – kā tie savā starpā mijiedarbojas un kas ir tā interakcijas specifika, cena, zaudējumi, ieguvumi, tas ir daudz mazāk skaidrs. Ir ļoti daudz lietu, ko mēs nezinām, kas notiek ar mūsu uztveri, mūsu atcerēšanos, mūsu kaut kādām telpiskām navigācijas spējām izmantot mākslīgā intelekta sistēmas. Šādi skatoties, tā problēma ir jau pāris gadus sena. Vienkārši šobrīd mums tās jaudīgās dialoga sistēmas, kas ir viena veida mākslīgā intelekta sistēmas, – tātad "ChatGPT" un līdzīgas lietas, pārsteidzoši labi darbojas par spīti visam, bet tas jau ir diezgan pašsaprotami.

Mēs esam adaptīvi hameleoni, mēs patiesībā evolūcijas gaitā ļoti meistarīgi pielāgojamies jaunajiem rīkiem, jaunajām nosacīti kognitīvajām un tehnoloģiskajām nišām.

Ir kaut kādi aspekti, kuros mēs ļoti ātri pielāgojamies, kaut kādi aspekti, kuros mēs pielāgojamies lēnāk. Piemēram, domāt par digitālajiem sociālajiem tīkliem. Ir pagājuši padsmit gadi, un digitālie sociālie tīkli no savas informatīvās funkcijas, kādas sākotnēji bija, kļuvuši par tādu sociālu atbalsta tīklu. Ja mēs domājam par digitāliem sociālajiem tīkliem, tiem ir plašāka funkcija, ar to palīdzību cilvēki īsteno savas sociālas vajadzības pēc atzīšanas, pēc līdzsvara, pēc draugiem, pēc iekļaušanās sabiedrībā. Protams, tas ir atšķirīgi, salīdzinot ar klātienes situācijām, bet to, ka digitālu rīku funkcijas laika gaitā ir ļoti strauji mainījušās, to mēs, protams, varam novērot. Man kā pētniekam visinteresantāk ir skatīties, kas notiek ar cilvēku kā tādu hibrīdu veidojumu – no vienas puses, mums ir tās bioloģiskās kognitīvās funkcijas mūsu smadzenēs, no otras puses, mēs lietojam digitālos sociālos tīklus, priecājamies, bēdājamies. 

Bet kaut kādā ziņā ir riski un bažas, ka cilvēks zaudē brīvību, – viņš tur tiek novērots, kontrolēts, uz viņa ieradumu bāzes tiek izstrādāti algoritmi un tā tālāk. Kur paliek brīvā griba? 

Man liekas, ka tā ir tāda inženieru un mākslīgā intelekta veidotāju savā ziņā pašu atbildība, cik liela jēga ir simulēt visus kognitīvos procesus pēc iespējas precīzi. Droši vien, ka nav. Vienkārši jāsaprot, ka visas tās jaudīgās mākslīgā intelekta sistēmas, neraugoties uz to, ka tās darbojas pietiekoši līdzīgi – vismaz ārēji – tam, ko mēs varētu sagaidīt no ar saprātu apveltītas ierīces, tās pēc jēgas ir atšķirīgas no tā, kādi mēs esam. Kaut vai divi faktori, kas mūs dara atšķirīgus, – viens ir mūsu sensorā, mūsu maņu pieredze. Mēs to apgūstam no mūsu pirmajiem mūža brīžiem. Mūsu oža, garša, tauste, redze – tās mūsu dzīves laikā attīstās, un tām ir pietiekoši jaudīga un specifiska attīstības gaita. Mākslīgā intelekta rīki var simulēt vienu vai otru maņu vienā vai otrā konkrētā gadījumā, bet tā mūsu maņu saslēgšanās un darbība reālā laika situācijās, kāds ar mums notiek, tas viss ir daudz grūtāk. Otra lieta ir sociālā pieredze. Neviens no mākslīgā intelekta jaudīgajiem 2023. gada rīkiem nedarbina sociālo pieredzi tā, kā mēs to darbinām. Mūsu sociālā pieredze ir apgūta socializācijas gaitā. Digitālo rīku sociālā pieredze ir apgūta no liela apjoma datiem. Tie dati faktiski atveido vidusmēra sabiedrības spriešanas modeļus, tas nav tas, kā mēs apgūstam savu sociālo pieredzi. 

Tur, protams, pastāv arī zināmi riski. Ja šos datus var apkopot, tad tie tiek izmantoti gan propagandas būvēšanai, gan dažāda veida manipulācijām ar vidusmēra cilvēku? 

Tieši tā, jo tās vidusmēra mākslīgā intelekta sistēmas jau ir šķības un greizas – tādas pašas, kādi ir vidusmēra cilvēki mums visapkārt. 

Proti? 

Gan jau, ka mums arī ir aizspriedumi, stereotipi, izejot no tā, kā tie vidusmēra cilvēki savā starpā sarunājas, kāda veida datus viņi piedāvā, vienkārši izsakoties. No tā jau arī veidojas mākslīgā intelekta interakcijas sistēmas. Es gribētu teikt, ka bīstamība ir tāda, ka stereotipi, bailes, visāda veida arī manipulēti viedokļi un domas – tas viss jau darbojas vidusmēra indivīdā. Ja mēs skatāmies, kā darbojas mākslīgā intelekta sistēmas, tās lielā mērā šos vidusmēra cilvēka aizspriedumus arī patur. Pirms kāda laika bija ļoti dramatisks piemērs ar mākslīga intelekta sistēmu, kas darbināja seju atpazīšanu. Seju atpazīšanu tādā nozīmē, ka nolasa emocijas, nolasa cilvēku. Piemēram, [nolasa], kāda ir varbūtība, ka šis cilvēks ir potenciāli bīstams. Šajā gadījumā tie bija Amerikas lietotāji un Amerikas dati, un parādījās tāds šķībs un greizs automātiskās nolasīšanas modelis, ka vienas ādas krāsas cilvēki ir bīstamāki nekā citi. Manuāli izķert stereotipus no mākslīgā intelekta sistēmas ir pagrūti. Tā ir mākslīgā intelekta sistēmas specifika. Man liekas, ka šeit ir jautājums, kāpēc ir nepieciešams nosacīti apstādināt vai vismaz piebremzēt to attīstību, jo mēs īsti nezinām, ko darīt, piemēram, ja ir liela apjoma digitāli tīkli vai apstrādes rīki, kuri izmanto liela apjoma datus. Kā mēs varam tos nosacīti normalizēt? Kā mēs varam tos stereotipus atsijāt?

Proti, mēs neesam izveidojuši normatīvo bāzi tam zinātniskajam procesam, kas ir veidojis visu mākslīgā intelekta apjomu?

Jā, mēs esam izveidojuši vidusmēra intelektu, kas balstās tajā vidusmēra viedoklī, kāds tas cilvēkiem ir. Tas nav maz. Vienkārši problēma ir tā, ka tādi paši stereotipi, visādi riebīgi aizspriedumi, naida runa... Mēs varam rakstīt algoritmus, ar kuru palīdzību to atsijāt, bet tas ir tāds "ad hoc" [spontāns] risinājums. Tāpat kā mēs īsti nezinām, kā liela apjoma digitālos sociālos tīklus kaut kādā veidā nobremzēt tajā brīdī, kad tie kļūst nekontrolējami. Gluži tāpat mums ir ļoti grūti 2023. gadā pateikt, kā mēs varam nosacīti nobremzēt lielās digitālās sistēmas. Piemērs par sociālajiem tīkliem – ir jau zināmi gadījumi, kad vēlēšanas tikušas ietekmētas. Problēma ir tā, ka šādas situācijas tiek risinātas "ad hoc" veidā. Kad tās rodas, tad domā – kāpēc. Ir viena liela kognitīvo zinātņu perspektīvas problēma, bet arī interesants jautājums, ka mēs esam ļoti jutīgi pret emocionālu informāciju. Būtībā, tieši tāpat kā Covid-19 ir lipīgs, tāpat kā lipīga ir gripa un daudzas citas lietas, tieši tāpat emocijas ir lipīgas. Ja mēs domājam par liela apjoma sociālajiem tīkliem, tad emociju lipīgums ir nekontrolējams. Tieši tāpēc jau ir tā, ka sociālie tīkli, digitāli sociālie tīkli cilvēkus var ļoti mierīgi izvest ielās un padarīt viņus agresīvus.

Pirms neilga laika tika izplatīta vēstule, ko parakstījuši pasaulē zināmu tehnoloģiju uzņēmumu pārstāvji, kas aicināja apturēt eksperimentus ar mākslīgo intelektu, brīdinot par nopietniem riskiem cilvēcei. Šis ir tāds dekoratīvs paziņojums, jo skaidrs, ka apturēt neko nevar.

Var apturēt, protams, to pētniecību, ko mēs nosacīti varam kaut kādā veidā kontrolēt. Mēs jau ļoti daudz no pasaules pētniecības nemaz nezinām, kas notiek Ķīnā, Krievijā, Ziemeļkorejā. Ļoti daudz ir pētījumu, kuru saturu mēs īstenībā nezinām. Tas vienkārši ir viens no gadījumiem, kad tehnoloģiskā vai inženierzinātņu perspektīva aizskrien pāris desmitu soļu priekšā tam, ko mēs zinām par cilvēka uztveres, par cilvēka kognitīvajiem procesiem. Tāpēc stāsts par to, kā izvairīties no emocionālās manipulācijas liela apjoma sociālajos tīklos, tas ir viens no jautājumiem, kas faktiski ierakstās tajā vēstulē. 

Šī paša paziņojuma par mākslīgo intelektu kontekstā izskanēja, ka tuvākajos gados varētu izzust 18% profesiju. Tad ir jautājums – ko šobrīd izvēlēties?

Ko nozīmē – profesijas izzudīs? Vienkārši cilvēki adaptēsies un pārprofilēsies, tā jau laiku pa laikam notiek, pie kaut kādas industriālās revolūcijas mainās sabiedrības struktūra. Problēma ir tā, ka psiholoģisko pusi mēs daudz mazāk saprotam. Mēs daudz mazāk apjēdzam, kādas ir tās mijiedarbības ar digitālajām infrastruktūrām un mums kā dabiskām, bioloģiskām, kognitīvām sistēmām. Man liekas, ka tā ir tā problēma, kāpēc pēc jēgas un būtības droši vien kāds laiks jāpagaida un droši vien ir jāsaprot, kas notiek ar mums. Mēs vienkārši esam adaptācijas periodā, mēs maināmies. Mēs nekļūstam ne gudrāki, ne muļķāki, mēs izmantojam jaudīgus rīkus, un vienkārši mainās mūsu uztveres kognitīvie procesi. 

Bet mainās viss – kā mēs lasām, mācāmies, izklaidējamies. 

Jā, bet, piemēram, par to, kā mēs lasām, ir apmēram skaidrs, kas ir tas galvenais zaudējums vai kas ir tā galvenā problēma, kad lasām digitāli. Teiksim, ir skaidrs, ko mēs iegūstam, lasot analogi drukātas grāmatas. Piemēram, domājot par liela apjoma digitāliem tīkliem, domājot par dialoga sistēmām, kas kvazinormāli reaģē uz mūsu jautājumiem, tā problēma ir mazliet cita, jo mēs jau īsti nezinām, kurā brīdī emocionālā veida manipulācija var mūs ietekmēt. Tas ir gandrīz vai nacionālas nozīmes drošības jautājums, kā mēs tagad varam saprast, kurā vietā, kurā brīdī kāds salīdzinoši nekaitīgs vai varbūt pat nosacīti smieklīgs vakcīnas skeptiķu cepiens sociālajos tīklos kļūs par politiski angažētu cepienu

Es teiktu, ka izglītība var tur līdzēt. Daži runā, ka vairāk jāmāca kritiskā domāšana. 

Jā, es par to esmu skeptisks. Man šajā ziņā ir gandarījums, ka kolēģiem izdevās demonstrēt, ka patiesībā kritiskās domāšanas spēja ir pat mazāk būtiska nekā tas, ko sauc par intelektuālo piezemētību. Ja esam gatavi atzīt, ka mūsu viedokļi arī var būt kļūdaini, mēs daudz labāk tiekam galā ar aplamajām ziņām, ar visām fake news [viltus ziņām – red.], manipulācijām, sazvērestībām. Mēs tad vienkārši pret tām attiecamies kritiskāk. Tas, ko angliski sauc par intellectual humility [intelektuālā pazemība – red.], tā ir tā personības un rakstura īpašība, kas ir būtiskāka nekā spēja kritiski domāt. 

Nevis doties cīņā par savas patiesības aizstāvēšanu, bet tieši pretēji – piezemēt. 

Piezemēt, jā. Es domāju, ka doties cīņā par savas patiesības aizstāvēšanu vienmēr ir vērts, tā ir intelektuālās stājas un drosmes lieta, vienīgais, ka mēs zinām, cik daudz fundamentālu un fanātisku cilvēku ir mūsdienu sabiedrībā. Ja tā domā,  2023. gada aprīļa griezumā droši vien tāda intelektuāla piezemētība varbūt ir vērtīgāka īpašība nekā lēkšana virs ierakumiem. 

Kļūda rakstā?

Iezīmējiet tekstu un spiediet Ctrl+Enter, lai nosūtītu labojamo teksta fragmentu redaktoram!

Iezīmējiet tekstu un spiediet uz Ziņot par kļūdu pogas, lai nosūtītu labojamo teksta fragmentu redaktoram!

Saistītie raksti

Vairāk

Svarīgākais šobrīd

Vairāk

Interesanti