RAKSTA CEĻVEDIS:
MI un tā tehnoloģijas, ar kurām radīt un pavairot viltus saturu, kļūst arvien niansētākas. No ietekmīgu cilvēku runas stilu imitējošiem tekstiem līdz krāpnieciskiem zvaniem un pat video, kuri ticami attēlo to, kā nekad nav bijis, – liela artava šāda satura radīšanā ir mākslīgajam intelektam.
LSM.lv sarunu festivālā "Lampa" rīkoja diskusiju "Mākslīgā intelekta draudus drošai informācijai neapturēs pat uzticami mediji. (Ne)piekrīti?"
Sarunu vadīja LSM.lv ziņu redaktors Edgars Zicāns, un tajā piedalījās dažādu jomu pārstāvji:
- NATO stratēģiskās komunikācijas izcilības centra direktors Jānis Sārts,
- Projekta "AI4Debunk" vadītāja un Latvijas Universitātes profesore Inna Šteinbuka,
- 14. Saeimas deputāts, Saeimas Juridiskās komisijas priekšsēdētājs no frakcijas "Jaunā Vienotība" Andrejs Judins,
- Latvijas Televīzijas ziņu dienesta sociālo mediju redaktors, Eiropas Raidorganizāciju apvienības sociālo mediju ekspertu grupas biedrs Kārlis Miksons,
- Podkāsta "Vai viegli būt?" vadītāja Kristiāna Grāmatiņa, kuras profesionālā darbība saistīta ar informācijas tehnoloģiju jomu.
Nevaram ticēt savām ausīm un acīm
Mūsdienās pietiek vien dažu klikšķu, lai ar mākslīgā intelekta palīdzību apstrādātu un modificētu patiesību vai viltotu kaut ko, kas ir īsts, un nereti tas mums liek apšaubīt to, ko mēs zinām, un to, ko redzam.
"Es gribētu atgādināt vienu teicienu, kuru savulaik teica pazīstamais rakstnieks Marks Tvens – viņš teica, ka cilvēku ir vieglāk piemānīt, nekā pārliecināt, ka viņš ir ticis piemānīts.
Viņš dzīvoja jau sen, bet man liekas, ja viņš dzīvotu tagad, tas viņa citāts būtu vēl aktuālāks, jo tagad mēs paši nezinām, vai mēs varam ticēt savām acīm un ausīm vai tomēr nevaram," atzina Latvijas Universitātes profesore un projekta "AI4Debunk" vadītāja Inna Šteinbuka.
Mēs dzīvojam ļoti interesantā laikmetā, kad, no vienas puses, ir pieejami uzticami informācijas avoti, piemēram, sabiedriskie mediji, bet ne visi uzticas pat tiem, jo dzīvo savā sociālo tīklu un informācijas burbulī, kas liek ticēt citai informācijai, vērtēja Šteinbuka. Turklāt notiek pat dezinformācijas atmaskošana, bet šie cilvēki tai netic.
"Līdz ar to mūsu laikmetā tiešām dzīvot ir sarežģīti, un ne visiem ir attīstīta kritiskā domāšana. Lai gan arī tiem, kam tā ir relatīvi attīstīta, un man ir ļoti daudz tādu piemēru, kuros cilvēki ar ļoti labu izglītību, bijušie vēstnieki, profesori, tic sazvērestības teorijām, kuras manā skatījumā ir absolūti neadekvātas. Viņu skatījumā, protams, es esmu neadekvāta," pieredzē dalījās Šteinbuka.
Ar pašu smadzenēm nebūs gana
Skaidrs, ka mākslīgā intelekta ienākšana mūsu ikdienā var saasināt iespējamību, ka informācija, kuru redzam, var būt nepatiesa.
"Man patīk tas citāts, kurā teikts, ka mūsu laiku problēma ir, ka mums ir paleolīta laika smadzenes, viduslaiku struktūras un dievišķas tehnoloģijas, un tas vienkārši neiet kopā labi.
Šajā gadījumā – jā, mūsu smadzenes ir tālu no perfektām. Kurš pēdējo reizi ir bijis uz kādu burvju šovu vai maģijas šovu? Tie principā jau gadsimtiem ilgi pelna uz to, ka mūs ir viegli piemuļķot," pauda NATO Stratēģiskās komunikācijas izcilības centra direktors Jānis Sārts.
Ir cilvēki, kas, redzot pietiekami profesionālu burvju triku meistaru, tiešām notic, ka tā ir maģija, lai gan patiesībā tā ir vienkārša manipulēšana ar cilvēku priekšstatu sistēmu, turpināja Sārts, un šobrīd mākslīgā intelekta tehnoloģijas šo manipulēšanu padara pavisam vienkāršu.
Pieraksties ziņām!
Ja mākslīgā intelekta tēma aizrāvusi, ir iespēja pierakstīties jaunākajām šīs tēmas ziņām, šī raksta beigās nospiežot zvaniņu!
Vairāk par LSM.lv tēmu paziņojumiem un to lietošanu var lasīt te.
Tāpat pievienojies sarunu grupai par un ap mākslīgo intelektu sociālajā tīklā "Facebook".
"Tikko BBC publicēja savu pētījumu par to, kā Krievija šobrīd iejaucas ASV vēlēšanās. Vairs nav runa par dziļviltojumiem, par kuriem mums ļoti patīk parunāt. Viņi ir radījuši veselu virkni šķietamu digitālu mediju, kas ražo oriģinālu saturu, vairāk kā 50 ziņas dienā – oriģinālas, visas balstītas mākslīgajā intelektā, tātad automatizētas, un ir ar speciālu noslieci ielikt to vienu vai otru [vēlamo domu]," stāstīja Sārts.
Tā nav nākotne, tas notiek šobrīd, uzsvēra Sārts, un nākotnē, šo tehnoloģiju pielāgojot un attīstot, varēs ātri un efektīvi radīt ticamu un efektīvu vizuālo saturu, video saturu, blogus.
"Tad jautājums ir, kā mēs ar to tiekam galā? Man liekas, ir tikai viena atbilde.
Tas pats mākslīgais intelekts ir tas, kas jāņem savā ekipējumā, lai vispār risinātu šo problēmu. Jo, piedodiet, tās paleolīta smadzenes, kas mums starp ausīm, tam nav piemērotas," secināja Sārts.
Likumiskajam ietvaram jāattīstās līdzi
Saeimas Juridiskās komisijas priekšsēdētājs Andrejs Judins ("Jaunā Vienotība") atzina, ka ir no tās paaudzes cilvēkiem, kas mācījās laikā, kad visi šie jautājumi bija ļoti vienkārši – "ja avīzē tā ir rakstīts, ja pa televizoru tā saka, tātad to nevajag apšaubīt, jo tā taču ir patiesība." Tagad esam otrā galējībā. "Mēs esam tādā procesā, kas jau notiek un attīstīsies vēl tālāk. Šeit variantu nav. Mums tāpēc arī jāattīstās līdzi – gan medijiem, gan cilvēkiem, kas patērē informāciju. Tā ir arī katra paša atbildība, kā viņš skatās, jo melošana un viltus informācijas izmantošana jau ir bijusi visu laiku," pauda Judins.
Lielu satraukumu mākslīgā intelekta tehnoloģijas rada tieši vēlēšanu un priekšvēlēšanu laikā. Šobrīd Saeimā tiek gatavots jauns regulējums par mākslīgā intelekta izmantošanu politiskajā aģitācijā.
"Vienu lietu jau mēs izdarījām, mēs skaidri pateicām, ka, ja ir dziļviltojums priekšvēlēšanu laikā, tad būs kriminālatbildība. Tagad mēs strādājam ar Valsts prezidenta ierosinājumu saistībā ar valsts amatpersonām līdzīgi – ja kādu nominē kādam amatam un pēkšņi, divas dienas pirms balsošanas, parādās dziļviltojums, arī jāpiemēro atbildība. Tāpat tiek strādāts pie regulējuma, kas paredz, ja tiek izmantots mākslīgais intelekts, to vajadzētu uzrādīt," stāstīja Judins.
Mākslīgo intelektu neizmantot ir kļūda
Vienlaikus, lai arī mākslīgā intelekta ienākšana mūsu ikdienā nes ļoti daudz risku, jāatzīst, ka tam ir arī ārkārtīgi daudz priekšrocību. Tās neizmantot būtu kļūda, pauda Sārts.
"Vienu lietu gan es visiem gribu likt aiz auss. Neizmantot mākslīgo intelektu, neapgūt to, ko viņš var iedot visiem mums, teiksim, mūsu darba efektivizācijā,– tam būs milzīga cena.
Jo kā ar jebko citu tehnoloģiski – tie, kas apgūs pirmie, ļoti iegūs, un būs daudzi, kas paliks iepakaļus, un būs gan bez darba, gan karjeras iespējām un tā tālāk," uzsvēra Sārts.
Mākslīgā intelekta rīki un tehnoloģijas ir jāapgūst, gribam mēs to vai ne, jo no mūsu zināšanām būs atkarīgas arī mūsu nākotnes perspektīvas. Citu iespēju nav.
"Tas attiecas arī uz skolu – mēs nevaram neintegrēt šo mākslīgā intelekta spēju mūsu apmācību sistēmā. (..) Ja mēs gribam, lai mūsu jaunieši nākotnē spēj tikt šim līdzi, tas ir jāintegrē iekšā un jāapmāca viņi gandrīz automātiski izmantot šīs spējas. Ne tikai kā "Google", bet ar visu to analītisko un citu potenciālu, ko tik maz cilvēku Latvijā prot izmantot," skaidroja Sārts.
Sārts vērtēja, ka uz kopējā pasaules fona Latvija pagaidām neatrodas pašā sliktākajā pozīcijā ar mākslīgā intelekta integrēšanu valsts pārvaldē un citos procesos, jo bija valstis, kuru pirmais instinkts bijis mākslīgā intelekta rīkus aizliegt. Pie mums, par laimi, tā nenotika, bet neesam arī pirmrindnieki.
"Piemēram, Lielbritānijā valsts pārvaldē ir jau vairāk nekā 60 mākslīgā intelekta speciālistu. Viņiem ir savi mākoņi, sava promptu [uzvedņu, vaicājumu – red.] sistēma un bibliotēka un tā tālāk. Mums vēl ir, kur augt," atzina Sārts.
Kā rīkotos diskusijas dalībnieki?
Edgars Zicāns: Iedomājieties situāciju: Jūs ieejat vietnē "X" un redzat vairākus ierakstus un bildes par to, ka pilsētā, kurā atrodaties jūs vai kāds jūsu tuvinieks, ir notikusi toksiskas vielas noplūde. Šajās bildēs redzamas garas auto rindas, virs tām tumši mākoņi, izskatās patiešām draudīgi. Pēc tam vēl jūs redzat kādu video, kurā Latvijā atpazīstama televīzijas personība apstiprina šo faktu – jā, šajā pilsētā toksiskās vielas noplūde ir notikusi. Kāda būs jūsu rīcība? Konkrēts, viens rīcības solis, lai pārliecinātos par šīs informācijas autentiskumu? Te gan viens āķis: katrs nākamais diskusijas dalībnieks nevar teikt to, ko jau atbildējuši iepriekšējie. Izmantojot dienesta stāvokli, es sākšu pirmais. Es šajā situācijā vienkārši ieietu portālā LSM.lv un vēl kādā no citiem uzticamiem Latvijas medijiem un paskatītos, kas tad tur par šo situāciju ir rakstīts. Ko darītu tu, Andrej?
Andrejs Judins: Es darītu divas lietas. Principā es pārbaudītu LETA, jo viņi diezgan ātri publicē, varbūt pat ātrāk nekā LSM.lv. Otra lieta – es varbūt mēģinātu sazvanīt to tuvinieku, kas tieši tajā pilsētā atrodas.
Kristiāna Lapiņa: Noplūdusi viela, ja? Es izietu ārā. 50/50 iespējamība – ja nomirstu, tad nomirstu, ja izdzīvoju, tad tās bija fake news.
Kārlis Miksons: Ņemot vērā, ka nevienam piezvanīt vairs tur nevar, jo tas variants jau izskanēja, nu… Ja mēs nevaram piezvanīt cilvēkam, kas ir uz vietas šajā pilsētā, mēs varam piezvanīt attiecīgajiem dienestiem, kam par to būtu jāzina.
Inna Šteinbuka: Visas manas atbildes jau izskanēja. Ja tur būtu Ārlietu ministrijas kaut kāda pārstāvniecība, es mēģinātu piezvanīt. Es arī paņemtu kaut kādu BBC vai CNN, Politico.eu – kaut kādu tādu uzticamu avotu.
Jānis Sārts: [Es izmantotu] Google reverse image search uz tiem datiem, kas tur parādās. Tā, manuprāt, būtu vienkārša indikācija.
Atbildības daļa
Kurš ir atbildīgais par mānīga mākslīgā intelekta radīta satura pārbaudi, kontroli un uzraudzīšanu? Vienkāršākā atbilde ir – mēs visi, taču jābūt kādam, kas šo procesu vada. Podkāsta "Vai viegli būt?" vadītāja Kristiāna Grāmatiņa uzsvēra, ka, viņasprāt, primāri būtu nepieciešams ļoti kritiski sekot līdzi lielajiem uzņēmumiem, kas rada un pārvalda populārākos sociālos tīklus. Šobrīd tie galvenokārt būtu "TikTok" un "Facebook".
"Mums ir jāspēj regulēt šie milzīgie milži, jo tās ir primārās platformas, kurās bieži vien dezinformācija izplatās ļoti ātri un sasniedz tādus cilvēkus, kas notic kaut kam tādam.
Tātad, pirmkārt, ir jābūt skaidrai izpratnei par to, kā mēs varam regulēt. Ir jābūt izstrādātām vadlīnijām, kurām tehnoloģijām ir jāseko un ko mēs drīkstam radīt," pauda Grāmatiņa. Viņa arī piebilda, ka atbildība jāuzņemas katram cilvēkam pašam un tādējādi arī visiem kopā.
"Mēs katrs varam būt atbildīgs par sevi. Mēs varam iemācīties tik daudz kritiski analizēt informāciju, cik mēs varam, bet tā ir kaut kāda kolektīva lieta. Mums ir kolektīvi jāuzņemas atbildība par šo, jo viens ir spēt analizēt avotus un izprast lietas, un tā tālāk, bet tas nemaina faktu, ka šī informācija tiek radīta," analizēja Grāmatiņa.
Tikmēr Sārts uzsvēra, ka mums ir jāmaina rāmējums, kādā domājam par mākslīgā intelekta ienākšanu. Viņaprāt, vislielākā atbildība jāuzņemas tehnoloģiju kompānijām, kas mākslīgā intelekta rīkus vispār rada.
"Otrā atbildība ir valdībām, un tas ieskaita gan politiku, gan drošību, jo šī tehnoloģija ir vara pirmkārt un pāri visam.
Dažādās izpausmēs, bet informācija ir vara pār cilvēku prātiem, un tas demokrātiskā sabiedrībā ir jāregulē un jākontrolē, lai tās nekļūtu par daudz," secināja Sārts.
Treškārt, arī viņaprāt, atbildība jāuzņemas cilvēkiem, jo, piemēram, lielāko daļu dziļviltojumu iespējams atpazīt, ja cilvēki ir informēti un zinoši par kontekstu.
"Visbeidzot, protams, tad ir arī mediji, bet jautājums ir, kas nākotnes šajā mākslīgā intelekta sabiedrībā ir medijs? Jo būs rakstītais saturs, būs video saturs un tā tālāk. Varbūt paliks tikai redaktori," sprieda Sārts.
Savukārt Šteinbuka uzsvēra lielo izglītības lomu. Viņasprāt, bērni jau kopš bērnudārza ir jāradina pie kritiskās domāšanas, jo ļoti daudz ko mākslīgā intelekta laikmetā noteiks izglītības un zināšanu kvalitāte. Par to attiecīgi jāuzņemas atbildība arī valdībai.
"Jo tie paši cilvēki, kuriem piemīt vai nepiemīt kritiskā domāšana, veido mūsu sabiedrību, un viņus vai nu var maldināt, vai nu viņus maldināt ir diezgan sarežģīti," pauda Šteinbuka.
Cik bieži MI rīkus lieto cilvēki Latvijā?
Kaut reizi kādu no mākslīgā intelekta (MI) rīkiem izmantojuši 44% Latvijas iedzīvotāju, bet vēl 16% to grasās darīt, savukārt 37% MI rīkus nav mēģinājuši un neredz vajadzību, liecina pētījumu centra "Norstat" sadarbībā ar LSM.lv veiktā iedzīvotāju aptauja.
Aplūkojot respondentu atbildes pa vecumiem, redzams, ka MI rīkus biežāk ir izmēģinājuši gados jaunākie Latvijas iedzīvotāji – no 18 līdz 29 gadu vecumā vairākas reizes MI rīkus lietojuši 60% cilvēku, bet vēl 16% pamēģinājuši vienreiz. Tāpat šajā vecuma grupā 16% atbildējuši, ka neredz vajadzību tos izmēģināt.
Tikmēr 30–39 gadus vecie respondenti 40% gadījumu atbildēja, ka MI rīkus izmantojuši vairākas reizes, bet 19% – ka izmēģināja vienreiz. Savukārt negrasās tos izmantot 23% aptaujāto šajā vecuma grupā, bet vēl 15% gatavojas izmēģināt.
Vairāk nekā trešdaļa jeb 37% aptaujāto 40–49 gadu vecuma grupā mākslīgā intelekta rīkus lietojuši vairākas reizes, 14% izmēģināja vienreiz, 17% gatavojas izmēģināt, bet 28% nav mēģinājuši un neredz vajadzību. Vairākas reizes kādu no MI rīkiem izmēģinājuši 50–59 gadus vecie aptaujātie, 12% izmēģināja vienu reizi, 21% gatavojas izmēģināt, bet teju puse jeb 45% neredz vajadzību. Visbeidzot 11% respondentu 60–74 gadu MI rīkus mēģinājuši vairākas reizes, 7% – vienu reizi, 19% gatavojas izmēģināt, bet 60% neredz vajadzību.
Ja apskata respondentu atbildes pēc viņu dzīvesvietas, tad secināms, ka biežāk MI rīkus izmanto Rīgas un Pierīgas iedzīvotāji – tur dzīvojošie arī retāk atbildēja, ka neredz vajadzību izmēģināt MI rīkus. Šādu atbildi sniedza aptuveni trešdaļa galvaspilsētā un tās tuvumā dzīvojošo, kamēr citos reģionos šādi atbildēja mazliet vairāk nekā 40% aptaujāto.