«Skype» izveidotājs brīdina: Jānodrošina, lai mākslīgā intelekta ideja par nākotni sakrīt ar mūsu idejām

Pievērs uzmanību – raksts publicēts pirms 4 gadiem.

Cilvēce turpina attīstīt mākslīgo intelektu, kas dažādos tā risinājumos un formās atvieglo uzņēmumu un cilvēku dzīvi. Mākslīgais intelekts sniedz jaunas iespējas, tomēr ir arī riski. Tostarp cilvēcei eksistenciāli – par to sarunā ar Latvijas Radio brīdināja “Skype” izveidotājs, programmētājs Jāns Tallins. Ja nākotnē cilvēcei izdodas izveidot mākslīgo intelektu, kas ir līdzvērtīgs vai pat pārāks par cilvēka prātu, tas var radīt nopietnas problēmas, brīdina Tallins.

Mākslīgā intelekta iespējas – vēl ierobežotas

Mākslīgais intelekta iespējas vēl ierobežotas, bet jau brīdina par riskiem
00:00 / 05:38
Lejuplādēt

Mākslīgais intelekts jau ir kļuvis par neatņemamu mūsdienu dzīves sastāvdaļu. To izmanto, lai ar algoritmu palīdzību efektivizētu dažādus procesus: loģistiku, to plaši izmanto balss atpazīšanā, reklāmu pielāgošanā sociālajos tīklos. Mākslīgā intelekta iespējas izvērtē ne tikai civilajā, bet arī militārajā sektorā.

Proti, mākslīgais intelekts jau pastāv, taču tā iespējas ir ierobežotas. “Mums jau ir mākslīgā intelekta programmas un sistēmas. Tas nav kaut kas, kas tikai vēl sagaidāms nākotnē.

Tas, kas ir nākotnes jautājums, ir mākslīgais vispārējais intelekts. Tas būtu mākslīgais intelekts, kas ir vienā līmenī ar cilvēka intelektu.

It īpaši iespējā darīt vairākas lietas vienlaicīgi. Patlaban mākslīgā intelekta iespējas ir šauras. Tas tevi uzvarēs šahā, turklāt sakaus graujoši. Nav nekādas iespējas, ka kāds no mums vairs jebkad uzvarēs šahā pret datoru. Bet vienlaikus šī šaha programma nespēj atšķirt kaķi no suņa vai darīt jebko citu kā tikai spēlēt šahu,” norāda Eiropas Ārlietu padomes (European Council on Foreign Relations) eksperte ar fokusu uz mākslīgo intelektu Ulrike Franke.

Ar viņu Latvijas Radio tikās rudens pusē Tallinā, kur notika ikgadējā Baltijas Aizsardzības konference (ABCD).

Brīdina par riskiem

Mākslīgajam intelektam ir potenciāls un iespējas, bet arī riski –  Latvijas Radio savukārt uzsvēra Jāns Tallins (Jaan Tallinn). Igauņu programmētājs un uzņēmējs, tostarp “Skype” līdzizveidotājs. Savas “Skype” akcijas Tallins sen jau pārdevis, taču turpina būt aktīvs, īpaši pētot augsti attīstīta mākslīgā intelekta potenciālos riskus cilvēcei.

Viņš ir līdzdibinātājs Eksistenciālā riska izpētes centram Kembridžas Universitātē Lielbrtiānijā (Centre for the Study of Existential Risk), arī ASV bāzētajam Dzīvības nākotnes institūtam (Future of Life Institute). Šī institūta Zinātniskajā konsultatīvajā padomē ietilpst arī tehnoloģiju uzņēmējs Īlons Masks, savulaik arī pasaules slavenais britu fiziķis Stīvens Hokings, kurš aizgāja mūžībā 2018. gadā.

Igauņu programmētājs un uzņēmējs, tostarp “Skype” līdzizveidotājs Jāns Tallins.
Igauņu programmētājs un uzņēmējs, tostarp “Skype” līdzizveidotājs Jāns Tallins.

Kas tad ir mākslīgais intelekts Jāna Tallina ieskatā? „Mēs varam domāt par mākslīgo intelektu kā lietu, kurā cilvēki deleģē mūsu lēmumu pieņemšanu mašīnām. Ja paskaties sev apkārt pilsētā – viss, ko redzi, ir uzbūvēts, balstoties uz virkni pieņemtu lēmumu. Šo argumentu var izteikt abstraktāk – nākotne tiks uzbūvēta, balstoties uz virkni lēmumu. Bet, ja tie nebūs cilvēku pieņemti lēmumi, tad mums jānodrošina, ka šie lēmumi būs saskaņā ar to, ko mēs vēlētos.

Ir jānodrošina, ka mākslīgā intelekta ideja par labu nākotni ir tāda pati, kā mūsu uzskats par labu nākotni.”

Vai mākslīgais intelekts var būt eksistenciāls risks cilvēcei? Tallins uzskata, ka jā. Viņš atsaucas uz vienu no vadošajiem mākslīgā intelekta ekspertiem pasaulē Stjuartu Raselu (Stuart J. Russell): „Viņš norāda uz problēmu, ko viņš sauc par „gorillu problēmu”. Ja tā padomā, tad tas, kas notiek ar gorillām, vairs nav atkarīgs no pašiem gorillām. Tas ir atkarīgs no cilvēkiem. Jo mēs esam gudrāki. Un, ja mēs cenšamies radīt kaut ko, kas ir gudrāks par mums, tad mēs sevi nostādīsim gorillu pozīcijā, kur tas, kas notiek ar mums, vairs nebūs atkarīgs no mums. Tas būs atkarīgs no mākslīgā intelekta.”

Turklāt problēmas var radīt tas, ka lietas, par ko cilvēks satraucas, mākslīgo intelektu var nemaz neuztraukt:

„Īpašs satraukums man ir par lietām, par kurām mākslīgajām intelektam nav satraukuma.

Piemēram, runājot par vidi – mēs sūtām robotus kosmosā vai uz radioaktīvajām zonām, jo viņiem nerūp vide. Līdz ar to, deleģējot lēmumu pieņemšanu par nākotni sistēmai, kas ir gudrāka par mums un kurai nav satraukuma par vidi, mēs vidi zaudēsim.”

Vērš uzmanību uz mašīnmācīšanos

Tikmēr Ulrike Franke aicina vairāk uzmanības pievērst mākslīgā intelekta apakšnozarei, kas ir mašīnmācīšanās. Proti, datori paļaujas uz paraugiem, izdara secinājumus un mācās paši. Pēdējos gados šī nozare piedzīvojusi izrāvienu. Īpaši runājot par tā dēvētajiem mākslīgajiem neironu tīkliem, kurus attīsta, lai tie strādātu līdzīgi kā neironi cilvēku smadzenēs.

„Mēs vairs nesakām datoram, ko darīt, bet dators pats mācās, kā darīt lietas.

Tā ir salīdzinoši jauna nozare, vismaz attiecībā uz neironu tīkliem. Daudz cilvēku uz to liek lielas cerības, šīs sistēmas turpinot attīstīt un pielietojot reālā pasaulē. Piemēram, autonomās automašīnas,” sacīja Franke.

Pasaules lielvaras turpina strādāt pie mākslīgā intelekta attīstīšanas: vai tas būtu civiliem vai militāriem mērķiem. Eiropas Savienība uzsvaru liek arī uz ētiskajiem apsvērumiem. Attīstoties mākslīgajam intelektam un automatizētās lēmumu pieņemšanas tehnoloģijām, arī Eiropas Parlamenta deputāti vēl janvārī aicināja nodrošināt, ka šie procesi vienmēr atrodas cilvēka uzraudzībā un kontrolē.

Kļūda rakstā?

Iezīmējiet tekstu un spiediet Ctrl+Enter, lai nosūtītu labojamo teksta fragmentu redaktoram!

Iezīmējiet tekstu un spiediet uz Ziņot par kļūdu pogas, lai nosūtītu labojamo teksta fragmentu redaktoram!

Saistītie raksti

Vairāk

Svarīgākais šobrīd

Vairāk

Interesanti