Jezga ap mākslīgā intelekta uzņēmuma «OpenAI» vadību – sīkums vai liecība par draudiem cilvēcei?

Kopienās, kas seko līdzi notikumiem mākslīgā intelekta jomā, jau kādu laiku jūtama spriedze. Šīs spriedzes iemesls ir ne tikai straujā šo tehnoloģiju attīstība, bet arī neziņa par to, kas notiek sabiedrības acīm neredzamajās laboratorijās. Benzīnu ugunī piemet arī paši šo jauno tehnoloģiju izstrādātāji, piemēram, Sems Altmens, "OpenAI" vadītājs, kurš 16. novembrī Āzijas un Klusā okeāna ekonomiskās sadarbības samitā paziņoja[i], ka nupat viņa organizācija atklājusi kaut ko jaunu: "OpenAI vēsturē jau četras reizes (un pēdējā reize bija pēdējo dažu nedēļu laikā!) esmu bijis telpā, kur mēs paveram neziņas plīvuru un pavirzām uz priekšu zināmā robežas."

Kādēļ šādiem izteikumiem būtu pamats ticēt? Tādēļ, ka "OpenAI" varētu šobrīd būt pasaules inovatīvākā organizācija, kas ir pierādījusi, ka zina, ko dara. Tās izstrādātie tekstu ģenerēšanas modeļi (jaunākais – GPT-4) ir ievērojami labāki par konkurentiem, turklāt šobrīd tie ir kļuvuši arī multimodāli, balstīti ne tikai tekstuālā informācijā, – piemēram, vari augšupielādēt fotogrāfiju ar sev nezināmiem simboliem un mākslīgais intelekts diezgan veiksmīgi tev izskaidros (vai vismaz iedos versijas par to), kas tur ir attēlots un kāds varētu būt konteksts. Sems Altmens novembrī "Financial Times" paziņoja[ii], ka "OpenAI" sākusi trenēt jaunu mākslīgā intelekta modeli: GPT-5.

Negaidītais lēmums

Ja kāds zina, kur virzās mākslīgā intelekta tehnoloģijas, tad ar lielu varbūtību tā ir "OpenAI" komanda. Iļja Sutskevers (Ilya Sutskever) ir "OpenAI" galvenais atbildīgais par tehnoloģijām. Viņa pieņēmums:[iii] šo tehnoloģiju uzlabošanas ceļš, visticamāk, neprasīs smagu darbu, tas vismaz kādu laiku būs tikpat "taisnvirziena" un straujš kā līdz šim. Pamatā mākslīgā intelekta tehnoloģiju progresam pēdējos gados ir bijušas lielas skaitļošanas jaudas, labi mācīšanās algoritmi un dati. 

Šāds ir konteksts 17. novembra "OpenAI" valdes negaidītajam lēmumam atlaist Semu Altmenu. Šis lēmums bija tik šokējošs, ka uz nedēļu drudzī iemeta visu tehnoloģiju pasauli. Valdes pamatojums[iv]: Valde secinājusi, ka Altmens nav vienmēr bijis atklāts savā komunikācijā ar valdi, šādi traucējot valdei pildīt tās pienākumus [...] "OpenAI" ar nodomu tika veidots tā, lai pildītu savu misiju: nodrošinātu, ka vispārējais mākslīgais intelekts sniedz labumu visai cilvēcei. Valde paliek pilnībā uzticīga šai misijai." Sekojošie notikumi bija tik dinamiski, ka tos nav iespējams īsi pārstāstīt. Stāsts noslēdzās ar to, ka Altmens atgriezās amatā un valde ir gandrīz pilnībā nomainīta.

Mākslīgā intelekta uzņēmuma "OpenAI" vadītājs Sems Altmens
Mākslīgā intelekta uzņēmuma "OpenAI" vadītājs Sems Altmens

Kas notika "OpenAI"?

Tikai kuriozs atgadījums vai kaut kas nopietns?  Ja runa būtu par teju jebkuru citu pasaules organizāciju, tad spekulācijas varētu gaidīt uz "Netflix" notikumu ekranizāciju. Taču "OpenAI" nav vienkārša organizācija. Tā tika izveidota 2015. gadā kā pētnieciska sabiedriska organizācija ar konkrētu misiju – izveidot vispārējo mākslīgo intelektu (AGI), kas dotu labumu visai cilvēcei. "Vispārējais mākslīgais intelekts" ir termins, kuram ir daudz dažādu definīciju. "OpenAI" statūti[v] to definē, kā "augsti autonomas sistēmas, kas pārspēj cilvēku sniegumu vairākumā darbu, kuriem ir ekonomiska vērtība."

"OpenAI" dibināšanas laikā šādu sistēmu izveidošana izskatījās pēc futūristiskas fantāzijas, taču pat tad bija skaidrs – ja AGI ir sasniedzams mērķis, tad šādām tehnoloģijām līdzi nāks ne tikai milzīgi ieguvumi, bet arī ne mazāki riski. "OpenAI" misija nav peļņa. Tā misija ir sabiedriskais labums – drošs vispārējais mākslīgais intelekts. Sabiedriskajai organizācijai ir vairāki "meitasuzņēmumi", kas tika veidoti, lai piesaistītu finansējumu. Taču sabiedriskās organizācijas valde ir tā, kas atbild par misijas izpildi, un tās galvenā ietekmes svira ir izpilddirektora iecelšana un atcelšana.

Ar lielu varbūtību galvenais iemesls, kādēļ Sems Altmens tika uz brīdi atcelts no amata, ir domstarpības starp viņu un daļu no valdes par to, kā attiekties pret mākslīgā intelekta drošības jautājumiem.

23. novembrī ziņu aģentūra "Reuters" publicēja ziņu[vi], balstītu divos anonīmos avotos, ka neilgi pirms Altmena atlaišanas "OpenAI" valde bija saņēmusi satraucošu vēstuli. Vairāki "OpenAI" pētnieki šajā vēstulē valdi brīdināja, ka organizācija ir atklājusi ko tādu par mākslīgo intelektu, kas varētu radīt draudus cilvēcei. Tam esot sakars ar jaunu tehnoloģiju, kuras koda vārds ir "Q*" ("Q-Star").

Kopš šīs ziņas parādīšanās mākslīgā intelekta pasauli pārpildījušas spekulācijas par to, kas aiz šī koda vārda varētu slēpties.

Spekulācijām ir trīs virzieni:

  • tāds mākslīgā intelekta trenēšanas modelis, kas apvelta mākslīgo intelektu ar stratēģiskās plānošanas spēju;
  • mākslīgā intelekta spēja risināt iepriekš nezināmas matemātiskas problēmas, kas rada draudus kriptogrāfijai un visām ar parolēm aizsargātām sistēmām;
  • mākslīgā intelekta spēja attīstīt pašam sevi, radot risku iziet no cilvēka kontroles.

Rezumējot: neviens, ārpus "OpenAI" komandas un pietuvinātajiem cilvēkiem nezina, kas tajās trauksmainajās novembra dienās pie viņiem notika. Dažādas pazīmes rāda, ka "OpenAI" eksperimentē ar ko potenciāli īpaši bīstamu vai vismaz ir atraduši veidu, kā to izveidot. Ja tā, tad svarīgākais jautājums, vai viņi spēs šo bīstamo tehnoloģiju arī nokontrolēt tā, lai tā nenonāk nepareizajās rokās vai pati nenodara kaitējumu cilvēcei.

"OpenAI" paši publiski daudzkārt brīdinājuši par riskiem, ko rada mākslīgā intelekta tehnoloģiju straujā attīstība. Šī gada jūlijā "OpenAI" paziņoja[vii], ka ir izveidojuši "superizlīdzināšanas" (superalignment) komandu, kuru vadīs jau pieminētais Iļja Sutskevers un kurai tiks veltīti 20% no skaitļošanas resursiem. Tās pamatuzdevums: izveidot metodi, kas nodrošinātu, lai tehnoloģijas, kuras kļūs daudz gudrākas par cilvēku, rēķinās ar cilvēku nolūkiem. Pievērsiet uzmanību! Nav vairs runa tikai par AGI (tehnoloģija, kas nedaudz pārspēj cilvēku sniegumu vairākumā darbu, kuriem ir ekonomiska vērtība), bet tehnoloģijām, kas ir daudz gudrākas par cilvēku. Organizācija arī godīgi atzina, ka šobrīd šādu metožu nav, – visas metodes ir balstītas cilvēces spējā pārraudzīt mākslīgā intelekta tehnoloģijas. Šīs metodes nedarbosies, ja cilvēks būs dumjāks par sevis izgudroto tehnoloģiju: tā uzreiz daudzās jomās darbosies daudz ātrāk un stratēģiskāk. Laika grafiks risinājuma atrašanai ir īss: šai superizlīdzināšanas komandai tika doti tikai četri gadi.

Šajā pašā paziņojumā "OpenAI" arī pieļāva, ka par cilvēku daudz gudrākas tehnoloģijas var tikt izveidotas vēl šajā desmitgadē.

Mākslīgā intelekta tehnoloģiju īpaši straujā attīstība pēdējā gada laikā nav palikusi nepamanīta arī no lēmumu pieņēmēju puses. ASV, Eiropas Savienība, Lielbritānija, citas pasaules ietekmīgākās valstis šobrīd strādā pie regulējuma tam, lai šīs tehnoloģijas ne tikai sniegtu labumu cilvēcei, bet arī lai tiktu mazināti to riski cilvēcei.

Bet efektīvs regulējums joprojām ir (salīdzinoši tālas) nākotnes jautājums apstākļos, kad laika grafiki ir tik īsi. Lielākoties salīdzinoši lielo mieru par to, kas ar šīm neticami strauji augošajām tehnoloģijām notiek, līdz šim pamatoja tas, ka jaudīgākie spēlētāji ir balstīti ASV, turklāt tie izrāda sociāla atbildīguma pazīmes.

"OpenAI" bija tam spēcīgs apliecinājums. "OpenAI" īpašā struktūra, kuras vadībā ir misijā balstīta sabiedriskā organizācija (nevis peļņu meklējošs uzņēmums), bija viens no argumentiem tam, ka vismaz kādu laiku šo tehnoloģiju attīstīšanu var atstāt nozares pašregulācijas ziņā.

Tādā ziņā "OpenAI" valdes klamzīgi neveiksmīgais mēģinājums nomainīt izpilddirektoru nav ironijas vai izsmiekla vērts. Iespēja nomainīt izpilddirektoru varēja būt arī vienīgais veids, kā pārliecināties, ka organizācijas vadības lojalitāte ir vērsta primāri pret organizācijas misiju (drošām, cilvēcei labumu dodošām mākslīgā intelekta tehnoloģijām), nevis pret vēlmi gūt pēc iespējas lielus ienākumus vai pārgalvīgi attīstīt jauno tehnoloģiju, neapdomīgi izturoties pret to cilvēcei radītajiem riskiem. Mēs to vienkārši šobrīd nezinām.

Bet, domājot par šiem notikumiem, grūti neizjust palielu diskomfortu.

Lai arī cik izklaidējoša un izglītojoša nupat bija "OpenAI" vadības (ne)nomaiņas sāga, jāpatur prātā, ka cilvēce šobrīd ver durvis ne tikai uz jaunām tehnoloģiskām virsotnēm, bet arī spēlējas ar uguni.

Mūsu civilizācijas vēsture un mitoloģija brīdina, ka tas var slikti beigties. Piemēram, kā Ikaram, kurš pārgalvības vadīts pielidoja par tuvu Saulei. Vai Midasam, kas vēlējās labklājību, bet tā vietā pārvērta par zeltu visu, kam pieskārās, tai skaitā savu ģimeni. Vai Pandorai, kura atvēra Zeva dāvinātu lādīti, no kuras pasaulē ielidoja visas nelaimes. Zevs zināja, ka kaut kas cilvēka raksturā ir tāds, kas neļauj neatvērt noslēpumainas lādītes – šī dāvana bija sods cilvēcei par to, ka tā vēlas sacensties ar dieviem.

Šobrīd nav nekāda pamata pieņemt, ka mākslīgā intelekta tehnoloģiju straujā attīstība drīz pierims. Gan cilvēcei kopumā, gan mums te, Latvijā, ir trīs uzdevumi: 

  1. domāt veidus, kā šīs tehnoloģijas izmantot pēc iespējas lielam sabiedriskajam labumam;
  2. piemēroties šo tehnoloģiju radītajām pārmaiņām, tai skaitā maksimāli ierobežot veidus, kā tās varētu tikt izmantotas kaitīgiem mērķiem,
  3. nepieļaut to, lai pasaulē parādās potenciāli iznīcinošas tehnoloģijas, kuras var iziet ārpus cilvēces kontroles.

Atsauces un avoti:

[ii] https://www.ft.com/content/dd9ba2f6-f509-42f0-8e97-4271c7b84ded

[iii] https://www.youtube.com/watch?v=Ft0gTO2K85A

[iv] https://openai.com/blog/openai-announces-leadership-transition

[vii] https://openai.com/blog/introducing-superalignment

Kļūda rakstā?

Iezīmējiet tekstu un spiediet Ctrl+Enter, lai nosūtītu labojamo teksta fragmentu redaktoram!

Iezīmējiet tekstu un spiediet uz Ziņot par kļūdu pogas, lai nosūtītu labojamo teksta fragmentu redaktoram!

Saistītie raksti

Vairāk

Svarīgākais šobrīd

Vairāk

Interesanti