Aktīvisti ceļ trauksmi par militāristu robotiem – slepkavām

Pievērs uzmanību – raksts publicēts pirms 6 gadiem.

Letāli autonomie ieroči tiek definēti kā militāri roboti, kas speciāli izstrādāti, lai uzbruktu cilvēkiem vai instalācijām bez cilvēka tiešas līdzdalības. Tie nav bezpilota droni, jo tos vada cilvēks, kuram pašam jānospiež raķešu palaišanas poga. Taču letālais autonomais ierocis ir, piemēram, minidronu spiets, kuru koordinēti darbina vairs nevis cilvēks, bet jau mākslīgais intelekts. Aktīvisti ceļ trauksmes signālus.

LTV raidījums “Pasaules panorāma” Minhenes drošības konferences aizkulisēs interesējās, kādus draudus rada šie ieroči, tostarp runāja arī ar pārstāvjiem no starptautiskas kampaņas ar absolūti nepārprotamu nosaukumu - “Kampaņa robotu-slepkavu apturēšanai”.

“Kodolieroči ir novecojuši; atbrīvojies no saviem ienaidniekiem bez nekāda riska – identificē, palaid dronu spietu un mierīgi gaidi” - tā jaunākos tehnoloģiju sasniegumus raksturo kampaņa robotu-slepkavu apturēšanai.  

Un ne šie aktīvisti ir vienīgie, kas ceļ trauksmi. Īpašā vēstulē ANO šādu ieroču aizliegšanu pieprasījuši vairāk nekā simt vadoši robotikas un mākslīgā intelekta eksperti no Silīcija ielejas. Tostarp arī Īlons Masks – tas pats autonomo automašīnu tehnoloģiju attīstītājs, kurš savu “Tesla” sporta auto pagājušajā mēnesī palaida kosmosā ar sava privātā uzņēmuma nesējraķeti.

“Mums nav daudz laika rīcībai. Tajā brīdī, kad Pandoras lāde tiks atvērta, to būs ļoti grūti aizvērt,” uzskata Masks.

Eiropā bažas par autonomajiem ieročiem atbalsojās Minhenes drošības konferencē, kur mākslīgajam intelektam veltīto paneļdiskusiju atklāja robots.

Autonomu nāves mašīnu izstrāde pašlaik esot gadu, nevis gadu desmitu jautājums. To intervijā “Pasaules panorāmai” uzsver Mērija Vērhama, kas ir viena no redzamākajām sejām starptautiskajā kampaņā robotu-slepkavu apturēšanai un piedalījās sociālajā kampaņā antiutopiskas nākotnes novēršanai.

“Redzam, kā droni paliek arvien mazāki, un tagad viņi jau izmēģina dronu spietus. Pagaidām vēl neapbruņotus, bet jau autonomus. Mēs redzam daudz lielākas iznīcinātājlidmašīnas, kas arī ir autonomas – tur vairs nav pilota, un tās tiek būvētas tikai ar mērķi nest ieročus. Mūsu bažas ir, ka cilvēks vairs nebūs atbildīgs par šo ieroču pielietošanu. Tas pārkāpj morālu sarkano līniju,” norādīja Vērhama.

“Mēs negribam pieredzēt dienu, kad mašīna atņem cilvēka dzīvību kaujas laukā, policijas misijā, robežkontroles laikā vai citos apstākļos,” uzsvēra Vērhama.

Aktīvistiem parādījušies spēcīgi sabiedrotie, kas aicina radīt starptautisku ietvaru šo ieroču kontrolei un pat izskatīt iespēju tos starptautiski aizliegt, kā tas darīts, piemēram, ar ķīmiskajiem ieročiem vai kājnieku mīnām.

“Robotu un mākslīgā intelekta izmantošana bruņotajos spēkos var padarīt visu pasauli vēl nestabilāku. Šī iemesla dēļ mums nepieciešama starptautiska un juridiski saistoša vienošanās, lai novērstu autonomo letālo ieroču ražošanu un izmantošanu,” norāda bijušais NATO ģenerālsekretārs Anderss Fogs Rasmusens.

Tomēr, kā liecina līdzšinējā pieredze, jebkādus aizliegumus, pat ja tos izdosies apstiprināt, ieviest dzīvē būs ļoti sarežģīti. Pērn Nobela miera prēmija tika piešķirta starptautiskajai kampaņai par kodolieroču aizliegšanu. Atteikties no kodolieročiem tos, kuriem tie jau ir, kampaņa, protams, nav spējusi.

Un militarizēta mākslīgā intelekta attīstīšanā potenciālie ieguvumi, iespējams, ir tik milzīgi, ka atkal veidojas drošības dilemma -  ja šādus ieročus neizstrādāsi tu, varbūt tādus izstrādās kāds cits un, iespējams, vērsīs pret tevi.

Kļūda rakstā?

Iezīmējiet tekstu un spiediet Ctrl+Enter, lai nosūtītu labojamo teksta fragmentu redaktoram!

Iezīmējiet tekstu un spiediet uz Ziņot par kļūdu pogas, lai nosūtītu labojamo teksta fragmentu redaktoram!

Saistītie raksti

Vairāk

Svarīgākais šobrīd

Vairāk

Interesanti