Mākslīgā intelekta ieroči



<div _ngcontent-c14 = "" internalhtml = "

Autonomo ieroču sistēmu pieauguma realitāte„CogWorld” paplašina

Ievads

Tehnoloģiskā attīstība ir kļuvusi par žurku rasi. Konkurencē, lai vadītu jaunās tehnoloģijas un futūristisko kaujas kaujas laukumu, mākslīgais intelekts (AI) strauji kļūst par globālās varas centru. Kā redzams daudzās valstīs, autonomo ieroču sistēmas (AWS) attīstība strauji attīstās, un šis mākslīgā intelekta ieroču pieaugums, šķiet, ir kļuvis par ļoti destabilizējošu attīstību. Tas rada sarežģītas drošības problēmas ne tikai katras valsts lēmumu pieņēmējiem, bet arī cilvēces nākotnei.

Mūsdienu realitāte ir tāda, ka mākslīgais intelekts ved mūs uz jaunu algoritmisku kaujas kaujas lauku, kuram nav robežu vai robežu, var būt vai nav iesaistīti cilvēki, un būs neiespējami izprast un varbūt kontrolēt cilvēka ekosistēmu kibertelpā, ģeospace un telpā (CGS). Tā rezultātā, pati ideja par mākslīgā intelekta ieročiem, kad ieroču sistēma, kas pēc CGS aktivizēšanas var atlasīt un iesaistīt cilvēka un ne cilvēka mērķus, ir bez cilvēka dizainera vai operatora papildu iejaukšanās. bailes.

Jebkuras inteliģentas mašīnas vai automatizētas inteliģences domāšana, lai spētu veikt jebkuru paredzamo karadarbības uzdevumu bez cilvēka iesaistīšanās un iejaukšanās, izmantojot tikai tās iegulto sensoru mijiedarbību, datorprogrammēšanu un algoritmus cilvēka vidē un ekosistēmā – ir kļūt par realitāti to vairs nevar ignorēt.

Mākslīgā intelekta ieroči

Tā kā AI, mašīnmācība un dziļa mācīšanās attīstās tālāk un pāriet no koncepcijas uz komercializāciju, straujais skaitļošanas jaudas, atmiņas, lielo datu un ātrgaitas sakaru paātrinājums ne tikai rada inovācijas, investīcijas un lietojumprogrammu neprātu, bet arī pastiprina meklējumus AI mikroshēmām. Tas notiekošo straujo progresu un attīstību nozīmē, ka mākslīgais intelekts ir ceļā uz karadarbības revolūciju un ka valstis neapšaubāmi turpinās attīstīt automatizēto ieroču sistēmu, ko AI padarīs iespējamu.

Kad tautas individuāli un kolektīvi paātrina centienus iegūt konkurences priekšrocības zinātnē un tehnoloģijā, turpmāka AI ieroču izmantošana ir neizbēgama. Līdz ar to ir nepieciešams vizualizēt, kāds būs algoritmiskais rītdienas karš, jo autonomu ieroču sistēmu veidošana ir viena lieta, bet to izmantošana algoritmiskā karā ar citām valstīm un pret citiem cilvēkiem.

Kā ziņojumi ir jau parādās sarežģītu algoritmu sistēmu, kas atbalsta vairāk un vairāk karadarbības aspektus visā CGS, patiesība ir tāda, ka AI commoditization tagad ir realitāte. Kā redzams kibertelpā, ir automatizēta karadarbība (cyberwarfare) jau sākusies – kur kāds un ikviens ir mērķis. Tātad, kas ir nākamais, ģeogrāfiskais karš un kosmosa karš? Un kas un kāds būs mērķis?

ĀS ieroču straujā attīstība ir acīmredzama: navigācija un bezpilota flotes izmantošana, antenas, & nbsp; izvietojot „uguns un aizmirst” raķešu sistēmas un izmantojot stacionāras sistēmas, lai automatizētu visu, sākot no personāla sistēmām un aprīkojuma uzturēšanas līdz novērošanas drones, roboti un visi ir visi piemēri. Tātad, kad algoritmi atbalsta vairāk un vairāk kara aspektus, tas noved pie svarīga jautājuma: kādiem AI izmantošanas veidiem šodien un rītdienas karam būtu jāatļauj, jāierobežo un jāaizliedz tieši?

Lai gan domājams, ka autonomās ieroču sistēmas sniedz iespējas samazināt ieroču sistēmas darbības izmaksas, jo īpaši izmantojot efektīvāku darbaspēka izmantošanu, un, visticamāk, ļaus ieroču sistēmām sasniegt lielāku ātrumu, precizitāti, noturību, precizitāti, sasniedzamību un koordināciju. CGS kaujas lauks, joprojām ir vajadzīgs saprast un novērtēt tehnoloģiskos, juridiskos, ekonomiskos, sociālos un drošības jautājumus.

Programmētāju un programmēšanas loma

Starp šīm sarežģītajām drošības problēmām un mūsu nezināmo jūras jūru, kas joprojām ir būtiska cilvēces drošības un drošības nodrošināšanai, ir programmētāju loma un programmēšana kopā ar pusvadītāju mikroshēmu integritāti. Iemesls tam ir programmētāji var definēt un noteikt AWS raksturu (vismaz sākumā), līdz AI sāk sevi programmēt.

Tomēr, ja un kad programmētājs, kurš tīši vai nejauši ieplāno autonomu ieroci, lai darbotos, pārkāpjot pašreizējo un turpmāko starptautisko humanitāro tiesību aktu (IHL), kā cilvēki kontrolēs AI ieročus? Turklāt, tā kā AWS ir vērsta uz programmatūru, kur būtu jāuzņemas atbildība par kļūdām un AWS sistēmu projektēšanu un izmantošanu? Tas mūs noved pie jautājuma centrā – kad un ja nogalina autonomu sistēmu, kurš ir atbildīgs par nogalināšanu, neatkarīgi no tā, vai tas ir pamatots vai nē?

Kiberdrošības problēmas

Īsāk sakot, algoritmi nekādā gadījumā nav droši, ne arī tie ir neaizsargāti pret kļūdām, ļaunprātīgu programmatūru, aizspriedumiem un manipulācijām. Un, tā kā mašīnmācība izmanto mašīnas, lai apmācītu citas mašīnas, kas notiek, ja ir ļaunprātīga programmatūra vai manipulācijas ar apmācības datiem? Lai gan drošības riski ir visur, pieslēgtās ierīces palielina kiberdrošības pārkāpumu iespējamību no attālām vietām un tāpēc, ka kods ir necaurspīdīgs, drošība ir ļoti sarežģīta. Tātad, kad AI iet karā ar citiem AI (neatkarīgi no tā, vai tā ir kiberdrošība, ģeogrāfiskā drošība vai kosmosa drošība), notiekošās kiberdrošības problēmas radīs monumentālus riskus cilvēces nākotnei un cilvēka ekosistēmai CGS.

Lai gan šķiet, ka šeit paliek autonomas ieroču sistēmas, jautājums, uz kuru mums visiem un kolektīvi ir jāatbild, ir mākslīgā intelekta vadīšana un mūsu stratēģijas noteikšana cilvēku izdzīvošanai un drošībai, vai arī mēs?

Atzīstot šo jauno realitāti, Riska grupa uzsāka ļoti nepieciešamo diskusiju par autonomajām ieroču sistēmām ar Markus Wagner, Wollongong universitātes tiesību zinātņu un asociēto profesoru Austrālijā.

Informācijas atklāšana: riska grupa LLC ir mans uzņēmums

Riska grupa apspriež Autonomo ieroču sistēmu un likumu ar Markus Wagner, Wollongong Universitātes tiesību zinātņu un asociēto profesoru, kas atrodas Austrālijā, riska aptaujā.

Ko tālāk?

Tā kā valstis individuāli un kolektīvi paātrina centienus iegūt konkurences priekšrocības zinātnē un tehnoloģijā, AI turpmāka ieroči ir neizbēgami. Rezultātā AWS pozicionēšana izmainīs paša cilvēka nozīmi un neapšaubāmi neizmainīs drošības un cilvēces un miera nākotnes pamatus.

Ir svarīgi saprast un novērtēt, vai nav iespējams novērst autonomo ieroču sacīkstes, kas varētu noiet greizi. Ir pienācis laiks atzīt faktu, ka vienkārši tāpēc, ka tehnoloģija var nodrošināt veiksmīgu AWS attīstību, tas nenozīmē, ka mums vajadzētu. Varbūt cilvēces interesēs nav mākslīgā intelekta ieroči! Ir pienācis laiks pauzei.

">

Autonomo ieroču sistēmu pieauguma realitāte„CogWorld” paplašina

Ievads

Tehnoloģiskā attīstība ir kļuvusi par žurku rasi. Konkurencē, lai vadītu jaunās tehnoloģijas un futūristisko kaujas kaujas laukumu, mākslīgais intelekts (AI) strauji kļūst par globālās varas centru. Kā redzams daudzās valstīs, autonomo ieroču sistēmas (AWS) attīstība strauji attīstās, un šis mākslīgā intelekta ieroču pieaugums, šķiet, ir kļuvis par ļoti destabilizējošu attīstību. Tas rada sarežģītas drošības problēmas ne tikai katras valsts lēmumu pieņēmējiem, bet arī cilvēces nākotnei.

Mūsdienu realitāte ir tāda, ka mākslīgais intelekts ved mūs uz jaunu algoritmisku kaujas kaujas lauku, kuram nav robežu vai robežu, var būt vai nav iesaistīti cilvēki, un būs neiespējami izprast un varbūt kontrolēt cilvēka ekosistēmu kibertelpā, ģeospace un telpā (CGS). Tā rezultātā, pati ideja par mākslīgā intelekta ieročiem, kad ieroču sistēma, kas pēc CGS aktivizēšanas var atlasīt un iesaistīt cilvēka un ne cilvēka mērķus, ir bez cilvēka dizainera vai operatora papildu iejaukšanās. bailes.

Jebkuras inteliģentas mašīnas vai automatizētas inteliģences domāšana, lai spētu veikt jebkuru paredzamo karadarbības uzdevumu bez cilvēka iesaistīšanās un iejaukšanās, izmantojot tikai tās iegulto sensoru mijiedarbību, datorprogrammēšanu un algoritmus cilvēka vidē un ekosistēmā – ir kļūt par realitāti to vairs nevar ignorēt.

Mākslīgā intelekta ieroči

Tā kā AI, mašīnmācība un dziļa mācīšanās attīstās tālāk un pāriet no koncepcijas uz komercializāciju, straujais skaitļošanas jaudas, atmiņas, lielo datu un ātrgaitas sakaru paātrinājums ne tikai rada inovācijas, investīcijas un lietojumprogrammu neprātu, bet arī pastiprina meklējumus AI mikroshēmām. Tas notiekošo straujo progresu un attīstību nozīmē, ka mākslīgais intelekts ir ceļā uz karadarbības revolūciju un ka valstis neapšaubāmi turpinās attīstīt automatizēto ieroču sistēmu, ko AI padarīs iespējamu.

Kad tautas individuāli un kolektīvi paātrina centienus iegūt konkurences priekšrocības zinātnē un tehnoloģijā, turpmāka AI ieroču izmantošana ir neizbēgama. Līdz ar to ir nepieciešams vizualizēt, kāds būs algoritmiskais rītdienas karš, jo autonomu ieroču sistēmu veidošana ir viena lieta, bet to izmantošana algoritmiskā karā ar citām valstīm un pret citiem cilvēkiem.

Kā ziņojumi ir jau parādās sarežģītu algoritmu sistēmu, kas atbalsta vairāk un vairāk karadarbības aspektus visā CGS, patiesība ir tāda, ka AI commoditization tagad ir realitāte. Kā redzams kibertelpā, ir automatizēta karadarbība (cyberwarfare) jau sākusies – kur kāds un ikviens ir mērķis. Tātad, kas ir nākamais, ģeogrāfiskais karš un kosmosa karš? Un kas un kāds būs mērķis?

ĀS ieroču straujā attīstība ir acīmredzama: navigācija un bezpilota flotes izmantošana, gaisa un reljefa transportlīdzekļiem, kas rada aplēses par t izvietojot „uguns un aizmirst” raķešu sistēmas un izmantojot stacionāras sistēmas, lai automatizētu visu, sākot no personāla sistēmām un aprīkojuma uzturēšanas līdz novērošanas drones, roboti un visi ir visi piemēri. Tātad, kad algoritmi atbalsta vairāk un vairāk kara aspektus, tas noved pie svarīga jautājuma: kādiem AI izmantošanas veidiem šodien un rītdienas karam būtu jāatļauj, jāierobežo un jāaizliedz tieši?

Lai gan domājams, ka autonomās ieroču sistēmas sniedz iespējas samazināt ieroču sistēmas darbības izmaksas, jo īpaši izmantojot efektīvāku darbaspēka izmantošanu, un, visticamāk, ļaus ieroču sistēmām sasniegt lielāku ātrumu, precizitāti, noturību, precizitāti, sasniedzamību un koordināciju. CGS kaujas lauks, joprojām ir vajadzīgs saprast un novērtēt tehnoloģiskos, juridiskos, ekonomiskos, sociālos un drošības jautājumus.

Programmētāju un programmēšanas loma

Starp šīm sarežģītajām drošības problēmām un mūsu nezināmo jūras jūru, kas joprojām ir būtiska cilvēces drošības un drošības nodrošināšanai, ir programmētāju loma un programmēšana kopā ar pusvadītāju mikroshēmu integritāti. Iemesls tam ir programmētāji var definēt un noteikt AWS raksturu (vismaz sākumā), līdz AI sāk sevi programmēt.

Tomēr, ja un kad programmētājs, kurš tīši vai nejauši ieplāno autonomu ieroci, lai darbotos, pārkāpjot pašreizējo un turpmāko starptautisko humanitāro tiesību aktu (IHL), kā cilvēki kontrolēs AI ieročus? Turklāt, tā kā AWS ir vērsta uz programmatūru, kur būtu jāuzņemas atbildība par kļūdām un AWS sistēmu projektēšanu un izmantošanu? Tas mūs noved pie jautājuma centrā – kad un ja nogalina autonomu sistēmu, kurš ir atbildīgs par nogalināšanu, neatkarīgi no tā, vai tas ir pamatots vai nē?

Kiberdrošības problēmas

Īsāk sakot, algoritmi nekādā gadījumā nav droši, ne arī tie ir imūni pret kļūdām, ļaunprātīgu programmatūru, aizspriedumiem un manipulācijām. Un, tā kā mašīnmācība izmanto mašīnas, lai apmācītu citas mašīnas, kas notiek, ja ir ļaunprātīga programmatūra vai manipulācijas ar apmācības datiem? Lai gan drošības riski ir visur, pieslēgtās ierīces palielina kiberdrošības pārkāpumu iespējamību no attālām vietām un tāpēc, ka kods ir necaurspīdīgs, drošība ir ļoti sarežģīta. Tātad, kad AI iet karā ar citiem AI (neatkarīgi no tā, vai tā ir kiberdrošība, ģeogrāfiskā drošība vai kosmosa drošība), notiekošās kiberdrošības problēmas radīs monumentālus riskus cilvēces nākotnei un cilvēka ekosistēmai CGS.

Lai gan šķiet, ka šeit paliek autonomas ieroču sistēmas, jautājums, uz kuru mums visiem un kolektīvi ir jāatbild, ir mākslīgā intelekta vadīšana un mūsu stratēģijas noteikšana cilvēku izdzīvošanai un drošībai, vai arī mēs?

Atzīstot šo jauno realitāti, Riska grupa uzsāka ļoti nepieciešamo diskusiju par autonomajām ieroču sistēmām ar Markus Wagner, Wollongong universitātes tiesību zinātņu un asociēto profesoru Austrālijā.

Informācijas atklāšana: riska grupa LLC ir mans uzņēmums

Riska grupa apspriež Autonomo ieroču sistēmu un likumu ar Markus Wagner, Wollongong Universitātes tiesību zinātņu un asociēto profesoru, kas atrodas Austrālijā, riska aptaujā.

Ko tālāk?

Tā kā valstis individuāli un kolektīvi paātrina centienus iegūt konkurences priekšrocības zinātnē un tehnoloģijā, AI turpmāka ieroči ir neizbēgami. Rezultātā AWS pozicionēšana izmainītu paša cilvēka nozīmi un neapšaubāmi nemainīs pašas drošības un cilvēces un miera nākotnes pamatus.

Ir svarīgi saprast un novērtēt, vai nav iespējams novērst autonomo ieroču sacīkstes, kas varētu noiet greizi. Ir pienācis laiks atzīt faktu, ka vienkārši tāpēc, ka tehnoloģija var nodrošināt veiksmīgu AWS attīstību, tas nenozīmē, ka mums vajadzētu. Varbūt cilvēces interesēs nav mākslīgā intelekta ieroči! Ir pienācis laiks pauzei.