Tehisintellekti relvastus



<div _ngcontent-c14 = "" internalhtml = "

Autonoomsete relvasüsteemide tõusu reaalsusCogWorldi poolt tõhustatud

Sissejuhatus

Tehnoloogiline areng on muutunud rottide rassiks. Konkursil, et juhtida arenevat tehnoloogiat ja futuristlikku sõjalahinguväli, on kunstlik intelligents kiiresti muutumas globaalse võimu keskmeks. Nagu paljudes riikides on näha, areneb autonoomsete relvasüsteemide arendamine kiiresti ja kunstliku luure relvade suurenemine näib olevat muutunud väga destabiliseerivaks arenguks. See toob kaasa keerulised julgeolekuprobleemid mitte ainult iga riigi otsustajatele, vaid ka inimkonna tulevikule.

Tänane reaalsus seisneb selles, et tehisintellekt viib meid uue algoritmilise sõjalahingu poole, millel ei ole piire ega piire, võib või ei pruugi kaasata inimesi, ning on võimatu mõista ja võib-olla kontrollida üle kogu inimese ökosüsteemi küberruumis, kosmoses ja ruumis (CGS). Selle tulemusena ongi kunstliku luure relvastamise idee, kus relvasüsteem, mis pärast CGS-i aktiveerimist saab inimese sihtmärkide ja mitte-inimeste sihtmärke valida ja kaasata ilma inimese disaineri või operaatori täiendava sekkumiseta, suur hirm.

Mõelge mõnele arukale masinale või masinateabele on võimeline teostama mis tahes prognoositud sõjapidamise ülesannet ilma inimeste sekkumiseta ja sekkumiseta – kasutades ainult oma sisseehitatud andurite koostoimet, arvutiprogramme ja algoritme inimkeskkonnas ja ökosüsteemis – on saada reaalsuseks mida enam ei saa eirata.

Tehisintellekti relvastus

Kuna AI, masinaõpe ja sügav õppimine arenevad edasi ja liiguvad kontseptsioonilt kommertsialiseerimisele, ei kiirenda arvutivõimsus, mälu, suured andmed ja kiire kommunikatsioon mitte ainult innovatsiooni, investeeringuid ja rakenduste hullust, vaid ka intensiivistamist AI kiipide jaoks. See pidev kiire areng ja areng tähendab, et tehisintellekt on sõjapidamise ümberkujundamisel ja et riigid jätkavad kahtlemata automatiseeritud relvasüsteemi arendamist, mida AI teeb võimalikuks.

Kui riigid individuaalselt ja kollektiivselt kiirendavad oma jõupingutusi konkurentsieelise saamiseks teaduses ja tehnoloogias, on AI edasine relvastus vältimatu. Seega on vaja visualiseerida, milline oleks algoritmiline homse sõda, sest autonoomsete relvasüsteemide ehitamine on üks asi, kuid nende kasutamine algoritmilises sõjas teiste rahvaste ja teiste inimestega on teine.

Nagu aruanded on juba tekkimas keerukate algoritmiliste süsteemide toetamine, mis toetavad üha enam sõjakaitse aspekte kogu CGSi piires, on tõsi, et AI kaubavahetus on nüüd reaalsus. Nagu küberruumis näha, on automatiseeritud sõjapidamine (cyberwarfare) juba alanud – kus keegi ja igaüks on sihtmärk. Mis on järgmine, geo-sõjapidamine ja kosmosesõda? Ja kes ja milline on sihtmärk?

AI relvade kiire areng on kõikjal ilmne: navigeerimine ja mehitamata mereväe kasutamineantenn, & nbsp; ja maastikusõidukid, mis annavad tagatise-kahju hinnanguid, „tulekahju ja unusta” rakettide süsteeme ja statsionaarsete süsteemide kasutamine, et automatiseerida kõike alates personali süsteemidest ja seadmete hooldusest kuni nende paigaldamiseni järelvalvesid, robotid ja veel on kõik näited. Niisiis, kui algoritmid toetavad üha enam sõja aspekte, toob see meile olulise küsimuse: milline on AI kasutamine tänapäeval ja homsete sõdade lubamine, piiramine ja otsene keelustamine?

Kuigi arvatakse, et autonoomsed relvad süsteemid võimaldavad relvasüsteemi tegevuskulusid vähendada – eelkõige tööjõu tõhusama kasutamise kaudu – ning võimaldavad tõenäoliselt relvasüsteemidel saavutada suuremat kiirust, täpsust, püsivust, täpsust, jõudu ja koordineerimist CGSi lahinguväljal on endiselt vaja mõista ja hinnata tehnoloogilisi, õiguslikke, majanduslikke, ühiskondlikke ja julgeolekuküsimusi.

Programmeerijate roll ja programmeerimine

Nende keeruliste julgeolekuprobleemide ja meie tundmatute merede keskel on inimkonna ohutuse ja turvalisuse põhiolemus programmeerijate ja programmeerimise roll koos pooljuhtkiipide terviklikkusega. Selle põhjuseks on, et programmeerijad saavad määratleda ja määrata AWSi olemuse (vähemalt alguses), kuni AI hakkab ennast ise programmeerima.

Kui aga ja millal programmeerija, kes tahtlikult või kogemata programmeerib autonoomset relva, et tegutseda rikkudes kehtivat ja tulevast rahvusvahelist humanitaarõigust (IHL), siis kuidas hakkavad inimesed kontrollima AI relvastust? Pealegi, kuna AWS keskendub tarkvarale, kus peaks vastutus vigade ja AWS süsteemide kujundamise ja kasutamise eest olema? See viib meid küsimuse keskmesse – millal ja kui iseseisev süsteem tapab, kes vastutab tapmise eest, olenemata sellest, kas see on õigustatud või mitte?

Küberjulgeoleku väljakutsed

Lühidalt öeldes ei ole algoritmid mingil juhul turvalised – samuti ei ole need immuunsed vigade, pahavara, kallutamise ja manipuleerimise suhtes. Kuna masinõpe kasutab masinaid teiste masinate koolitamiseks, mis juhtub, kui on pahavara või koolitusandmete manipuleerimine? Kuigi turvariskid on kõikjal, suurendavad ühendatud seadmed küberjulgeoleku rikkumiste võimet kaugemates kohtades ja kuna kood on läbipaistmatu, on turvalisus väga keeruline. Niisiis, kui AI läheb sõdima teiste AI-dega (sõltumata sellest, kas see on küberjulgeolek, geoturvalisus või kosmose turvalisus), lisavad käimasolevad küberjulgeoleku väljakutsed monumentaalseid riske inimkonna tulevikule ja inimese ökosüsteemile CGSis.

Kuigi tundub, et siin viibivad autonoomsed relvasüsteemid, tuleb meil kõigil individuaalselt ja kollektiivselt vastata küsimusele, kas tehisintellekt sõidab ja määrab kindlaks meie ellujäämise ja julgeoleku strateegia või kas me?

Tunnistades seda esilekerkivat tegelikkust, alustas riskirühm Wollongongi ülikoolis Austraalias asuva avaldatud autori ja õigusteaduse professor Markus Wagneriga väga vajalikku arutelu autonoomsete relvasüsteemide üle.

Avalikustamine: riskigrupp LLC on minu ettevõte

Riskirühm arutab autonoomsete relvade süsteemi ja õigust Markus Wagneriga, kes on Wollongongi ülikooli avalik-õigusliku autori ja õigusteaduse dotsent.

Mis järgmiseks?

Kuna riigid individuaalselt ja kollektiivselt kiirendavad oma jõupingutusi konkurentsieelise saamiseks teaduses ja tehnoloogias, on AI edasine relvastus vältimatu. Selle tulemusena muudaks AWS-i positsioneerimine just inimese tähendust ja ei muudaks ebakindlates tingimustes & nbsp; turvalisuse põhialuseid ning inimkonna ja rahu tulevikku.

Oluline on mõista ja hinnata, kas autonoomset relvavõitlust ei saa vältida, mis võib valesti minna. On aeg tunnistada, et lihtsalt sellepärast, et tehnoloogia võib võimaldada AWSi edukat arengut, ei tähenda see, et me peaksime seda tegema. Võib-olla ei ole inimkonna huvides kunstlikku intelligentsust relvastada! On aeg paus.

">

Autonoomsete relvasüsteemide tõusu reaalsusCogWorldi poolt tõhustatud

Sissejuhatus

Tehnoloogiline areng on muutunud rottide rassiks. Konkursil, et juhtida arenevat tehnoloogiat ja futuristlikku sõjalahinguväli, on kunstlik intelligents kiiresti muutumas globaalse võimu keskmeks. Nagu paljudes riikides on näha, areneb autonoomsete relvasüsteemide arendamine kiiresti ja kunstliku luure relvade suurenemine näib olevat muutunud väga destabiliseerivaks arenguks. See toob kaasa keerulised julgeolekuprobleemid mitte ainult iga riigi otsustajatele, vaid ka inimkonna tulevikule.

Tänane reaalsus seisneb selles, et tehisintellekt viib meid uue algoritmilise sõjalahingu poole, millel ei ole piire ega piire, võib või ei pruugi kaasata inimesi, ning on võimatu mõista ja võib-olla kontrollida üle kogu inimese ökosüsteemi küberruumis, kosmoses ja ruumis (CGS). Selle tulemusena ongi kunstliku luure relvastamise idee, kus relvasüsteem, mis pärast CGS-i aktiveerimist saab inimese sihtmärkide ja mitte-inimeste sihtmärke valida ja kaasata ilma inimese disaineri või operaatori täiendava sekkumiseta, suur hirm.

Mõelge mõnele arukale masinale või masinateabele on võimeline teostama mis tahes prognoositud sõjapidamise ülesannet ilma inimeste sekkumiseta ja sekkumiseta – kasutades ainult oma sisseehitatud andurite koostoimet, arvutiprogramme ja algoritme inimkeskkonnas ja ökosüsteemis – on saada reaalsuseks mida enam ei saa eirata.

Tehisintellekti relvastus

Kuna AI, masinaõpe ja sügav õppimine arenevad edasi ja liiguvad kontseptsioonilt kommertsialiseerimisele, ei kiirenda arvutivõimsus, mälu, suured andmed ja kiire kommunikatsioon mitte ainult innovatsiooni, investeeringuid ja rakenduste hullust, vaid ka intensiivistamist AI kiipide jaoks. See pidev kiire areng ja areng tähendab, et tehisintellekt on sõjapidamise ümberkujundamisel ja et riigid jätkavad kahtlemata automatiseeritud relvasüsteemi arendamist, mida AI teeb võimalikuks.

Kui riigid individuaalselt ja kollektiivselt kiirendavad oma jõupingutusi konkurentsieelise saamiseks teaduses ja tehnoloogias, on AI edasine relvastus vältimatu. Seega on vaja visualiseerida, milline oleks algoritmiline homse sõda, sest autonoomsete relvasüsteemide ehitamine on üks asi, kuid nende kasutamine algoritmilises sõjas teiste rahvaste ja teiste inimestega on teine.

Nagu aruanded on juba tekkimas keerukate algoritmiliste süsteemide toetamine, mis toetavad üha enam sõjakaitse aspekte kogu CGSi piires, on tõsi, et AI kaubavahetus on nüüd reaalsus. Nagu küberruumis näha, on automatiseeritud sõjapidamine (cyberwarfare) juba alanud – kus keegi ja igaüks on sihtmärk. Mis on järgmine, geo-sõjapidamine ja kosmosesõda? Ja kes ja milline on sihtmärk?

AI relvade kiire areng on kõikjal ilmne: navigeerimine ja mehitamata mereväe kasutaminemaapealsed sõidukid, mis tekitavad tagatise-kahju hinnanguid, t „tulekahju ja unusta” rakettide süsteeme ja statsionaarsete süsteemide kasutamine, et automatiseerida kõike alates personali süsteemidest ja seadmete hooldusest kuni nende paigaldamiseni järelvalvesid, robotid ja veel on kõik näited. Niisiis, kui algoritmid toetavad üha enam sõja aspekte, toob see meile olulise küsimuse: milline on AI kasutamine tänapäeval ja homsete sõdade lubamine, piiramine ja otsene keelustamine?

Kuigi arvatakse, et autonoomsed relvad süsteemid võimaldavad relvasüsteemi tegevuskulusid vähendada – eelkõige tööjõu tõhusama kasutamise kaudu – ning võimaldavad tõenäoliselt relvasüsteemidel saavutada suuremat kiirust, täpsust, püsivust, täpsust, jõudu ja koordineerimist CGSi lahinguväljal on endiselt vaja mõista ja hinnata tehnoloogilisi, õiguslikke, majanduslikke, ühiskondlikke ja julgeolekuküsimusi.

Programmeerijate roll ja programmeerimine

Nende keeruliste julgeolekuprobleemide ja meie tundmatute merede keskel on inimkonna ohutuse ja turvalisuse põhiolemus programmeerijate ja programmeerimise roll koos pooljuhtkiipide terviklikkusega. Selle põhjuseks on, et programmeerijad saavad määratleda ja määrata AWSi olemuse (vähemalt alguses), kuni AI hakkab ennast ise programmeerima.

Kui aga ja millal programmeerija, kes tahtlikult või kogemata programmeerib autonoomset relva, et tegutseda rikkudes kehtivat ja tulevast rahvusvahelist humanitaarõigust (IHL), siis kuidas hakkavad inimesed kontrollima AI relvastust? Pealegi, kuna AWS keskendub tarkvarale, kus peaks vastutus vigade ja AWS süsteemide kujundamise ja kasutamise eest olema? See viib meid küsimuse keskmesse – millal ja kui iseseisev süsteem tapab, kes vastutab tapmise eest, olenemata sellest, kas see on õigustatud või mitte?

Küberjulgeoleku väljakutsed

Lühidalt öeldes ei ole algoritmid mingil juhul turvalised – samuti ei ole nad immuunsed vigade, pahavara, kallutamise ja manipuleerimise suhtes. Kuna masinõpe kasutab masinaid teiste masinate koolitamiseks, mis juhtub, kui on pahavara või koolitusandmete manipuleerimine? Kuigi turvariskid on kõikjal, suurendavad ühendatud seadmed küberjulgeoleku rikkumiste võimet kaugemates kohtades ja kuna kood on läbipaistmatu, on turvalisus väga keeruline. Niisiis, kui AI läheb sõdima teiste AI-dega (sõltumata sellest, kas see on küberjulgeolek, geoturvalisus või kosmose turvalisus), lisavad käimasolevad küberjulgeoleku väljakutsed monumentaalseid riske inimkonna tulevikule ja inimese ökosüsteemile CGSis.

Kuigi tundub, et siin viibivad autonoomsed relvasüsteemid, tuleb meil kõigil individuaalselt ja kollektiivselt vastata küsimusele, kas tehisintellekt sõidab ja määrab kindlaks meie ellujäämise ja julgeoleku strateegia või kas me?

Tunnistades seda esilekerkivat tegelikkust, alustas riskirühm Wollongongi ülikoolis Austraalias asuva avaldatud autori ja õigusteaduse professor Markus Wagneriga väga vajalikku arutelu autonoomsete relvasüsteemide üle.

Avalikustamine: riskigrupp LLC on minu ettevõte

Riskirühm arutab autonoomsete relvade süsteemi ja õigust Markus Wagneriga, kes on Wollongongi ülikooli avalik-õigusliku autori ja õigusteaduse dotsent.

Mis järgmiseks?

Kuna riigid individuaalselt ja kollektiivselt kiirendavad oma jõupingutusi konkurentsieelise saamiseks teaduses ja tehnoloogias, on AI edasine relvastus vältimatu. Selle tulemusena muudaks AWS-i positsioneerimine just inimese tähendust ja ei muuda mingil juhul kahtlemata julgeoleku aluseid ning inimkonna ja rahu tulevikku.

Oluline on mõista ja hinnata, kas autonoomset relvavõitlust ei saa vältida, mis võib valesti minna. On aeg tunnistada, et lihtsalt sellepärast, et tehnoloogia võib võimaldada AWSi edukat arengut, ei tähenda see, et me peaksime seda tegema. Võib-olla ei ole inimkonna huvides kunstlikku intelligentsust relvastada! On aeg paus.