Muskus, Wozniak, Hawking, más géniuszok ellenzik az autonóm fegyvereket

Elon Musk, Stephen Hawking Warn of Killer Robot Wars

Elon Musk, Stephen Hawking Warn of Killer Robot Wars
Anonim

Az AK-47 évtizedek óta a világ számos poros sarkában választott gyilkos gép volt, mert olcsó, tartós és mindenütt jelen van. Ugyanezek a tényezők, azzal érvelnek, hogy a hétfőn megnyitott nyílt levél aláírói az Autonóm Élet Intézetétől származnak, az autonóm fegyverek veszélyesek. De az, ami elválasztja a mesterséges intelligencia fegyverét Kalashnikovoktól, az, hogy az autonóm gép „kiválaszthatja és bevonhatja a célokat emberi beavatkozás nélkül” - ami rossz kezekben sokkal nagyobb, mint bármely számíthatatlan puska.

Az aláírók munkájukat kivágják számukra. Emberként mint egész, sokkal jobban reagálunk, mint a gondolkodás. A főbb szereplők lassan csökkentették a nukleáris fegyverünket (és az autonóm drónok építése, a gondolkodás megy, a gép egy töredékét igényli, ami egy nuke létrehozásához vezet); máshol, a földbányák még mindig évtizedes csatatérek. Amikor egy technológia forradalmasította a hadviselést - legyen az lövészpor vagy haditengerészeti dreadnoughts vagy dúsított urán - szinte soha nem fegyveres verseny volt.

Az FLI megkülönbözteti a mostani drónokat, amelyeket emberileg kezeltünk, és egy robot be van kapcsolva és a saját gyilkos eszközeire hagyta. Az utóbbi létrehozása egy globális AI fegyveres versenyt idézne elő, amit az FLI állít, és ahogy a Kalashnikov története bizonyítja, nem ér véget:

Csak idő kérdése lesz, amíg megjelennek a fekete piacon és a terroristák kezében, a diktátorok, akik jobban akarják irányítani a lakosságukat, az etnikai tisztításra vágyó hadurak, stb. Az autonóm fegyverek ideálisak olyan feladatokhoz, mint a gyilkosságok, destabilizáló népeket, és szelektíven megöl egy adott etnikai csoportot. Ezért úgy gondoljuk, hogy egy katonai AI fegyveres verseny nem lenne előnyös az emberiség számára. Számos módja van annak, hogy az AI biztonságosabbá teheti a csatatéreket az emberek, különösen a civilek számára, anélkül, hogy új eszközöket teremtene az emberek megölésére.

Ez néhány nehéz szar. A figyelmeztetés mögött elhelyezkedő nevek nem a Skynet-féle robbantásai, hanem olyan alkotók, mérnökök, tudósok és filozófusok, akik segítettek kialakítani a mai technológiánkat. A nevek egy része: az Apple Steve Wozniak, a Skype Jaan Tallinn, a Harvard fizikusa, Lisa Randall, aki az AI kutatói és robotikusai - többek között Stuart Russell, Barbara J. Grosz, Tom Mitchell, Eric Horvitz - színésznő Talulah Riley, Noam Chomsky, Stephen Hawking.

Hawkingnek egy kicsit pesszimista hajlama van az utóbbi időben, és megismételte előrejelzéseit a földönkívüli élet veszélyeztetéseiről. Ezen a héten is válaszol a levélre és a technológia jövőjére vonatkozó kérdésekre - talán nem tudjuk ellenállni az ellenséges idegeneknek, de „tudjuk, hogy a tudósok ennek a technológiának az élen járnak, hogy megőrizzék az emberi tényezőt innovációik elé és középpontjába. ”

Nevét hozzáadhatja a levélhez is.