A BSI első robotkódja tiltja A.I. a káros emberektől

$config[ads_kvadrat] not found

AZ EGYES KO..KIRANDULAS A BARATOKAL

AZ EGYES KO..KIRANDULAS A BARATOKAL
Anonim

Vajon álmodnak-e az androidok az emberekkel való összhangról? Ha a Brit Szabványügyi Intézet (BSI) bármit is mondhatna róla, akkor ezek meg fognak szólni. Az Egyesült Királyság vezető üzleti szabványügyi szervezete kiadott egy útmutatót, amely bemutatja, hogy a robotoknak és a robotrendszereknek figyelembe kell venniük az etikát.

„Tudom, hogy ez az első közzétett szabvány a robotok etikai tervezéséhez” - mondta Alan Winfield, az Anglia nyugati részén működő robotika professzora. Az őrző. "Ez egy kicsit kifinomultabb, mint az Asimov törvényei - alapvetően meghatározza, hogyan kell egy robot etikai kockázatértékelését elvégezni."

A BS 8611: 2016 nevű, 158 font (208 dollár) árú címzett a gyártóknak szól, hogy segítsék őket abban, hogy fontolják meg, hogyan léphetnek fel az etika a robottervekben. Természetesen a híres példa az, hogy Isaac Asimov „A robotok három törvénye”, de a reálvilág etikájának összetettebb értelmezése lehet a mesterséges erkölcsnél.

Mégis, a BSI az alapokkal kezdődik, mintha nem tervezne robotokat, hogy megsebesítse az embereket, a dokumentum magyarázza meg, hogy a szürke területek hogyan jelentkezhetnek - mint az érzelmi kötődés.

A BSI nem diktálja, hogy a robotba való szerelem rendben van-e, de megmagyarázza, hogy ez egy megfontolandó kérdés. Ez egy sor vitathatatlanná válhat, amikor a mesterséges intelligenciával felszerelt szexrobotok elérik a piacot. Jelenleg azonban a BSI jobban aggasztja, hogy a gyerekek kötéseket hozhatnak létre robotokkal. Lehet, hogy a gyerekek nem tudják megérteni, hogy a gépek élettelen tárgyak.

A szabályok úgy tűnhetnek, mintha valami aggodalomra adna okot, amíg a robotok nem tudnak tudatosodni, de ezeket a döntéseket hamarabb, mint később kell meghozni. A hónap elején a német közlekedési miniszter három szabályt vázolt fel, amelyek meghatározzák az ország önjáró autókkal kapcsolatos szabályait. A gépek nem képesek az életkor alapján megkülönböztetni, ami azt jelenti, hogy a gyártók nem programozhatnak gépkocsivezető autókat bizonyos emberek csoportjaira, ha vészhelyzet esetén választhatnának.

Az idő múlásával az A.I. a fejlesztők elkezdenek megragadni a robotok bizonyos értékrendszereinek tanítását.

$config[ads_kvadrat] not found