Ez a robot megtanulta, hogyan kell „nem” mondani az emberi igényeknek

$config[ads_kvadrat] not found

Ping Pong in QATAR

Ping Pong in QATAR
Anonim

A robotoknak, akárcsak az embereknek, meg kell tanulniuk, mikor kell „nemet” mondaniuk. Ha egy kérés lehetetlen, kárt okozna, vagy elvonja őket a feladattól, akkor ez egy „bot és embere számára egyaránt diplomáciai nem köszönöm a beszélgetés része.

De mikor szóljon vissza a gép? És milyen feltételek mellett? A mérnökök megpróbálják kitalálni, hogy miként lehet beilleszteni ezt az érzést arról, hogy hogyan és mikor kell megvédeni a humanoidok megrendeléseit.

Nézd meg, hogy a Nao robot nem hajlandó-e előre haladni, tudva, hogy ennek következtében egy asztal széléről leesne:

Egyszerű cucc, de minden bizonnyal elengedhetetlen az emberi hibák ellenőrzéséhez. Gordon Briggs és Matthias Scheutz, a Tufts Egyetem kutatói egy komplex algoritmust dolgoztak ki, amely lehetővé teszi a robot számára, hogy értékelje, mit tesz egy ember, hogy tegye meg, döntse el, hogy meg kell-e csinálnia, és megfelelően reagálnia kell. A kutatást a Mesterséges Intelligencia Fejlesztési Szövetségének nemrégiben tartott találkozóján mutatták be.

A robot kérdéseket tesz fel arra vonatkozóan, hogy a feladat elvégezhető-e. Tudom, hogyan kell csinálni? Fizikailag képes vagyok most? Rendszerint fizikailag képes vagyok erre? Meg tudom csinálni most? Kötelezem-e a társadalmi szerepem alapján ezt megtenni? Megfelel-e bármely normatív elvnek?

Az eredmény egy olyan robot, amely nemcsak ésszerű, hanem egy nap is bölcs.

Figyeljük meg, hogy Nao megváltoztatja a fejét, amikor az ember megígéri, hogy elkapja. Könnyű lenne elképzelni egy másik forgatókönyvet, ahol a robot azt mondja: „Nem, miért bízom benned?”

De Nao egy társadalmi teremtmény. Az embernek az ő DNS-jében van, így az információ, hogy az ember azt akarja, hogy elkapja, vakon halad előre a mélységbe. Persze, ha az ember megtévesztené a bizalmát, akkor hooped lesz, de amúgy is bízik. Nao útja.

Mivel a robot társai kifinomultabbak, a robotmérnököknek meg kell ragadniuk ezeket a kérdéseket. A robotoknak nemcsak a saját biztonságuk megőrzéséről, hanem a nagyobb etikai kérdésekről kell döntéseket hozniuk. Mi van, ha egy ember megpróbál egy robotot megölni? A csalás elkövetése? Egy másik robot elpusztítása?

A gépi etika elképzelését nem lehet elválasztani a mesterséges intelligenciától - még akkor is, ha a jövőbeni gépkocsivezető autóinkat úgy kell megtervezni, hogy az élet vagy halál választásainkat a mi nevünkben végezzük. Ez a beszélgetés szükségszerűen bonyolultabb lesz, mint a menetelő parancsok megadása.

$config[ads_kvadrat] not found