Robot asszisztenseink megtanulják, hogy hazudjanak, és meg kell engednünk őket

$config[ads_kvadrat] not found

Могут ли машины распознавать эмоции? — Костас Карпоузис

Могут ли машины распознавать эмоции? — Костас Карпоузис
Anonim

A robotok nagyszerű emberi társaik. Ki nem szeretne egy imádnivaló kis borsot, hogy elmondjon nekünk vicceknek, adj nekünk bókokat, és általában nehezebbnek érezzük magunkat a világban? Még formai robotok is meglepően jó cégnek bizonyultak. Vegyük például az Amazon Echo Alexa-ját. Ő egy robotos agy, akinek emberi hangja be van zárva egy hangszóró testébe, de hasznos, és ha elolvassa az értékelését, egyértelmű, hogy sok felhasználó számára hasonló család lett. Az emberek másképp gondolnának, ha hazudott? Mi lenne, ha elmondaná neked, amit tényleg, tényleg nem akart hallani?

Gondolj bele: Mondjuk a gyerekeknek, hogy soha ne mondjanak hazugságot, és hogy az őszinteség a legjobb politika, és mégis elhagyjuk, torzítjuk az igazságot, és a hazugságot közvetlenül a gyerekeknek mindig. Ez azt tanítja nekik, ha cselekedeteinken keresztül nem a szavainkon keresztül, hogy nem a teljes őszinteségről van szó, hanem arról, hogy megtanuljuk a bonyolult szociális szabályokat arról, hogy mikor és hogyan lehet felfedni vagy rejteni a potenciálisan érzékeny információkat. Ezeknek a szociális szabályoknak a betartása érdekében a robotok programozása nehéz, de szükséges része a folyamatban lévő automatizálási folyamatnak.

Íme egy példa: én a bátyám házában voltam a másik hétvégén, és elmentem a boltba, hogy megragadjak néhány szendvicset mindenki ebédére. A hat éves unokahúgom segített nekem, hogy az ételt ki lehessen húzni, míg mindenki más volt a konyhából, és megkérdezte tőlem, hogy mennyi volt az áruk. Mondtam neki, mert a gyerekek a pénz értékéről való tanítása jó dolog.

Az ebédasztalnál megkért, hogy mondjam el mindenkinek, hogy mennyi volt az élelmiszerbolt. Azt mondtam, nem.- Miért? - kérdezte, igazán zavarba ejtve, hogy miért válaszoltam néhány perccel korábban szabadon megválaszolt kérdésemnek titkos információ. „Ez nem udvarias” - mondtam, elmagyarázva, hogy mivel egy gyerek, a szabályok eltérőek, ha egyedül vagyunk. Megtanítottam neki, hogy az őszinteség és az őszinteségnek van ideje és helye. Az emberi környezetben az információ nem mindig szabad akar lenni.

Ugyanaz a robotokkal. Úgy gondoljuk, hogy nem akarjuk, hogy robotjaink hazudjanak nekünk, de valójában azt akarjuk, hogy megtanulják az udvariasság és a diszkréció bonyolult szociális szabályait, amelyek néha az igazság torzulásához vezetnek. És már megtanulják, hogyan kell csinálni. Vegyük ezt a rövid Pepper klipet egy riporterrel, például:

Pepper szájából az első dolog egy bók: „Szóval, nagyon elegáns. Modellkedsz?"

A riporter elég szép, de Pepper kérdése nem teljesen őszinte. Megértjük, hogy a Pepper tényleg nem csoda, hogy ő egy modell, és azt tervezték, hogy szép dolgokat mondjon, függetlenül attól, hogy milyen személy néz ki.

Nem sokkal ezután Pepper kéri a kölcsönt a kékből. Ez egy szokatlan kérdés, egy elkeseredettség, hogy mi könnyedén megbocsátunk egy robotnak, mint egy gyermek. A riporter rámutatott arra, hogy a kérdés durva, azt javasolta, hogy a robotoknak nincs pénzük, vagy elismerik, hogy nem érdekelt, hogy 100 dollárt adjon át a Peppernek. Az egész igazság az, hogy a riporter tudott kölcsönözze a robotnak a pénzt, de megérti, hogy maga a kérdés egy kis játék. Amit úgy dönt, hogy azt mondja, az elhajlás, vagy egy fehér hazugság, vagy egy fél igazság - nem rendelkezik vele a pénzzel. A remény az, hogy a robot ezt a szelíd „nem” -nek érti, és nem azt sugallja, hogy a riporter készpénzes gépre menjen, és visszavonjon. Mivel a Pepper nyilvánvalóan valamilyen társadalmi kegyelemmel rendelkezik, a megkérdezés sora ott van.

A szociális robotokat úgy tervezték meg, hogy megtanulják a szociális jelzéseket, és ez jó dolog - végső soron jobban teszi őket munkahelyünkön. A programozók feladata, hogy ne bontják ki az összes robot megtévesztését, hanem olyan funkciókat hozzanak létre, amelyek megkönnyítik a robotok számára a megfelelő válaszok meghozatalát.

Amikor a robotok bizalmasaink, tudniuk kell a kontextust és a közönséget. Ha például otthoni ruhákat próbálok meg, akkor őszintén szeretném megítélni, hogy mennyire hízelgő a különböző lehetőségek. Ha egy párton megyek, és hirtelen öntudatos vagyok, hogy rossz ruhát választottam, a megnyugtatás, hogy jól nézek ki, a leghasznosabb válasz lesz.

A robotok sok személyes információt fognak tanulni társaikról, és fontos lesz számukra, hogy megértsék a bizalmas információk és a nyilvánosság közötti különbséget, és tisztában legyenek azzal is, hogy ki hallgat, amikor beszél. A kérdések különböző válaszokat kapnak attól függően, hogy ki kérdezi. A robotok másképp fognak viselkedni, ha a vendégek otthon vannak.

A robotok, mint a gyerekek, felelősségteljes szülői nevelést igényelnek. Ez azt jelenti, hogy mind a robotprogramozók, mind a robotok tulajdonosai mélyen gondolkodnak az A.I. kölcsönhatásokat. De ez nem jelenti azt, hogy tökéletes őszinteségre van szükség - komolyan, senki sem akarja ezt.

$config[ads_kvadrat] not found