Grúzia Tech sztereotipizáló robotja az AI, nem a rasszizmus jövője

$config[ads_kvadrat] not found

Toyota GR Yaris review - see why I plan to buy one!

Toyota GR Yaris review - see why I plan to buy one!
Anonim

Az iskola utáni különlegességek és sokféleség szemináriumok által érzékeny fülekhez ez rosszul hangzik, de azt akarjuk, hogy a robotok gyorsan megjelenjenek a megjelenés alapján. Az előítéletek leküzdése jó, de a sztereotípiára való képtelenség csökkenti az intelligenciát - mesterséges és egyébként. Alan Wagner, Ph.D., a Georgia Tech robotista, a sztereotípiás technológia fő támogatója. Azt állítja, hogy ez a fajta logika nem szükséges a fajra vagy a nemre, csak a helyzetekre és a viselkedésre.

Sztereotípiájú algoritmusának korai tesztjében Wagner egy naiv robotot képzett, hogy következtetéseket vonjon le a láttán. A robot megtanult és észrevehetővé vált, ami lehetővé tette, hogy Wagner kritikusan elkezdhesse gondolkodni a robotfeltevések etikájáról, különösen az előre programozottakról. Beszélt fordítottja munkájáról és következményeiről.

Menj végig a kísérleten.

A robot különböző típusú személyekkel - tűzoltókkal, EMT-vel, vagy nem - kölcsönhatásba lép, de az ilyen egyéni kategóriákkal kapcsolatban nincs előzetes tapasztalata. Ez alapvetően a tapasztalati tanulás.

Az ötlet az volt, hogy megmutassuk, hogy a robot az egyén észlelési jellemzőit használhatja, hogy megjósolja szükségleteit a szerszámhasználat tekintetében. Az algoritmus működési módja, a robot fényképezőgépe különböző aspektusokat érzékelne az egyénre nézve - például az egyenletes színüket, legyen szó szakállról és hajszínükről.

Azt is megkérdezi nekik, hogy milyenek. Természetesen a kérdések feltevése nem az, amit a területen szeretne tenni, de a robot észlelése éppen ilyen korlátozott. Szükségünk volt egy módra, hogy elindítsuk a folyamatot a személy tanulásáról. A személy kiválasztotta a szerszámot, majd a robot kiválasztaná a szerszámot, és idővel a robot megtanulná, hogy melyik eszközt részesíti előnyben.

Elvárta, hogy a robot megtudja, hogy egy jelvény azt jelenti, hogy a rendőr vagy egy nehéz fényvisszaverő bevon egy tűzoltót jelent?

Mi vártuk. De volt néhány meglepő dolog is.Például a robot tévesen felismerte, hogy a szakállat egy tűzoltó előrejelzi - ez furcsa volt, de amikor megnézzük az adatokat, nem volt meglepő. Az első több ember, aki ezzel kapcsolatban volt, tűzoltók voltak, akiknek szakálluk volt. Tehát az észlelhető sokféleség szükségességét vitatjuk, az a gondolat, hogy ha a robot nagy, széles körben különböző típusú személyeket látna egy kategóriában, akkor jobban fejlesztheti és megértené a kategóriát.

Azt mondaná, hogy az önálló robotokat ki kell képezni, hogy kiegyenlítse ezeket a kérdéseket, így egy robot nem gondolja, ha ez a személy szakáll, akkor tűzoltó?

Teljesen. Kritikus, hogy ezeket a dolgokat kiküszöböljük. Kritikus, hogy ezek a robotok sokféle egyénekből működjenek.

Mi lehet ez a tanulás?

Ez lehetővé tenné, hogy a robot olyan dolgokra összpontosítson, amelyek jobban jellemzik a tűzoltókat. Például egy tűzoltó még nem visel kabátot. A robot észrevenné a tűzoltás egyéb aspektusait, talán a csizmákat, talán a kesztyűt, talán sisakot. Azt mondaná: „Oké, ez a személy valóban jelentése tűzoltó ebben a környezetben. ”

Ha elég embered van, akkor lehet, hogy egy tűzoltót felismer egy tűzoltónál egy Halloween félnél. Finom észlelési részletek, mint például az egyenruhák típusai vagy a kontextusos környezetek közötti különbség.

A szakállak tűzoltókkal való társítása mellett mennyire volt sikeres ez az algoritmus?

Két dolog volt, amit igazán akartunk nézni: Egy, mit tehetsz vele? Ha a robotok felismerik a tűzoltókat, ez valóban segít valamilyen módon? A papír megmutatta, hogy lehetővé tette, hogy szűkítse a keresést. Ahelyett, hogy a hajszínre nézve szakállat keresne, szemszínt keresve, vagy bármi más, amit kereshet, arra összpontosíthatna, hogy milyen tényezők vannak. Tűzoltó kabátot visel? Ez felgyorsíthatja a folyamatot.

Egy másik igazán kritikus dolog, amit nézett, mi van, ha a kategória, amit a robot előre megjósol, rossz? Hogyan hat ez? Elképzelheted, hogy a keresési és mentési környezetek kaotikusak lehetnek: talán füsttel töltött körülmények között dolgozhatsz, a robot talán nem tudja mindent nagyon jól érzékelni, talán hibái lehetnek. Elképzelhet egy rosszabb esetet, ahol a robot úgy gondolja, hogy a személy áldozat, ha valójában tűzoltók. Tehát egy tűzoltót meg akar menteni. Ez szörnyű lenne. Azt akartuk látni, hogy hol szakad el, hogyan törik meg, milyen tulajdonságokkal bír a leginkább, és milyen hibák vannak.

Ezt a megközelítést különböző módon használhatja - ha egyáltalán nem látják a személyt, de láthatják, hogy mit csinálnak. Ha látom a fejszét választó személyt, akkor megjósolhatom, hogy van egy sisakjuk.

Hogyan közelít meg egy robot megszerzéséhez a környezet megítéléséhez és előrejelzéséhez?

Megpróbáltunk pár különböző környezetet nézni: egy éttermet, egy iskolát és egy ápolási otthonot. Megpróbáltuk megragadni a környezettel kapcsolatos jellemzőket, és milyen tárgyak vannak a környezetben, milyen lépéseket választanak ki az ember, és hogyan néz ki az emberek a környezetben, és próbálják használni ezt a sok társadalmi előrejelzéshez. Például egy iskolai környezetben az emberek felemelik a kezüket, mielőtt beszélnek. Tehát, ha látom, hogy milyen cselekvést hajtanak végre az emberek, milyen típusú tárgyakat várnék a környezetben? Várom, hogy látok egy táblát; várok egy íróasztalt? Azt várnám, hogy gyermekeket látok.

A remény, hogy ezt az információt használjuk. Ha a robot evakuálási eljárást hajt végre, akkor látni fogja, hogy milyen típusú emberek vannak ott és hol lehetnek.

Tegyük fel, hogy van egy robot, ami az ajtóhoz jön, és azt mondja: „Kérlek kövess engem a kijáratra.” Valami oly egyszerű, mint amilyen valójában nagyon összetett. Ha egy robot egy lakóházban egy ajtón kopog, akkor fogalma sincs arról, hogy ki fog lépni. Lehet, hogy egy négy éves gyermek, lehet egy 95 éves ember. Szeretnénk, ha a robot az interaktív viselkedését az általa meglátogatott személy típusához igazítja, hogy megmentse őket. Néhány ilyen kontextusos tanulságot veszünk, és próbáljuk fejleszteni ezt az alkalmazást.

Hasonló definíciót használ a robotok és az emberek „sztereotípiájának”, vagy van valami más?

A sztereotípiák kifejezésnek negatív kontextusa van. Az általunk használt módszer egyszerűen az emberek kategóriáinak kifejlesztése és kategorikus információk felhasználása egy személy jellemzőinek megjósolására. Ismerek a pszichológiában, sok munka a sztereotípiákra és a nemi sztereotípiákra összpontosít. Nem csinálunk ilyesmit. Ugyanez a folyamat? Nem tudom. Nincs ötletem.

Aggódtak, hogy az emberek tévhitek a munkájáról?

Pár évvel ezelőtt kifejlesztettük ezt az ötletet a robotokról, amelyek becsaphatják az embereket. A médiában volt egy kicsit félreértés, hogy ez a robotok ellopják az emberek pénztárcáit.

Szeretném használni a vészhelyzeti evakuálási helyzetet: nem mindig akarsz teljesen becsületes lenni az evakuálást végző személygel, ugye? Például, ha valaki megkérdezte téged: „Rendben van a családom?” Szörnyű lehet, ha a robot azt mondta: „Nem, mindannyian meghaltak. Kérem, kövessen engem a kijárathoz. ”Vannak olyan helyzetek, amikor a robotnak valójában röviden tisztességtelennek kell lennie. De a tapasztalatom az volt, hogy az emberek úgy érezték, mintha a világ végéhez akarnánk vezetni.

Mindig érdekelnek ezeknek az emberi-robot technikáknak a társadalmi-társadalmi szempontjai. Megpróbálunk segíteni az embereket, nem valami rosszat.

$config[ads_kvadrat] not found