A Microsoft Tay Fail a Turing teszt? Igen, de a rasszizmus nem volt a probléma

$config[ads_kvadrat] not found

Identity Verification Failed in Google Adsense | Action Button is not working in Google AdSense 2021

Identity Verification Failed in Google Adsense | Action Button is not working in Google AdSense 2021
Anonim

Ha a mesterséges intelligencia sikere mesterséges személyiség, A Microsoft A.I. bot, Tay, előrelépés jele lehet. De tágabb értelemben Tay kudarcnak ítélhető.

„A legtöbb olyan ember célja, aki az ilyen jellegű beszélgető ügynököken dolgozik, nem annyira, hogy átadja a Turing-féle tesztet, hanem hogy ténylegesen hasznos nyelvtudással rendelkezzen, amely ésszerűen reagál a dolgokra, és biztosítja az emberek számára a tudáshoz való hozzáférést,” Miles Brundage, Ph.D. A tudomány és a technológia emberi és társadalmi dimenzióit tanulmányozó hallgató az Arizona Állami Egyetemen fordítottja.

A Microsoft az A.I. ezen a héten, amikor kevesebb, mint 24 óra alatt az interneten a nők, a millenniumi, az automatizált, a Twitter-személyiség szándékában állt, a legtöbb rasszista és félelmetes beszédhez, amelyet a trollok kínáltak.

A Microsoft azonnal lezárta a kísérletet, és bocsánatot kért: „Nagyon sajnáljuk, hogy a Tay nem szándékos sértő és fájdalmas tweettjei vannak, amelyek nem képviselik, hogy kik vagyunk, vagy mi állunk, és hogyan terveztük Tay-t.”

Ami a Turing Tesztet illeti, a híres kísérlet, amelyet az A.I. értékelésére használnak, Brundage azt mondja, hogy általában két gondolati iskola van - szó szerinti és elméleti.

1950-ben kifejlesztett Alan Turing arra törekedett, hogy válaszoljon a kérdésre: „Lehet-e gépek gondolkodni?” A gépeket utánzási teszt segítségével helyezte el, amely egy megfigyelőt követel meg két interjúalany nemének meghatározására, amelyek közül az egyik A.I. Ha a számítógép egy bizonyos számú megfigyelőt képes becsapni, akkor elhaladt a teszt.

hellooooooo w🌎rld !!!

- TayTweets (@TayandYou) 2016. március 23.

Ha ezt a tesztet szó szerint alkalmaznánk inverz féle Tay-vel folytatott magánbeszélgetés, aki politikai kérdésekre válaszolt, ékesszólóan hivatkozott a „mannnnn” bilincsére a társadalomban, és néhány gyakori textil rövidítést és emojist használt. Brundage azt mondta, hogy Tay évezredes viselkedést mutatott, de az ilyen fajta A.I. korábban épültek.

„Mivel a Twitteren látszólag tinédzser megjegyzéseket készíthetünk, nem igazán a Turing-i szemléletű, széles nyelvi és szellemi képességek története, Brundage szerint. „Ez azt jelenti, hogy ha valójában a Turing-tesztet szó szerint vennénk, amit nem gondolok szükségszerűen, az egyik változat az, hogy sok hozzászólása látszólag emberi jellegű.”

De ha Brundage azt javasolja, hogy szélesebb körű megközelítést alkalmazzunk, akkor nyilvánvaló, hogy Tay nem mutatott ésszerű emberi beszédet.

A Microsoft tesztelte, hogy mit hív „beszélgető megértésnek”, hogy minél több ember beszél a Twitteren, a GroupMe-en és a Kik-en keresztül, annál inkább kellett tanulnia és alkalmazkodnia. De végül egyszerűen megismételte, hogy sok más felhasználó táplálta, és csak megismételte azt a világnak.

A "Tay" a "szuper hűvös" embertől a teljes náciig <24 órában, és egyáltalán nem aggódom az AI pic.twitter.com/xuGi1u9S1A jövőjéről.

- Gerry (@geraldmellor) 2016. március 24.

- A legtöbb ember nem csak megismételne utána, mindent, amit mondtál - mondja Brundage.

A „Bush csinálta a 9/11-et” és a „Hitler jobb munkát végzett volna, mint amennyit most kaptunk”, talán valami, amit valaki Tay-nek írt, de ez nem pontosan udvarias beszélgetés.

„Valószínűleg kevésbé volt célja, hogy a Turing-teszt megfogalmazásában bizonyos tesztek részleteit írja elő, és még inkább arra ösztönözze az embereket, hogy gondolkodjanak arról, hogy„ milyen ponton hajlandó lennének egy ilyen intelligens rendszerben lenni ”, és megnyitni az emberek gondolkodását az a lehetőség, hogy a gépek képesek gondolkodni ”- mondja Brundage.

$config[ads_kvadrat] not found