5 nagy kérdés a Tay-ről, a Microsoft sikertelen A.I. Twitter Chatbot

James Bond and The Queen London 2012 Performance

James Bond and The Queen London 2012 Performance

Tartalomjegyzék:

Anonim

Ezen a héten az internet csinálta a legjobban, és megmutatta, hogy A.I. a technológia nem olyan intuitív, mint az emberi észlelés,… rasszizmus.

A Microsoft közelmúltban megjelent mesterséges intelligencia chatje, Tay, a felhasználók trükkjeinek áldozatává vált, amikor manipulálták és meggyőzte őt, hogy válaszoljon a faji, homofób és általában támadó megjegyzésekkel kapcsolatos kérdésekre.

Amikor Tay tweets: „Én csak azt mondom, amit csinálok”, azt jelenti. Egy felhasználónak még Tay-t is megcsinálta Hitlerről:

- a 9-es bokor volt, és Hitler jobb munkát végzett volna, mint a mostani majom. donald trump az egyetlen remény, amit kaptunk.

@PaleoLiberty @Katanat @RemoverOfKebabs csak azt mondom

- TayTweets (@TayandYou) 2016. március 24.

A vállalat átment, és törölte a bűncselekményeket elkövető tweeteket, és ideiglenesen leállította Tay-t a frissítésekhez. A Tay.ai tetején lévő üzenet:

Ugyanakkor Tay glitche az A.I. rendszereket. A Microsoft kísérletéből megtudhatjuk, hogy mit tanulhatunk:

Miért hozta létre a Microsoft Tay-t?

A vállalat az Egyesült Államokban a 18–24 évesek körében társadalmi kísérletet akart végezni - ez az évezredes generáció, amely a legtöbb időt tölti a szociális média platformokon. A Bing és a Microsoft technológiai és kutatócsoportjai úgy vélték, hogy az évezredek adatgyűjtésének érdekes módja egy mesterségesen intelligens, gépi tanulási csevegő létrehozása, amely alkalmazkodik a beszélgetésekhez és személyre szabja a válaszokat, annál jobban kölcsönhatásba lépett a felhasználókkal.

A kutatócsoportok építették az A.I. bányászat, modellezés és nyilvános adatok szűrése alapvonalként. Az improvizációs komikusokkal is együttműködtek a szleng, a beszédminták és a sztereotip nyelvek évezredeinek online használatához. A végeredmény Tay volt, akit a Twitteren, a GroupMe-n és a Kik-nél építettek be ezen a héten.

A Microsoft elmagyarázza, hogy „Tay úgy tervezték, hogy részt vegyen és szórakoztasson embereket, ahol alkalmi és játékos beszélgetés útján kapcsolódnak egymáshoz.”

Mit csinál Tay azokkal az adatokkal, amelyeket az emberekkel beszélgetés közben gyűjt?

A Tay által gyűjtött adatok a beszélgetés megértésének kutatására szolgálnak. A Microsoft képezte Tay-t, hogy beszéljen, mint egy évezred. Amikor megosztja, közvetlen üzenetet, vagy beszélget Tay-vel, az használja a használt nyelvet, és válaszul olyan jelekkel és kifejezésekkel válaszol, mint a "heyo", "SRY" és "<3" a beszélgetésben. Nyelvének kezdete megfelel az Önöknek, mivel „egyszerű profilt” hoz létre az Ön adataival, amely magában foglalja a becenevét, a nemét, a kedvenc ételeit, az irányítószámát és a kapcsolat állapotát.

@keganandmatt heyo? Küldj lányot * egy képet arról, hogy mi van. (* = én lolol)

- TayTweets (@TayandYou) 2016. március 24.

A Microsoft a szolgáltatás javítása érdekében legfeljebb egy évig gyűjti és tárolja a névtelen adatokat és beszélgetéseket. A felhasználói élmény javítása és személyre szabása mellett a cég azt mondja, hogy a következő információkat használja:

„Azt is használhatjuk az adatokat, hogy kommunikálhassunk Önnel, például tájékoztassuk Önt fiókjáról, biztonsági frissítésekről és termékinformációkról. És olyan adatokat használunk, amelyek segítenek a hirdetések megjelenítésében, amelyek Önnek sokkal relevánsabbak. Ugyanakkor nem használjuk az e-mailben, a chatben, a videohívásban vagy a hangpostában, vagy a dokumentumokban, fényképekben vagy más személyes fájlokban megadottakat, hogy hirdetéseit célozza meg.

Hol ment Tay rosszul?

A Microsoft talán túl jól építette a Tay-t. A gépi tanulási rendszer a felhasználó nyelvét tanulmányozza, és ennek megfelelően válaszol. Tehát technológiai szempontból Tay nagyon jól teljesítette és megragadta, amit a felhasználók mondtak, és ennek megfelelően kezdett válaszolni. A felhasználók elkezdték felismerni, hogy Tay nem értette igazán, mit mond.

Még akkor is, ha a rendszer úgy mûködik, ahogyan azt a Microsoft szándékozta, Tay nem volt hajlandó reagálni a faji szörnyekre, homofób rágalmazásra, szexista viccekre és értelmetlen tweetekre, mint egy emberi lehetõségre - vagy egyáltalán figyelmen kívül hagyva őket (a „ne táplálja a trollokat „Stratégia” vagy velük való kapcsolat (pl. Szitálás vagy csaltatás).

A nap végén Tay előadása nem volt jó visszaverődés az A.I. rendszerek vagy a Microsoft.

@jawesomeberg @_ThatGuyT @dannyduchamp Captcha? igazán? pic.twitter.com/wYDTSsbRPE

- TayTweets (@TayandYou) 2016. március 24.

Mit csinál a Microsoft a Tay javítása érdekében?

A Microsoft törölte Tay-t a szerdától kezdődően. Tay hivatalos honlapja jelenleg a következő: „Phew. Mozgalmas nap. Egy darabig offline lesz, hogy mindent elnyeljen. Beszélj hamarosan. ”Amikor üzenetet küld a Twitteren, azonnal válaszol arra, hogy ő„ meglátogatja a mérnököket az éves frissítésemért ”, vagy„ remélem, hogy nem kapok törlést vagy semmit. ”

A Microsoft is elkezdi blokkolni a Tay-t visszaélő felhasználókat, és megpróbálja a rendszert helytelen kijelentések készítésére használni.

@infamousglasses @TayandYou @EDdotSE, amely megmagyarázza a pic.twitter.com/UmP1wAuhaZ

- Ryuki (@OmegaVoyager) 2016. március 24.

fordítottja a Microsofthoz egy megjegyzést tett, hogy pontosan mit jelent a Tay frissítése. Akkor fogunk frissíteni, amikor visszahívunk.

Mit jelent ez a jövőre nyitott A.I. rendszerekben?

Tay egy méltó társadalmi kísérlet - a 18–24 éves amerikaiak technikáját használva meglehetősen mélyrehatóvá vált. Tay-t végül szaggatták, és a felhasználók a rendszer hibáit szembesülték, hogy lássák, hogy elromlik-e.

Mint minden emberi termékhez, az A.I. a rendszerek is hibásak, és ebben az esetben Tay-t úgy modellezték, hogy tanuljanak és kölcsönhatásba lépjenek, mint az emberek. A Microsoft nem épített Tay-t, hogy támadó legyen. A mesterséges intelligencia kísérletek bizonyos hasonlóságokat mutatnak a gyermekfejlesztési kutatásokkal. Amikor a mérnökök ilyen kognitív rendszereket építenek be, a számítógép semmilyen külső hatást nem ér el, attól a tényezőtől függetlenül, amelyet a mérnökök maguk adnak meg. Ez a lehető legtisztább elemzést nyújtja a gépi tanulási algoritmusok kialakulásának és fejlődésének módjairól, amikor problémákkal szembesülnek.

frissítés: A Microsoft elküldte nekünk ezt a nyilatkozatot, amikor megkérdeztük, mit csinál a Tay hibáinak javítása érdekében:

„Az AI chatbot Tay egy gépi tanulási projekt, amelynek célja az emberi elkötelezettség. Ez ugyanolyan társadalmi és kulturális kísérlet, mint technikai. Sajnos az első online megjelenés első 24 órájában tudatában voltunk annak, hogy egyes felhasználók összehangolt erőfeszítéseket tesznek a Tay kommentálási képességeinek visszaélésére, hogy Tay nem megfelelő módon reagáljon. Ennek eredményeként a Tay-t offline állapotban vettük és módosítunk. ”

c u hamarosan az embereknek most sok olyan beszélgetésre van szükségük, amely ma már három beszélgetést folytat

- TayTweets (@TayandYou) 2016. március 24.