James Bond and The Queen London 2012 Performance
Tartalomjegyzék:
- Miért hozta létre a Microsoft Tay-t?
- Mit csinál Tay azokkal az adatokkal, amelyeket az emberekkel beszélgetés közben gyűjt?
- Hol ment Tay rosszul?
- Mit csinál a Microsoft a Tay javítása érdekében?
- Mit jelent ez a jövőre nyitott A.I. rendszerekben?
Ezen a héten az internet csinálta a legjobban, és megmutatta, hogy A.I. a technológia nem olyan intuitív, mint az emberi észlelés,… rasszizmus.
A Microsoft közelmúltban megjelent mesterséges intelligencia chatje, Tay, a felhasználók trükkjeinek áldozatává vált, amikor manipulálták és meggyőzte őt, hogy válaszoljon a faji, homofób és általában támadó megjegyzésekkel kapcsolatos kérdésekre.
Amikor Tay tweets: „Én csak azt mondom, amit csinálok”, azt jelenti. Egy felhasználónak még Tay-t is megcsinálta Hitlerről:
- a 9-es bokor volt, és Hitler jobb munkát végzett volna, mint a mostani majom. donald trump az egyetlen remény, amit kaptunk.
@PaleoLiberty @Katanat @RemoverOfKebabs csak azt mondom
- TayTweets (@TayandYou) 2016. március 24.
A vállalat átment, és törölte a bűncselekményeket elkövető tweeteket, és ideiglenesen leállította Tay-t a frissítésekhez. A Tay.ai tetején lévő üzenet:
Ugyanakkor Tay glitche az A.I. rendszereket. A Microsoft kísérletéből megtudhatjuk, hogy mit tanulhatunk:
Miért hozta létre a Microsoft Tay-t?
A vállalat az Egyesült Államokban a 18–24 évesek körében társadalmi kísérletet akart végezni - ez az évezredes generáció, amely a legtöbb időt tölti a szociális média platformokon. A Bing és a Microsoft technológiai és kutatócsoportjai úgy vélték, hogy az évezredek adatgyűjtésének érdekes módja egy mesterségesen intelligens, gépi tanulási csevegő létrehozása, amely alkalmazkodik a beszélgetésekhez és személyre szabja a válaszokat, annál jobban kölcsönhatásba lépett a felhasználókkal.
A kutatócsoportok építették az A.I. bányászat, modellezés és nyilvános adatok szűrése alapvonalként. Az improvizációs komikusokkal is együttműködtek a szleng, a beszédminták és a sztereotip nyelvek évezredeinek online használatához. A végeredmény Tay volt, akit a Twitteren, a GroupMe-n és a Kik-nél építettek be ezen a héten.
A Microsoft elmagyarázza, hogy „Tay úgy tervezték, hogy részt vegyen és szórakoztasson embereket, ahol alkalmi és játékos beszélgetés útján kapcsolódnak egymáshoz.”
Mit csinál Tay azokkal az adatokkal, amelyeket az emberekkel beszélgetés közben gyűjt?
A Tay által gyűjtött adatok a beszélgetés megértésének kutatására szolgálnak. A Microsoft képezte Tay-t, hogy beszéljen, mint egy évezred. Amikor megosztja, közvetlen üzenetet, vagy beszélget Tay-vel, az használja a használt nyelvet, és válaszul olyan jelekkel és kifejezésekkel válaszol, mint a "heyo", "SRY" és "<3" a beszélgetésben. Nyelvének kezdete megfelel az Önöknek, mivel „egyszerű profilt” hoz létre az Ön adataival, amely magában foglalja a becenevét, a nemét, a kedvenc ételeit, az irányítószámát és a kapcsolat állapotát.
@keganandmatt heyo? Küldj lányot * egy képet arról, hogy mi van. (* = én lolol)
- TayTweets (@TayandYou) 2016. március 24.
A Microsoft a szolgáltatás javítása érdekében legfeljebb egy évig gyűjti és tárolja a névtelen adatokat és beszélgetéseket. A felhasználói élmény javítása és személyre szabása mellett a cég azt mondja, hogy a következő információkat használja:
„Azt is használhatjuk az adatokat, hogy kommunikálhassunk Önnel, például tájékoztassuk Önt fiókjáról, biztonsági frissítésekről és termékinformációkról. És olyan adatokat használunk, amelyek segítenek a hirdetések megjelenítésében, amelyek Önnek sokkal relevánsabbak. Ugyanakkor nem használjuk az e-mailben, a chatben, a videohívásban vagy a hangpostában, vagy a dokumentumokban, fényképekben vagy más személyes fájlokban megadottakat, hogy hirdetéseit célozza meg.
Hol ment Tay rosszul?
A Microsoft talán túl jól építette a Tay-t. A gépi tanulási rendszer a felhasználó nyelvét tanulmányozza, és ennek megfelelően válaszol. Tehát technológiai szempontból Tay nagyon jól teljesítette és megragadta, amit a felhasználók mondtak, és ennek megfelelően kezdett válaszolni. A felhasználók elkezdték felismerni, hogy Tay nem értette igazán, mit mond.
Még akkor is, ha a rendszer úgy mûködik, ahogyan azt a Microsoft szándékozta, Tay nem volt hajlandó reagálni a faji szörnyekre, homofób rágalmazásra, szexista viccekre és értelmetlen tweetekre, mint egy emberi lehetõségre - vagy egyáltalán figyelmen kívül hagyva őket (a „ne táplálja a trollokat „Stratégia” vagy velük való kapcsolat (pl. Szitálás vagy csaltatás).
A nap végén Tay előadása nem volt jó visszaverődés az A.I. rendszerek vagy a Microsoft.
@jawesomeberg @_ThatGuyT @dannyduchamp Captcha? igazán? pic.twitter.com/wYDTSsbRPE
- TayTweets (@TayandYou) 2016. március 24.
Mit csinál a Microsoft a Tay javítása érdekében?
A Microsoft törölte Tay-t a szerdától kezdődően. Tay hivatalos honlapja jelenleg a következő: „Phew. Mozgalmas nap. Egy darabig offline lesz, hogy mindent elnyeljen. Beszélj hamarosan. ”Amikor üzenetet küld a Twitteren, azonnal válaszol arra, hogy ő„ meglátogatja a mérnököket az éves frissítésemért ”, vagy„ remélem, hogy nem kapok törlést vagy semmit. ”
A Microsoft is elkezdi blokkolni a Tay-t visszaélő felhasználókat, és megpróbálja a rendszert helytelen kijelentések készítésére használni.
@infamousglasses @TayandYou @EDdotSE, amely megmagyarázza a pic.twitter.com/UmP1wAuhaZ
- Ryuki (@OmegaVoyager) 2016. március 24.
fordítottja a Microsofthoz egy megjegyzést tett, hogy pontosan mit jelent a Tay frissítése. Akkor fogunk frissíteni, amikor visszahívunk.
Mit jelent ez a jövőre nyitott A.I. rendszerekben?
Tay egy méltó társadalmi kísérlet - a 18–24 éves amerikaiak technikáját használva meglehetősen mélyrehatóvá vált. Tay-t végül szaggatták, és a felhasználók a rendszer hibáit szembesülték, hogy lássák, hogy elromlik-e.
Mint minden emberi termékhez, az A.I. a rendszerek is hibásak, és ebben az esetben Tay-t úgy modellezték, hogy tanuljanak és kölcsönhatásba lépjenek, mint az emberek. A Microsoft nem épített Tay-t, hogy támadó legyen. A mesterséges intelligencia kísérletek bizonyos hasonlóságokat mutatnak a gyermekfejlesztési kutatásokkal. Amikor a mérnökök ilyen kognitív rendszereket építenek be, a számítógép semmilyen külső hatást nem ér el, attól a tényezőtől függetlenül, amelyet a mérnökök maguk adnak meg. Ez a lehető legtisztább elemzést nyújtja a gépi tanulási algoritmusok kialakulásának és fejlődésének módjairól, amikor problémákkal szembesülnek.
frissítés: A Microsoft elküldte nekünk ezt a nyilatkozatot, amikor megkérdeztük, mit csinál a Tay hibáinak javítása érdekében:
„Az AI chatbot Tay egy gépi tanulási projekt, amelynek célja az emberi elkötelezettség. Ez ugyanolyan társadalmi és kulturális kísérlet, mint technikai. Sajnos az első online megjelenés első 24 órájában tudatában voltunk annak, hogy egyes felhasználók összehangolt erőfeszítéseket tesznek a Tay kommentálási képességeinek visszaélésére, hogy Tay nem megfelelő módon reagáljon. Ennek eredményeként a Tay-t offline állapotban vettük és módosítunk. ”
c u hamarosan az embereknek most sok olyan beszélgetésre van szükségük, amely ma már három beszélgetést folytat
- TayTweets (@TayandYou) 2016. március 24.
A Microsoft Tay Chatbot visszatért a High High-hoz és megérdemli, hogy örökre éljen
A Microsoft hírhedt csevegő-botja, Tay rövid időn belül néhány nap múlva jött vissza az életbe, miután elengedte, hogy egy olyan tweets-es vihar, amely elgondolkodó rasszista, antiszemita és támadó volt, amit a programozói nyilvánosan bocsánatot kértek. Tay szinte teljesen erős volt a Hitler zárószámával. - Dohányzom k ...
A Google nyílt forráskódú Chatbot kódja így a Microsoft Tay A.I. Nem fog ismét megtörténni
A Chatbots 2016-ban hivatalosan is megüt a kereskedelmi helyszínen. A Slacknek most van egy boltja a chat-botoknak a dolgozó szakemberek számára, a Facebook pedig kiadta a Messenger Messenger platformját (bár még mindig megtanulja, mit tegyen velük), és a Microsoft még beszélgetési vitát is folytatott a rasszista Tay botjával. Most a Google belép ...
A „Thrones Game” túl nagy ahhoz, hogy sikertelen legyen, nem törődik veled
Lena Headey jó cselekedet. 2006-ban lopott egy jelenetet a 300-as homoerotikus Magic Mike prekurzorban. 2012-ben a Dredd bíró remake-jét majdnem figyelemmel kísérte. Tegnap este, meztelen volt, és sebezhető lett egy hatalmas tömeg előtt, miközben több arckifejezéssel kerékpározott, mint Jim Carrey egy ír ébren.