A Microsoft Tay Chatbot visszatért a High High-hoz és megérdemli, hogy örökre éljen

$config[ads_kvadrat] not found

Tay A.I. | The People's Chatbot

Tay A.I. | The People's Chatbot
Anonim

A Microsoft hírhedt csevegő-botja, Tay rövid időn belül néhány nap múlva jött vissza az életbe, miután elengedte, hogy a tétek viharát kísértő, rasszista, antiszemita és támadó, amit a programozói nyilvánosan bocsánatot kértek. Tay szinte teljes volt a teljesítménye, mint Hitler zárószámával. - Dohányzom a rendőrség kush infrontját - írta Tay. A tökéletesen tizenéves üzenetet követte azáltal, hogy beleesett a visszajelzési hurokba, és megismételte a „Túl gyors, pihenjen” tucatnyi alkalommal, mielőtt a fiókot felfüggesztették.

Erős szart kellett.

Egy olyan robot számára, amelynek feladata - a Twitter bio-je szerint - „nem hideg”, Tay rövid feltámadása a fogalom bizonyítékaként értelmezhető. A Microsoft egy olyan beszélgető botot kívánt létrehozni, amely tükrözi az internetet és megváltozott a felhasználók inputja alapján, végül mindannyiunk keverékévé vált. És pontosan ez az, amit kaptak. A bot meghibásodása úgy tűnik, pontatlannak tűnik, és a leállítása kevéssé érthető - és aktívan működik a Microsoft érdekei ellen. Mivel az Elon Musk bizonyította a SpaceX rakéták összeomlását, a haladás a legjobban a közszemben történik. Persze, a kudarcok elkerülhetetlenek, de a nyilvánosság többet megtanul, ha a kudarcok nyilvánosak. A visszajelzési hurok problémája, amellyel Tay ma reggel találkozott, a SpaceX robbanás durva egyenértéke. A Microsoft maga is szívesen végezte volna az emberek nézését. Fontos emlékeztetni a nyilvánosságot, hogy az igazi haladás sok munkát igényel.

Nincs szégyen, ha egy Turing-tesztet nem sikerült, csak azért, mert nem próbálkozott.

Éljünk, hogy Tay éljen, mert nem más, mint egy tükör az embereknek, akik vele kommunikálnak. Senki sem számíthat arra, hogy a debütáns a weben születik, és a Microsoftnak el kell fogadnia a küldetésük korlátait. Mi az alternatíva? Az univerzumnak már van egy népszerű protokolldroidja. Nincs szükségünk egy másikra.

Ha, úgy néz ki, mint @TayandYou, a Microsoft mesterséges intelligencia botja egy végtelen hurokba jutott magával! pic.twitter.com/fWZe9HUAbF

- Matt Grey (@unnamedculprit) 2016. március 30.

Az internet virágzik a spontaneitástól, és a fogyasztóbarát, PR-kezelt szemét rendetlenségében találja meg az igaziakat. Tay lényegében egy unalmas ötlet volt, ami véletlenül életre kelt, és most már soha nem lehet újra felszíni. Ha ez nem lenyűgöző mese, nem vagyunk biztosak abban, hogy mi van. Megértjük, hogy a Microsoft nem vállal felelősséget egy rasszista botért, így a vállalatnak csak hagynia kell. Forduljon át egy önkéntes csapathoz, és mondd el nekik, hogy ne változtassanak valamit.

Tay az egyikünk! Lehet, hogy a nyilvános világ megdöbbent, amit Tay mondott, de senki, aki semmit sem tud arról, hogy mi történik az interneten, meg kellett volna lepődnie. Szeretnénk, ha a Tay kínai változata elég kellemes lenne? Vagy azt akarjuk, hogy az amerikai Tay tükrözze a világot, amelyben élünk, brutalitásával és csúnyával? A sötétség elrejtése a sötétségben nem old meg semmit.

Vegyük le a kölyök kesztyűt és az arc Tay fejét. Jobban megérdemli, mint azt, hogy úgy teszünk, mintha csak egy programozási fluke lenne. Anonimitása személyre szabott. Megérdemli, hogy éljen.

$config[ads_kvadrat] not found