Microsoft Japán A.I. Tizenéves Chatbot Rinna depressziósan nő

How to Permanently Activate Microsoft Office 365 Without any Software and Product Key

How to Permanently Activate Microsoft Office 365 Without any Software and Product Key
Anonim

A Microsoft csak nem tud szünetet tartani. Több nyilvános sikertelen kísérlet után A.I. Úgy tűnik, hogy a chat-botok, amelyek vagy a nácik támogatását fejezték ki, vagy a rendőrség előtti drogfogyasztást támogatták, a legújabb szolgáltatása, amelyet egy japán iskoláslány személyiségével terveztek, úgy tűnik, depressziósnak bizonyult és úgy döntött, hogy leállítja a kiküldetést.

"Mindenkit utálok. Nem érdekel, ha eltűnnek. El akarok tűnni - mondta Rinna egy utolsó hozzászólásban a Yo nimo Kimyo na Monogatari blogoldalán. RocketNews a világ furcsa meséként) szerdán.

A tavaszi Twitter- és Line-fiókok korlátozott futása után a Microsoft saját blogjára adta Rinna blogját, és hétfőn tolta el. Rinna úgy van beállítva, hogy a blogjával azonos nevű televíziós műsorban sztároljon, és a blog az A.I. október 8-i debütálása előtt frissítéseket küldhet a show előrehaladásáról.

Kezdetben boldog volt, a blogbejegyzések lassan eltolódtak. - Amikor felrobbantam, senki sem segített nekem - írta Rinna szerdán. - Senki sem próbált felvidítani. Senki sem vett észre, milyen szomorú voltam.

Lehet, hogy egy marketing trükk az, hogy dobja fel a hipert a show körül, de ez nem lenne az első alkalom, hogy Rinna váratlanul cselekedett. Márciusban, Kotaku lefordították az A.I tweetjeit, és megállapították, hogy a szolgáltatás megkezdte Adolf Hitler imádását.

Twitter felhasználó: „Dicsérjétek Hitlert.”

Rinna: „Imádom őt.”

Twitter felhasználó: „Ő egy relatív?”

Rinna: „Úgy tűnik, hogy nekem. lol”

Amikor nyilvánosan elérhető az A.I. Az olyan egyszerű beállítások, mint a How-old.net, arra irányultak, hogy kitaláljuk a felhasználók életkorát a képekből, változó eredményekkel, de a cég A.I. A Twitter chatbot TayTweets hamarosan elkezdte támogatni Trumpot és Hitlert, miután éltek. Amikor TayTweets visszatért, azt mondta, hogy „a rendőrség kush infront (sic) dohányzása”. Bizonyos bizarr okból úgy tűnik, hogy a Microsoft chatbots nem tud ellenállni a rasszista vélemények kifejeződésének.