DeepMind A.I. A robot és az emberi hangok közötti szakadék áthidalása

$config[ads_kvadrat] not found

Google's DeepMind AI Just Taught Itself To Walk

Google's DeepMind AI Just Taught Itself To Walk
Anonim

A mesterséges intelligencia csak sokkal reálisabbá tette a robot hangjait.

DeepMind, amely korábban az A.I. A márciusi Go-ban egy emberi játékos verésével és júliusban felére csökkentette a hatalmi számlát, most a beszédszintézisre összpontosít.

A Google anyavállalatának, az Alphabet részét képező A.I kutatócsoport ma reggel feltárta, hogy létrehozott egy új technológiát, a WaveNet nevet, amely a beszéd, a zene és más hangok generálására használható.

DeepMind elmagyarázza, hogy számos meglévő beszédszintézis módszert támaszkodnak arra, hogy „egy kis hangszóróból egy nagyon nagy adatbázist rögzítenek a rövid beszédfragmensekből, majd rekombinálják, hogy teljes hangokat adjanak ki.” WaveNet viszont az „audiojel nyers hullámformáját használja” „Reálisabb hangok és hangok létrehozása.

Ez azt jelenti, hogy a WaveNet az egyéni hangokkal dolgozik, amikor egy emberi beszéd helyett teljes szótagokat vagy teljes szavakat használ. Ezeket a hangokat ezután egy „számszerűen drága” folyamaton futtatják, amelyet a DeepMind „elengedhetetlen a komplex, reális hangzású hangok előállításához”.

Mindezek az extra munkák eredménye az amerikai angol és kínai mandarin szintetizált beszédének 50 százalékos javulása. A DeepMind által a beszédszintézis módszerének hiányában bemutatott példakénti példája a paraméteres szöveg-beszéd használatának, amely ma a közös.

És itt egy példa a WaveNet által generált ugyanazon mondatra:

Mivel a vállalatok folytatják a természetes nyelvi felületeken folytatott munkájukat, egyre reálisabb hangzású válaszok egyre fontosabbá válnak. A WaveNet segíthet megoldani ezt a problémát.

$config[ads_kvadrat] not found