Nerf War: First Person Shooter 9
Az interneten mindenkinek nagyszerű ideje volt a Tay-nél, a Microsoft Twitter robotjában, amely néhány óra alatt rasszista holokauszt-denierré vált (ezután jött vissza, és újra megtette). A vállalat nyilvános kapcsolati lapot hozott létre - több incidens, mint egy katasztrófa -, miközben a nyilvánosság számára objektív leckét adott a gépi tanulás előnyeiről és hátrányairól: Az automatizálás a mintákat lenyűgöző hatást gyakorolhatja a sebességgel, de az eredményeket kiszámíthatóan nehéz előre megjósolni.
Mint gyakran, a hadsereg az automatizálási technológia korai alkalmazója. Ez egyszerre vezet a gépi tanulás felé vezető díjért, és kétségbeesetten próbál lépést tartani. A Pentagon egyik fókuszpontja az autonóm robotok, és hogyan fognak az emberekkel együtt dolgozni - például egy R2D2-es robot-szárnyember. De ezen a héten Robert Work alelnök-helyettes újabb feladatot fogalmazott meg az A.I számára: nyílt forráskódú adatcsere.
„Biztosak vagyunk benne, hogy a mélyreható gépek használata lehetővé teszi számunkra, hogy jobban megértsük az ISIL-t mint hálózatot, és jobban megértsük, hogyan kell pontosan megcélozni és vezetni a vereséghez” - mondta a titkár munkája szerint. DoD honlapja. Ebből a beszámolóból, a Work, aki egy, a washingtoni posta, volt az epiphany, miközben nézi a szilícium-völgy technológiai cégét: „olyan gép, amely adatokat vett a Twitterből, Instagramból és sok más nyilvános forrásból, hogy megmutassa a 2014. júliusi Malajzia Airlines légi járatának 17 lövését valós időben.”
A magánvállalkozások és a bűnüldözés már régóta próbálják megérteni a „nagy adatokat”. De a hadseregnek előnye van: erőforrás. Hozzáférésük van a minősített anyagokhoz is.
Az Egyesült Államok kormánya készen áll arra, hogy fogadja, hogy a szoftveres algoritmusok a hatalmas mennyiségű adatot sorba rendezhetik, hogy azonosítsák azokat az ISIS-célokat, amelyek egyébként kiküszöbölték őket, és felderítik és megzavarják a telkeket, mielőtt a tervezők képesek lennének elvégezni azokat. A kormány már megpróbálja tanulmányozni a közösségi médiát, hogy megjósolja az online tiltakozások méretét. Nem kétséges, hogy a gépi tanulás növeli a hírszerző elemzők számára a hatalmat a világban rendelkezésre álló információk gazdagságának megértéséhez. De ha ez az intelligencia olyan alap, amelyre halálos sztrájkot hoznak, az etikai kérdések összetettebbé válnak, még akkor is, ha egyszerűnek tűnnek.
Bár a munka gyorsan kijelentette, hogy a Pentagon nem „halálos hatalmat ruház át egy gépre”, ami a végső játék. Időközben az emberek „a hurokban maradnak”, ahogy a zsargon megy. De mivel bárki, aki egy iPhone-ra nézett egy ablakra vonatkozó állítás mellett, tudja, az eszközökkel és szoftverekkel kapcsolatos kapcsolataink nem egyszerűek. Problémásan hiteles és könnyen zavarja az UI-k problémáit.
Az „automatizálási torzítás”, az ember arra való hajlama, hogy elhalasztja a gépeket, egyértelmű és egyre jelentősebb veszélyt jelent. A jelenség illusztrálására szolgáló példa, amikor a telefon azt jelzi, hogy megteszi az utazási útvonalat, amiről tudod, hogy rossz, de ezt mindenképpen megteheted, feltételezve, hogy a telefonnak tudnia kell valamit, amit nem. Ez a nem katonai kontextusban gyakori probléma. Úgy tűnik, hogy a Pentagon közelebb kerül a mesterséges intelligencia által jelentett fenyegetettségi jelentésekhez. Nem tudunk semmit a program lehetséges hatékonyságáról, kivéve, hogy az embereknek nehéz lesz megvalósítani.
A diákok és a szakmai pilóták és az automatizálás torzításával foglalkozó 2001-es tanulmányban a kutatók azt találták, hogy „olyan forgatókönyvekben, ahol helyes információk álltak rendelkezésre az automatizálási rendellenességek ellenőrzésére és észlelésére, az 55% -ot megközelítő hibaarányok mindkét populációban dokumentáltak”. hogy egy további emberi csapattárs hozzáadása nem csökkentette a problémát.
Hasonlóképpen, a múlt évi MIT-tanulmány kissé zavaróan megállapította, hogy a számítógépes és videojáték-játékosok „nagyobb mértékű hajlamot mutatnak az automatizálásra”. Ez azt jelentheti, hogy minél több időt töltünk a képernyőkre nézve, annál inkább bízunk abban, amit látunk. Ismét a probléma nem az általunk használt rendszerekkel, hanem azzal, ahogyan ezeket használjuk. A hiba nem a csillagunkban van, hanem magunkban.
A nagy adatok ígéretesek. A gépi tanulás ígéretes. De amikor a gépek az embereknek tanácsot adnak, az eredmények kiszámíthatatlanul kiszámíthatatlanok. Tay átalakul-e egy neonáci misszióba, ami azt jelenti, hogy a Twitter gyűlöli a zsidókat és a nőket? Nehéz tudni, de meglehetősen valószínűtlen. Amikor nem értjük a folyamatot, hogy a bemenetek hogyan válnak kimenetekké, akkor az eredményeket ésszerű módon kezeljük. Ami a Pentagonot érdekes helyzetbe hozza. Vajon a katonai gépi tanulási szoftvert programozó emberek lesznek azok, akik megrendelik a légzsákokat? Ez nem így működik a parancsnoki lánc, de a parancsnoki láncok összekeverednek, amikor a technológia bekapcsolódik.
Nixon tanácsadó elismerte a nyilvánvaló: háború a drogok ellen háború a feketék és a hippik ellen
Amikor Richard Nixon elnök 1971-ben kijelentette a "kábítószer elleni háborút", akkor káros következményekkel járó lángot gyújtott be, beleértve - de nem kizárólag - az Egyesült Államokban a tömeges bebörtönzést, a hatalmas erőszakot Latin-Amerikában, valamint a szisztematikus emberi jogi visszaélések elterjedését. világ. Ez a politikai ...
Az Apple iPhone 7 fényképezőgép gépi tanulást használ az emberek keresésére
Míg az Apple „bátornak” tartja magát, mert arra kényszeríti a fogyasztókat, hogy 159 dollárnyi új légáramlást vásároljon, a „játékváltás” jobb leírása lehet az iPhone 7 fényképezőgépének, melyet Phil Schiller főszónok „iPhone legjobb fényképezőgépének” nevezett. „Ez valóban egy szuperszámítógép fényképekhez” - mondta Schiller az Apple „Speci ...
'Doctor Who' Season 11 Trailer: A 3 új társa harcol a szexizmus ellen
A második doktor, a 'Doctor Who' 11. szezon alapján úgy tűnik, hogy a doktor és a három új társa szembesül a szexizmussal. Ne tévedj, Jodie Whittaker 13. doktora egy teljes főnök, és ő az, aki minden helyzetben felelős.