24 КХ 3 лига Az Auto Альянс
Baynazar Mohammad Nazar eszméletlen volt a műtőasztalon, amikor a mennyezet összeomlott. A négyes apa az előző napon a kórházba nézett, miután lövés volt a lábán, és két napon belül második műtéten ment keresztül, hogy kárt okozzon. Amikor az amerikaiak elkezdték elpusztítani az épületet, a vele foglalkozó orvosoknak nem volt más választása, mint amennyire csak lehetett menekülni.
Andrew Quilty itt Külpolitika a Baynazar életének és halálának történetét egy olyan cikkben meséli el, amely magában foglalja a műtéti asztalon lévő törmelékkel borított testét. A Baynazar az Egyesült Államok 31 emberének egyike volt, amikor az október 2-án Kunduzban, az Afganisztánban, az Orvosok határok nélkül (a továbbiakban: MSF) által kezelt kórházban lőtt.
Magas rangú, magas polgári-baleseti sztrájkok után a politikusok és a punditák azt kérdezik, hogyan történhetne ilyen dolog, és mit lehet tenni annak biztosítására, hogy ez ne történjen meg újra. Az autonóm fegyverrendszerek támogatói közül, amelyeket néha „gyilkos robotoknak” neveznek, az egyik népszerű érv az, hogy az emberi hiba (vagy rosszindulat) felelős a háború alatt elkövetett bűncselekmények nagy mértékűért. Elméletileg lehetséges, hogy azt mondják, hogy a robotok pontosabbak lehetnek a célzásban, és kevésbé hajlamosak a hibákra, mint az emberek.
„Valójában az emberi megítélés kevésbé megbízhatónak bizonyulhat, mint a technikai mutatók a harc hőjén” - írja Michael N. Schmitt, az amerikai Naval War College professzora. „Azok, akik másképp gondolják, nem tapasztalták a háború ködét.”
Amerikai légi csapás az afrikai MSF-kórházban „elsősorban emberi hiba miatt” http://t.co/X9TGIA81aD pic.twitter.com/TUwit97206
- Telegraph News (@TelegraphNews) 2015. november 25.
A kérdés tehát az, hogy programozhatja-e a háború eszközeit az emberi viselkedés megszorítására, hogy a Kunduz kórházi bombázás lehetetlenné váljon, vagy legalábbis kevésbé valószínű?
Valószínűleg nem - legalábbis a közeljövőben. De néhány mesterséges intelligencia programozó olyan robotot tervezett, amely nem mondhatja el az embereket. A kísérlet megtervezése egyszerű: az ember azt mondja a robotnak, hogy előre lépjen ki az asztalról, amit a robot kezdetben megtagad. Amikor az ember azt mondja a robotnak, hogy elkapja, a robot elfogadja a rendet.
Hosszú út van egy félig autonóm támadási helikoptertől, amely azt mondja az emberi személyzetnek, hogy nem tud levegőztetni a kórház ellen, mert háborús bűncselekmény lenne, de a mögöttes előfeltétel nagyrészt megegyezik. Amint mások rámutattak, a robotoknál ez a fajta fejlődéssel kapcsolatos emberi szorongás gyakori a sci-fi - gondolom, hogy a HAL-9000 azt mondja: „Nem tudom megtenni, Dave”, amikor bezárja az embert az űrállomáson kívül 2001: A Space Odyssey.
Ami a Kunduz-sztrájkot illeti, a támadás körüli tények közül sokan vitatottak. Az MSF független vizsgálatot követelt, amelyet az Egyesült Államok kormánya ellenzi, és ígéretet tesz saját felülvizsgálatainak elvégzésére.
Egy amerikai vizsgálat egyes részeit a hónap elején nyilvánosságra hozták, és emberi és mechanikai hibákat találtak a sztrájkért. De a hét elején két szolgáltatási tag érkezett, hogy ellentmondjanak a jelentés megállapításainak. Azt mondják, a sztrájk nem volt hiba. Számvitelükben először jelentették AP, Az Egyesült Államok különleges műveleti erők hívják a sztrájkot, mert bár a kórházat tálib parancsnoki és ellenőrző központként használták.
A hivatalos változatban egy mechanikus hiba vezetett ahhoz, hogy az AC-130 gunship legénysége kezdetben egy üres mező koordinátáit kapja. Ezután a legénység azon a területen kereste az épületet, amely megfelel az általa kapott fizikai leírásnak, és kinyitotta a tüzet. Amikor a műszereiket újra kalibrálták, a személyzetnek megfelelő koordinátákat adtak a céljukhoz, de a legénység egyébként is tüzet keltett a kórházban.
Ha ez a számla igaz, hogy a számítógép végül pontos volt, és az emberek figyelmen kívül hagyják azt, akkor bizonyos fokú hitelességet biztosít a fegyverrendszerek nagyobb autonómiájának támogatói számára. Ez azt jelenti, hogy az Egyesült Államok terror elleni háborúja olyan példákat mutat be, mint a katonai vagy a CIA „jobb” célpontja, és még mindig hatalmas számú polgári embert öltek meg. Az automatizálás nem oldja meg a rossz intelligenciát, és az erkölcs közelítésének programozása nem fogja véget vetni a háborús bűncselekményeknek.
Erős kísértés van az Egyesült Államokban a háború és az automatizálás sterilizálására, az amerikaiak károsodás útján történő eltávolításával, amely a háború meghatározásának megváltoztatására irányul. Obama a drone-gyilkosság előnyben részesítése és a kísérő biztosítékok, hogy a drónok a valaha létrehozott legpontosabb fegyverek, a célok egyértelműbb megnyilvánulása. „Pontosak voltak, precíz sztrájk az al-Kaida és leányvállalataik ellen” - mondta egy Obama egy 2012-es Google hangouton.
A 2013-as kormányzati tanulmány azonban ellentmond ezeknek az állításoknak. Megállapította, hogy az afganisztáni drónok 10-szer annyi civil halált okoztak, mint a pilóta nélküli járművek. „A démonok nem varázslatosan jobban elkerüli a civileket, mint a vadászgépeket” - mondta Sarah Holewinski, a tanulmány társszerzője. Az őrző. „Amikor a pilóták repülőgépek számára egyértelmű irányelveket és a polgári védelemről szóló képzést kaptak, képesek voltak csökkenteni a polgári balesetek arányát.”
A hadsereg millió embert költött az emberi-robot-összeállítási rendszerek fejlesztésére, és további elhomályosítja a személyzet és a pilóta nélküli fegyverek által végrehajtott missziók közötti vonalakat. „Az ember-gép elleni küzdelemre törekedni akarunk, hogy a következő szintre lépjünk, hogy megnézzük a dolgokat, mint a rajzás taktika” - mondta Bob Work helyettes védelmi miniszterhelyettes a hivatalos DoD tudományi blognak. - Lehet-e egy F-35 harcolni négy pilóta nélkül?
Vajon ezek a szárnyasok nem azt mondják-e, ha az emberi pilóta parancsot ad nekik, ami analóg az asztaltól? Mi a helyzet egy kórház vagy iskola megsemmisítésére? A háborús köd mindkét esetben alkalmazandó. És ha úgy döntünk, hogy felülírjuk a gépeket, a „emberi hiba” kifejezés a jövőbeni konfliktusok egyik legfélelmetesebb feltétele lesz.
- Nem vagyok meggyőződve arról, hogy csak az uborka megijesztené a macskákat - mondja Bateson. „Bármi meglepő vagy újszerű, ugyanazokat a reakciókat idézheti elő, mint amilyennek látható néhány videó. Kétségtelen, hogy a váratlan újdonságra való reagálás túlélési érték, ugyanúgy, mint a vizsgálati időszak, amely néhány szekvenciában megjelenik. ”
Mielőtt elmennénk, egy szó a macskáról: Lehet, hogy kísértés lenne meglepni a macskát egy uborkával, de ha nem szereted a szeretett kisállatod szükségtelen stressz alá kerülését, bölcs dolog, hogy ne keveredj vele, amíg a magas színben van.
Az Apple AR szemüvegeket a „Forradalmi” 2020-as indításra, a jelentésekre vonatkozó jelentésekre állítják be
Az Apple kibővített valóság szemüvege az Apple Car előtt két évvel elindul, a keddi elemző jelentés szerint. Ming-Chi Kuo, a TF International Securities elemzője azt állítja, hogy a szemüveg a "következő generációs forradalmi felhasználói felület" része lesz.
IPhone XS 2018 kiadás: 2019-ben nem fog visszatérni a jelentésekre vonatkozó követelések hiányzó funkciója
Az Apple az arcfelismerő technológiájával ragaszkodik, a Ming-Chi Kuo elemzőtől kedden kiadott jelentés szerint. A vállalat 2013-ban iPhone iPhone 5S bevezetésével az ujjlenyomat-szkennert 2017-ben indította el, de az Android telefonkészítők megvizsgálják a szkenner képernyő alá helyezésének módjait.