Linda (14) hat einen Tampon in sich vergessen! | Die Spezialisten | SAT.1
A New York-i Cornell Tech három kutatója felfedezte, hogy a homályos és a pixelált képek nem egyeznek a mesterséges intelligenciával. Bár az elhomályosított képek az emberi szemek számára érthetetlenek maradnak, és úgy tűnik, hogy megvédik érzékeny tartalmukat, a neurális hálózatok gyakran pontosan megmondják, hogy ki az eredeti képen.
Más szóval, az emberek már nem a lakmus teszt. Már nem kérdezhetjük meg pusztán, hogy valaki legyőzi az összes emberi agyat. Az A.I.s - még az egyszerű A.I.s - is jobban teljesíthetik az embereket, így a vereségüket is mindig az egyenlet részévé kell tenni.
A Cornell Tech kutatói tanulmánya az adatvédelmi algoritmusok tesztelésére irányult, amelyek elmosódnak vagy pixelálnak bizonyos információkat vagy képrészeket. Korábban bizalmasan bízott meg az adatvédelmi szoftvert vagy az algoritmusokat illetően, és rájöttünk, hogy az elrejtett információ biztonságos volt, mert nem emberi meg tudja mondani, ki volt a digitális fátyol mögött. A tanulmány azt mutatja, hogy ez a korszak véget ért, és a kapcsolódó anonimizációs módszerek sem tartanak sokáig. Az ilyen adatvédelmi intézkedéseknek megfelelõ neurális hálózatok ki vannak zárva.
Richard McPherson Ph.D. a Texasi Egyetem számítógépes tudományának jelöltje, Austin, aki professzorát, Vitaly Shmatikovot követte Cornell Techbe. Reza Shokri mellett együtt bizonyították, hogy az egyszerű neurális hálózatok felderíthetik a közös kép elzáródási technikáit. A technika viszonylag kifinomult, ami aggasztóbbá teszi a felfedezést. Ezek a közös, hozzáférhető módszerek, és képesek voltak legyőzni az iparági normákat a zavarodásra.
A neurális hálózatok a csomópontok vagy a mesterséges neuronok nagy, réteges szerkezetei, amelyek utánozzák az agy alapszerkezetét. „A neuronok működésének egyszerűbb megértésén alapulnak” - mondja McPherson fordítottja. - Adj neki egy kis bemenetet, és a neuron akár tüzet, akár nem ég.
Ők is képesek „tanulni” a kifejezés durva meghatározásával. Ha vadon élő (teljesen nem oktatott) embert mutat „pirosnak”, és azt mondja nekik, hogy kiválasszon minden „vörös” dolgot egy vödörből, akkor először küzdenek, de idővel javulnak. Szóval a neurális hálózatok is. A gépi tanulás csak azt jelenti, hogy egy számítógépet tanítanak a „vörös” dolgok kiválasztására, például egy virtuális sokszínű dolgokból.
Így képezte McPherson és a vállalat neurális hálózatát. „Rendszerünkben olyan modellt hozunk létre, amely a neurális hálózatok architektúrája, ezeknek a mesterséges neuronoknak a strukturált halmaza -, majd nagy mennyiségű elzárt képet adunk nekik” - mondja. „Például száz különböző képet kaphatunk Carolról, amelyeket pixeláltak, majd száz különböző képet készítettek Bobról, amelyeket pixeláltak.”
A kutatók ezután megjelölik ezeket a képpontosított képeket, és ezzel megtudják, hogy a modell melyik az egyes képeken. Az adatkészlet feldolgozása után a hálózat funkcionálisan tudja, hogy milyen Pixelated Bob és Pixelated Carol néz ki. „Ezután egy másik pixelált képet adhatunk Bobról vagy Carolról, a címke nélkül” - magyarázza McPherson -, és kitalálhat, és azt mondja: „Azt hiszem, ez Bob 95 százalékos pontossággal.”
A modell nem rekonstruálja az elhomályosodott képet, de az a tény, hogy képes legyőzni a leggyakoribb és legmegbízhatóbb anonimizációs módszereket, önmagában is zavaró. „Meg tudják deríteni, hogy mi zavar, de nem tudják, hogy mi volt az eredetileg,” mondja McPherson.
De a neurális hálózatok még mindig sokkal jobbak, mint az emberek. Amikor a képeket egy iparági szabványos technikával a leginkább megzavarták, a rendszer még mindig több mint 50 százalékos volt. A kissé kevésbé elhomályosított képek esetében a rendszer nagyjából 70 százalékos pontossággal bizonyult. A YouTube által a homályos arcokról szóló norma teljesen sikertelen volt; még a leghomályosabb képeket a neurális hálózat zavarta, ami 96 százalékos pontosságúnak bizonyult.
Más, korábban fel nem használt adatok, szöveg és kép anonimizációs technikák szintén megbízhatatlanok. „A nyár folyamán olyan munkát végeztünk, amely a pixeláció és az elmosódás segítségével anonimizáló szöveget nézett, és megmutatta, hogy képesek is törni őket” - mondja McPherson. És más egyszeri megbízhatóságú módszerek is kiutathatnak az ajtón. Bár nem ismeri a hangsugárzástechnikákat, mint például a névtelen televíziós interjúknál, „nem lenne meglepve”, ha a neurális hálózatok megszakíthatják az anonimizációt.
McPherson felfedezése tehát azt bizonyítja, hogy „a múltban megtartott adatvédelmi módszerek nem igazán a nyálkásak, különösen a modern gépi tanulási technikákkal.” Más szavakkal: mi nem relevanciát, képzési gépeket kódolunk túllépjen minket minden birodalomban.
„Ahogy a gépi tanulás ereje nő, ez a kompromisszum az ellenfelek javára válik” - írta a kutatók.
A Tesla nem felel meg a Q2 szállítási becslésének
Tesla kiadta a számokat arról, hogy hány autót szállított ki a második negyedévben, és a számok csalódást okoznak. A második negyedévre becsült 17 000 Tesla autószállításból Tesla csak 14.370 darabot szállított be. A Tesla tovább bontott 9 745 S modellt és 4 625 X modellt. Tha ...
A kvantum-darwinizmus a természetes kiválasztásnak felel meg a Quantum Mechanics-nak
A darwinizmus szó minden olyan mechanizmus szinecdocéjává vált, amelyet a malthusus „a legvalószínűbb túlélés” fogalma jelentett - az a vélemény, hogy a rendszer legerősebb tagjai túlélnek, hogy reprodukálják és átadják genetikájukat az utódoknak. De a természetes szelekció nem korlátozódhat Darwin pengéire. Alkalmazásakor ...
Deepfakes nem felel meg a gépi tanulásnak - itt van
Eddig az emberek a pornográfiában és a szatíraban használják a deepfake videókat, hogy úgy tűnik, hogy a híres emberek csinálnak dolgokat, amiket általában nem. De a kampányszezon ideje alatt szinte bizonyos mélytörések jelennek meg, amelyek jelzik a jelölteket, akik azt mondják, hogy a dolgok vagy a helyek elhelyezésére kerül sor.