Human Rights Watch: Kína nagy adatokat használ a célcsoport kisebbségi csoportjaira

$config[ads_kvadrat] not found

K. - Cigarettes After Sex

K. - Cigarettes After Sex
Anonim

A kínai kormány előrejelző rendőrségi algoritmusokat használ Xinjiang tartomány etnikai kisebbségeinek célzására, a Human Rights Watch jelentése szerint hétfőn.

A tartomány északnyugati részén található 11 millió Uigur, egy török ​​muszlim etnikai csoport, amely az elmúlt években megkülönböztette a kínai kormányt.

A hatóságok mostanában nagy adatokat használnak arra, hogy szisztematikusan célozzák azokat, akiket politikai bizonytalanság gyanúsítottak. A push a „Strike Hard” kampány része, amelynek célja a potenciális terrorista tevékenység Kínában való megfékezése. A gyakorlatban ez az uigurok aránytalan rendőrségéhez vezetett, mondja a Human Rights Watch.

A prediktív rendőrségi rendszer, az IJOP néven ismert integrált közös műveleti platform, különféle felügyeleti eszközök adatai. Ezek közé tartoznak a CCTV kamerák, a rendszámtábla és a biztonsági ellenőrzőpontokból származó állampolgári azonosító számok, valamint a személyes adatok, köztük az egészségügy, a banki és a jogi nyilvántartások.

Az automatizált felügyelet mellett a kormányzati tisztviselők otthoni látogatásokat folytatnak a lakosságra vonatkozó adatok gyűjtésére. Egy kínai üzletember megosztott egy űrlapot, amelyet az IJOP rekordjaival töltött be a Human Rights Watch-szal - többek között a kérdőív megkérdezte, hogy az üzletember Uigur volt, milyen gyakran imádkozik, és hol megy a vallási szolgálatokhoz.

Az IJOP ezeket az adatbevitelt használják az emberek potenciális fenyegetésekként való megjelölésére. Ha valaki megjelent, a rendőrség további vizsgálatot indít, és őrizetbe veszi őket, ha gyanúsnak tekintik őket.

„Első alkalommal tudjuk bizonyítani, hogy a kínai kormány a nagy adatok és a prediktív rendőrség használatával nemcsak nyilvánvalóan sérti az adatvédelmi jogokat, hanem lehetővé teszi a tisztviselők számára, hogy önkényesen letartóztassák az embereket” - mondta a Human Rights Watch vezető kínai kutatója Maya Wang.

A jelentés szerint a jelzettek némelyikét politikai oktatási központokba szállították, ahol határozatlan ideig őrizetben tartják őket.

„2016 áprilisa óta a Human Rights Watch becslése szerint Xinjiang-hatóságok több tízezer uigur és más etnikai kisebbséget küldtek„ politikai oktatási központokba ”,” mondta a jelentés. Az IJOP hitelességet kölcsönöz ezeknek a fogvatartásoknak azáltal, hogy objektív, algoritmikus elemzéssel látja el a diszkriminatív letartóztatásokat.

Rosszabbá tétele érdekében az IJOP belső működése titokban tartva van.

„A Xinjiang-i emberek nem tudnak ellenállni vagy megkérdőjelezni a mindennapi életük egyre intenzívebb ellenőrzését, mivel a legtöbb nem is ismeri ezt a„ fekete doboz ”programot, vagy hogyan működik” - mondta Wang.

Ugyanaz a probléma, hogy a legmodernebb gépi tanulási rendszereket sújtja: az általuk alkalmazott döntési eljárások az algoritmus alkotói számára is átláthatatlanok.

Kína IJOP használatát érdemes figyelni, mert a prediktív rendőrség valószínűleg elterjed, mivel a technológia javul. Ahogy Jon Christian rámutatott A körvonal A prediktív rendőrségi rendszereket már az Egyesült Államokban már alkalmazták. A Los Angeles-i Rendőrségosztály olyan szoftvert használ, amely előrejelzi, hogy hol és mikor történnek a bűncselekmények, így a tisztek ki tudják fejezni őket.

A büntető igazságszolgáltatási rendszer másik oldalán a bírósági helyiségek néha olyan algoritmusokat alkalmaznak, amelyek a potenciális parolees „kockázatértékelési” pontszámokat adnak, hogy a bírák tájékozottabb döntéseket hozzanak. Sajnos ezek az állítólag elfogulatlan algoritmusok faji alapon diszkriminálnak.

Kína előrejelző rendőrségbe való behatolása hangsúlyozza a felelős algoritmusok megvalósításának fontosságát, mivel a gépi tanulás továbbra is belép az állami szektorba. Talán itt az ideje, hogy a tech-hozzáértő kormányok új mantrát fogadjanak el: Néha a mesterséges intelligencia több problémát okoz, mint amennyit megold.

$config[ads_kvadrat] not found