Hatóanyagot Kutatóintézet megmutatja, hogyan kell létrehozni a felelős algoritmusokat

Hogyan hozzunk olyan döntést, amit nem fogunk megbánni | Sadhguru

Hogyan hozzunk olyan döntést, amit nem fogunk megbánni | Sadhguru
Anonim

A kutatóintézet AI A közszféra új algoritmusok végrehajtására vonatkozó ajánlásokat tett közzé szerdán.Tanácsuk a New York-i Városi Tanács által januárban létrehozott munkacsoportra irányul, amely a mesterséges intelligencia kormányzati használatát tanulmányozza.

AI Now jelentése, Algoritmikus hatásvizsgálatok: a közintézmények elszámoltatható automatizálása felé, vázolja az átláthatóság szükségességét az algoritmusok telepítésekor. Az algoritmusok hatalmas hatást gyakorolnak mindennapi életünkre, de hatásuk néha észrevétlen. Mivel például a közösségi média és a videó platformok infrastruktúrájába sültek, könnyen elfelejthetjük, hogy a programok gyakran meghatározzák, hogy milyen tartalmat fektetnek az internethasználóknak. Csak ha valami rosszul fordul elő, mint egy összeesküvéselméleti videó, amely elérte a YouTube legfrissebb listáját, megvizsgáljuk az online tapasztalatokat alakító automatizált döntési eljárásokat.

Az algoritmusok nem korlátozódnak az internetes platformokra. A kormányzati intézmények egyre inkább függenek az algoritmusoktól, az oktatástól a büntető igazságszolgáltatásig terjedő területeken. Egy ideális világban az algoritmusok megszüntetnék az emberi elfogultságot a kemény döntésekkel szemben, mint például annak meghatározása, hogy a fogvatartott számára biztosítsák-e a jogsértést. A gyakorlatban azonban az algoritmusok csak annyira hatékonyak, mint azok, akik azokat készítik.

Például egy vizsgálat ProPublica bizonyították, hogy a tárgyalótermekben alkalmazott kockázatértékelési algoritmusok faji szempontból elfogultak voltak. Rosszabbá tétele érdekében a közszférában alkalmazott algoritmusok közül sokan magántulajdonban vannak, és néhány vállalat nem hajlandó megosztani a szoftverük alapjául szolgáló kódot. Ez lehetetlenné teszi, hogy megértsük, miért adják vissza ezeket az úgynevezett „fekete doboz” algoritmusok bizonyos eredményeket.

Egy lehetséges megoldás, amit az AI most kínál? Algoritmikus hatásvizsgálatok. Ezek az értékelések a teljes átláthatóság normáját alkotják, ami azt jelenti, hogy az algoritmusokat alkalmazó kormányzati szerveknek közzé kell tenniük, mikor és hogyan használják őket. „Ez a követelmény önmagában is messzire vezethetne a világ közelségét szolgáló technológiák fényének felszámolásához, és ahol az elszámoltathatósági kutatást kell összpontosítani,” mondta a jelentés.

Az algoritmusok nyitottságának politikája szintén megnyitja az ajtót a polgárok számára, hogy ellenőrizzék és tiltakozzák használatukat. Szeretné, ha egy algoritmus olyan kockázatfelmérési pontszámot adna, amely a kontrollon kívüli tényezők alapján történik, különösen akkor, ha ez a pontszám segíthet meghatározni, hogy a börtönbe megy? Talán igen, talán nem. Akárhogy is, fontos tudni, hogy pontosan milyen változókat elemeznek az algoritmus.

Ezenkívül az AI Now azt javasolja, hogy az emberek törvényes szabványokat dolgozzanak ki a tisztességtelen algoritmusok ellen.

Például, ha egy ügynökség nem tesz közzé olyan rendszereket, amelyek ésszerűen tartoznak az automatizált döntések hatálya alá, vagy ha lehetővé teszi a kereskedők számára, hogy fedélzeti kereskedelmi titkokat kérjenek, és ezáltal blokkolja az értelmes rendszer-hozzáférést, a nyilvánosságnak lehetőséget kell biztosítani arra, hogy aggályokat tegyen egy ügynökség felügyeleti szerve, vagy közvetlenül a bíróságon, ha az ügynökség megtagadta ezeket a problémákat a nyilvános megjegyzésidőszak után.

Az ajánlások lényegében egy átfogó mandátumra merülnek fel: Ha algoritmusokat használ, ne legyen árnyékos.

Olvassa el a teljes jelentést itt.