Az A.I gyors előrelépése ijesztő, ha figyelmet fordít

$config[ads_kvadrat] not found

Oni no Shitaburi Gorge - Shimane - 鬼の舌震

Oni no Shitaburi Gorge - Shimane - 鬼の舌震
Anonim

Amikor a technológiai újítások által okozott egzisztenciális fenyegetések azonosítására kerül sor, a népszerű képzelet idézik meg Terminator, A Mátrix, és Én, Robot - Dystopiák, melyeket a robotok felsővezetői irányítanak, akik tömegesen kizsákmányolják és megsemmisítik az embereket. Ezekben a spekulatív határidőkben a szuper-intelligencia és a gonosz szándékok kombinációja a számítógépeket az emberi faj megsemmisítésére vagy elvesztésére vezeti.

Azonban egy új tanulmány azt sugallja, hogy az A.I. ez súlyos társadalmi következményekkel jár majd a következő néhány évben. A „Mesterséges intelligencia rosszindulatú felhasználása” című jelentés, amelyet 26 kutató és tudós állított elő az elit egyetemekből és a tech-központú gondolkodókból, felvázolja a jelenlegi A.I. technológiák veszélyeztetik fizikai, digitális és politikai biztonságunkat. Ahhoz, hogy tanulmányaikat összpontosítsák, a kutatócsoport csak olyan technológiát nézett, amely már létezik vagy valószínűleg az elkövetkező öt évben.

Mit talált a tanulmány: Hatóanyagot a rendszerek valószínűleg kibővítik a meglévő fenyegetéseket, újakat vezetnek be és megváltoztatják azok jellegét. A jelentés tézise az, hogy a technológiai fejlesztések könnyebbé és érdemesebbé teszik bizonyos tévedéseket. A kutatók azt állítják, hogy az A.I. csökkenti a számítógépes támadások végrehajtásához szükséges erőforrások és szakértelem mennyiségét, hatékonyan csökkentve a bűnözés akadályait:

A támadások költségeit csökkentheti az AI rendszerek skálázható használata olyan feladatok elvégzésére, amelyek rendszerint emberi munkát, intelligenciát és szakértelemet igényelnek. A természetes hatás az lenne, ha kibővítjük azokat a szereplőket, akik konkrét támadásokat hajthatnak végre, és milyen sebességgel tudják végrehajtani ezeket a támadásokat, és a potenciális célpontokat.

A jelentés négy ajánlást tartalmaz:

1 - A politikai döntéshozóknak szorosan együtt kell működniük a technikai kutatókkal az AI lehetséges rosszindulatú felhasználásának kivizsgálása, megelőzése és enyhítése érdekében.

2 - A mesterséges intelligenciában dolgozó kutatóknak és mérnököknek komolyan kell venniük a kettős felhasználás jellegét, lehetővé téve, hogy a rosszindulatú megfontolások befolyásolják a kutatási prioritásokat és a normákat, és a káros alkalmazások előrelátható előrelátható módon az érintett szereplők felé.

3 - A kutatási területeken olyan bevált gyakorlatokat kell meghatározni, amelyek érettebb módszerekkel rendelkeznek a kettős felhasználású termékek, például a számítógépes biztonság kérdésének kezelésére, és amelyeket az AI esetére adott esetben importálnak.

4 - Aktívan igyekszik bővíteni az e kihívások megvitatásában részt vevő érdekeltek és domain szakértők körét

Hogyan A.I. az aktuális csalásokat okosabbá teheti: Például a lándzsás adathalász támadások, amelyekben a művészek célközönként, családtagként vagy kollégaként jelentenek bizalmat és információt és pénzt szerezhetnek, már fenyegetést jelentenek. Ma azonban jelentős idő-, energia- és szakértelemre van szükségük. Mint A.I. a rendszerek kifinomultságának növekedése, a lándzsás adathalász támadáshoz szükséges tevékenységek egy része, mint például a célpontra vonatkozó információk gyűjtése, automatizálható. A phisher ezután jelentősen kevesebb energiát fektethetett be az egyes griftekbe, és több embert célozhat meg.

És ha a csalók elkezdenek integrálni az A.I-t. az online grifteikbe lehetetlen lehet a valóságot megkülönböztetni a szimulációtól. „Ahogy az AI tovább fejlődik, a meggyőző chatbots emberi bizalmat idézhet elő azáltal, hogy hosszabb párbeszédet folytat az emberekbe, és esetleg egy vizuálisan vizuálisan maszkolhat egy videocsevegésben” - mondja a jelentés.

Már láttuk a géppel generált videó következményeit a Deepfakes formájában. Mivel ezek a technológiák hozzáférhetőbbé és felhasználóbarátabbá válnak, a kutatók aggódnak, hogy a rossz szereplők terjesztik az elkészített fotókat, videókat és hangfájlokat. Ez nagy sikert aratódó rágalmazási kampányokat eredményezhet politikai következményekkel.

A billentyűzeten túl: Az esetleges hibás működés nem korlátozódik az internetre. Ahogy az autonóm járművek elfogadása felé haladunk, a hackerek ellentmondásos példákat vezethetnek be, hogy a saját vezetésű autókat becsapják környezetüket. „Néhány képpontos stoptábla képe megváltozott bizonyos módon, amit az emberek könnyen felismernek, mint egy stoptábla képét, bár az AI-rendszer mégis teljesen másként minősíthetné őket” - mondja a jelentés.

Egyéb fenyegetések közé tartoznak az integrált arcfelismerő szoftverrel rendelkező célzási célú autonóm dronok, az emberi viselkedést utánzó, összehangolt DOS-támadások és az automatizált, hiper-személyre szabott dezinformációs kampányok.

A jelentés azt javasolja, hogy a kutatók vegyék figyelembe az A.I. ezen technológiák fejlesztése során. Ha megfelelő védelmi intézkedések nem kerülnek bevezetésre, akkor lehet, hogy már létezik a technológia az emberiség elpusztítására, nincs szükség gyilkos robotokra.

$config[ads_kvadrat] not found