October 3, 2023

Čtyři způsoby, jak by zločinci mohli využít AI k cílení na více obětí

<classe étendue=Vytvoření profilu osoby může zločincům usnadnit přístup k jejich osobním účtům. Metamorworks / Shutterstock” src=”https://s.yimg.com/ny/api/res/1.2/9L71WW_x5rC9qY4q985PGQ–/YXBwaWQ9aGlnaGxhbmRlcjt3PTk2MDtoPTY0MQ–/https://media.zenfs.com12da4/en/thea 5180318fd438e” data-src = “https://s.yimg.com/ny/api/res/1.2/9L71WW_x5rC9qY4q985PGQ–/YXBwaWQ9aGlnaGxhbmRlcjt3PTk2MDtoPTY0MQ–/https://media.zenfs.com/en_18ac9/the29 8 0318fd438e”/>

Varování před umělou inteligencí (AI) jsou teď všude. Zahrnovaly mrazivé zprávy o potenciálu umělé inteligence způsobit vyhynutí lidí a odvolávaly se na obrázky z filmů o Terminátorovi. Britský premiér Rishi Sunak dokonce uspořádal summit k diskusi o bezpečnosti AI.

Máme však dlouhou historii používání nástrojů umělé inteligence – algoritmů používaných k doporučování relevantních produktů na nákupních webech automobilům s technologií, která rozpoznává dopravní značky a zajišťuje určování polohy v jízdním pruhu. AI je nástroj pro zvýšení efektivity, zpracování a třídění velkých objemů dat a odlehčení rozhodování.

Přesto jsou tyto nástroje otevřené všem, včetně zločinců. A už jsme svědky brzkého přijetí AI zločinci. Technologie Deepfake byla například použita k vytvoření pornografického pomsty.

Technologie zlepšuje efektivitu trestné činnosti. To umožňuje pachatelům zaměřit se na více lidí a pomáhá jim to být věrohodnější. Pozorování toho, jak se zločinci přizpůsobili a přijali technologický pokrok v minulosti, může poskytnout vodítka k tomu, jak by mohli používat AI.

1. Lepší phishingový háček

Nástroje umělé inteligence, jako je ChatGPT a Google's Bard, poskytují pomoc při psaní a umožňují nezkušeným autorům například psát efektivní marketingové zprávy. Tato technologie by však také mohla pomoci zločincům působit důvěryhodněji při kontaktování potenciálních obětí.

Vzpomeňte si na všechny ty špatně napsané, snadno zjistitelné phishingové spamové e-maily a texty. Pro získání informací od oběti je nezbytné být věrohodný.

Zločinci by mohli vytvořit vaši hluboce falešnou verzi, která by mohla komunikovat s členy vaší rodiny prostřednictvím telefonu, SMS a e-mailu. Fizkes / Shutterstock

Phishing je hra čísel: každý den je odesláno přibližně 3,4 miliardy spamových zpráv. Moje vlastní výpočty ukazují, že pokud by zločinci dokázali vylepšit své zprávy tak, že jen 0,000005 % z nich uspělo v přesvědčení někoho, aby prozradil informace, vedlo by to k 6,2 milionu obětí dalšího phishingu každý rok.

2. Automatizované interakce

Jedním z prvních použití nástrojů AI byla automatizace interakcí mezi zákazníky a službami prostřednictvím SMS, chatu a telefonu. To umožnilo rychlejší reakci na zákazníky a optimalizovanou efektivitu podnikání. Váš první kontakt s organizací bude pravděpodobně se systémem AI, než budete moci mluvit s člověkem.

Zločinci mohou používat stejné nástroje k vytváření automatizovaných interakcí s velkým počtem potenciálních obětí v rozsahu nemožném, pokud by je provedli pouze lidé. Mohou se vydávat za legitimní služby, jako jsou banky, prostřednictvím telefonu a e-mailu, ve snaze získat informace, které by jim umožnily ukrást vaše peníze.

3. Deepfakes

Umělá inteligence je opravdu dobrá v generování matematických modelů, které lze „trénovat“ na velkém množství dat z reálného světa, díky čemuž jsou tyto modely pro daný úkol lepší. Jedním z příkladů je technologie Deepfake ve videu a zvuku. Deepfake počin nazvaný Metaphysic nedávno demonstroval potenciál této technologie odhalením videa Simona Cowella zpívá operu v televizní show America's Got Talent.

Tato technologie je mimo dosah většiny zločinců, ale možnost používat umělou inteligenci k napodobování způsobu, jakým by člověk odpovídal na textové zprávy, psal e-maily, zanechával hlasové poznámky nebo telefonoval, je volně k dispozici. Totéž platí pro data k jeho trénování, která lze sbírat například z videí na sociálních sítích.

Sociální sítě byly pro zločince vždy bohatým zdrojem informací o potenciálních cílech. Nyní je možné, aby AI byla použita k vytvoření vaší hluboké falešné verze. Tento deepfake lze využít k interakci s vašimi přáteli a rodinou a přesvědčit je, aby předali informace o vás zločincům. Když budete mít lepší přehled o svém životě, bude snazší uhodnout hesla nebo piny.

4. Hrubé vynucování

Z umělé inteligence by mohla těžit i další technika, kterou zločinci používají, nazývaná „brute forcing“. Zde se střídavě zkouší mnoho kombinací znaků a symbolů, aby se zjistilo, zda odpovídají vašim heslům.

To je důvod, proč jsou dlouhá a složitá hesla bezpečnější; je obtížnější je touto metodou uhodnout. Hrubé násilí vyžaduje spoustu prostředků, ale je snazší, pokud o dané osobě něco víte. Pomáhá například seřadit seznamy potenciálních hesel podle jejich priority, což zvyšuje efektivitu procesu. Mohli by například začít kombinacemi souvisejícími se jmény členů rodiny nebo domácích zvířat.

Algoritmy natrénované na vašich datech mohou být použity k přesnějšímu vytváření těchto prioritních seznamů a cílení na mnoho lidí najednou – takže je potřeba méně zdrojů. Bylo by možné vyvinout specifické nástroje umělé inteligence, které by shromažďovaly vaše data online a poté je analyzovaly a vytvořily váš profil.

Pokud například často zveřejňujete příspěvky na sociálních sítích o Taylor Swift, ruční prohledávání vašich příspěvků a hledání hesel by bylo těžké. Automatizované nástroje to dělají rychle a efektivně. Všechny tyto informace by šly do vytvoření profilu, což by usnadnilo uhodnutí hesel a pinů.

Zdravá skepse

Neměli bychom se AI bát, protože by mohla společnosti přinést skutečné výhody. Ale jako každé nové technologii se jí společnost musí přizpůsobit a pochopit ji. Přestože dnes považujeme chytré telefony za samozřejmost, společnost se musela přizpůsobit jejich přítomnosti v našich životech. Byly do značné míry přínosné, ale přetrvávají nejistoty, jako je velké množství času u obrazovky pro děti.

Jako jednotlivci musíme být v našich pokusech porozumět umělé inteligenci proaktivní, nikoli se uspokojit. Měli bychom si k tomu vyvinout vlastní přístupy a zachovat si zdravý smysl pro skepsi. Budeme se muset zamyslet nad tím, jak kontrolujeme platnost toho, co čteme, slyšíme nebo vidíme.

Tato jednoduchá gesta pomohou společnosti těžit z výhod umělé inteligence a zároveň zajistí, že se můžeme chránit před potenciálním poškozením.

Tento článek je znovu publikován z The Conversation pod licencí Creative Commons. Přečtěte si původní článek.

Konverzace

Konverzace

Daniel Prince získává finanční prostředky od UKRI prostřednictvím PETRAS, Národního centra excelence pro kybernetickou bezpečnost systémů IoT.

Leave a Reply

Your email address will not be published. Required fields are marked *