Umetna inteligenca, oz na kratko AI, je v zadnjem času na področje rešitev in sistemov varovanja IT sistemov prinesla veliko novosti. Vsekakor se vsi strinjamo, da pristop z uporabo takšnih ali drugačnih mehanizmov AI v varnost prinaša določene prednosti.
A na drugi strani se pojem AI še vedno povezuje z nečim, kar je neznano, skrivnostno ali pa celo nevarno. Mogoče bo nekega dne Skynet res prevzel pobudo, a na nek način so ti dnevi še daleč.
Trenutno so AI algoritmi in sistemi zgolj super avtomatizirani sistemi, ki bistveno bolj kvalitetno in uspešno analizirajo celo vrsto podatkov. Njihov razvoj se ne usmerja v smer samostojne inteligence, ampak v smer čim bolj uspešne avtomatizacije. To pomeni, da se samo-mislečih AI napadalcev, ki bi morebiti ušli našemu nadzoru, še ne bojimo. Lahko pa na skrbijo napadalci, ki bi pri svojem delu izkoriščali veliko moč avtomatizacije AI algoritmov.
Tipični primeri takšnih zlorab, ki bi lahko prinesle nov hujši nivo napadov so:
- Uporaba AI algoritmov pri generiranju lažnih novic, e-mail sporočil in podobnih vsebin, kar bi lahko predstavljalo neko novo dimenzijo Social-engineering napadov. AI algoritmi bi tako analizirali javno dostopno vsebino nekega podjetja, neke osebe in bi na osnovi neke dane situacije pripravili učinkovit Social-engineering napad, ki bi ga zelo težko prepoznali
- Uporaba AI algoritmov, da bi na osnovi specifičnih tehničnih lastnosti algoritmov pripravili unikatne in usmerjene zlonamerne datoteke. Prva faza napada bi naprimer potekala podobno kot poteka sedaj – napadalec oz. zlonamerna datoteka bi tako ali drugače prevzela nadzor nad eno izmed delovnih postaj. Nato pa bi AI algoritmi sprožili pregled okolice znotraj napadenega okolja in bi na osnovi ugotovitev sami predelali kodo zlonamerne datoteke. Takšna zlonamerna koda bi lahko bila bistveno bolj učinkovita in bistveno težje zaznana, kot pa tovrstne kode, ki jih danes pišejo ljudje
- Uporaba AI algoritmov, ki bi sistematično “zastrupljali” neko okolico z zavajajočimi podatki. Napadalec bi recimo želel napasti okolje, ki se brani z varnostnimi sistemi, ki uporabljajo AI tehnologijo. Ti sistemi bazirajo svoje odločitve na zbranih podatkih in posebnih lastnostih teh podatkov. Napadalec bi lahko uporabil svoj AI sistem, ki bi načrtno in postopoma v okolje (torej AI sistemom na drugi strani) pošiljal signale, podatke in namige, ki bi postopoma varnostne sisteme prepričala v napačne odločitve.
Več o tej tematiki, si lahko preberete na tej povezavi.
