Umělá inteligence by mohla zneškodňovat bomby, zlepšit dopravu, ale slouží i kyberzločincům

  g+   sdílet  

Umělá inteligence má potenciál stát se transformativní technologií, která může výrazně ovlivnit náš každodenní život, upozorňuje výzkumný tým Check Point Research.

230113_Check_Point_AI

AI již ukázala svůj potenciál a může způsobit revoluci v mnoha oblastech, jako jsou zdravotnictví, finance, doprava a další. Dokáže automatizovat nudné úkoly, zvýšit efektivitu a poskytnout informace, které dříve nebylo možné. AI nám také může pomoci řešit složité problémy, lépe se rozhodovat, omezit lidské chyby nebo by si mohla poradit s nebezpečnými úkoly, například zneškodnit bombu, letět do vesmíru nebo zkoumat oceány. „Ale zároveň vidíme masivní použití AI technologií i k vývoji kybernetických hrozeb,“ říká Pavel Krejčí, Security Engineer z kyberbezpečnostní společnosti Check Point Software Technologies.

Celkově lze říci, že rozvoj AI není jen dalším přechodným šílenstvím, ale teprve se ukáže, jak velký dopad bude mít na společnost.

 

Rok 2023

Ačkoli se umělá inteligence používá již dlouho, rok 2023 si veřejnost bude pamatovat jako „rok AI“.

Často slyšíme obavy, jestli se AI nepřiblíží lidským schopnostem nebo je dokonce nepřekoná. Předpovídat, jak vyspělá AI bude, je těžké, ale už nyní existuje několik kategorií. Současná AI se označuje jako úzká nebo „slabá“ AI (ANI – Artificial Narrow Intelligence). Obecná AI (AGI – Artificial General Intelligence) by měla fungovat podobně jako lidský mozek, myslet, učit se a řešit úkoly jako člověk. Poslední kategorií je superinteligence (ASI – Artificial Super Intelligence) a v podstatě jde o stroje, které jsou chytřejší než my.

Pokud umělá inteligence dosáhne úrovně AGI, existuje riziko, že by mohla jednat sama za sebe a potenciálně se stát hrozbou pro lidstvo. Proto je potřeba pracovat na sladění cílů a hodnot AI s cíli a hodnotami člověka.

I když AI může vzbuzovat obavy, je důležité si uvědomit, že vývoj pokročilé AI přináší mnoho tfvýhod a může pomoci vyřešit některé z nejpalčivějších světových problémů, jako jsou změna klimatu, nemoci nebo chudoba,“ dodává Pavel Krejčí.

Pro zmírnění rizik spojených s pokročilou AI je důležitá spolupráce vlád, společností a regulačních orgánů a vývoj robustních bezpečnostních mechanismů, stanovení etických zásad a podpora transparentnosti a odpovědnosti při vývoji AI. V současné době existuje minimum pravidel a předpisů. Existují návrhy jako zákon o umělé inteligenci, ale nic z toho nebylo dosud schváleno a v podstatě se zatím vše řídí etickými kompasy uživatelů a vývojářů. Společnosti, které vyvíjejí a vydávají AI systémy, by měly v závislosti na typu AI zajistit alespoň minimální standardy, jako je ochrana soukromí, spravedlnost, vysvětlitelnost nebo přístupnost.“

 

V rukou zloduchů

Umělou inteligenci mohou bohužel využít i kyberzločinci pro zdokonalování svých útoků, automatizované identifikaci zranitelných míst, vytváření cílených phishingových kampaní, sociálnímu inženýrství nebo vytváření pokročilého malwaru, který zvládne měnit svůj kód a lépe se tak vyhne detekci, a také ke generování přesvědčivých audio i video deepfake podvodů, které mohou být použity k politickým manipulacím, falešným důkazům v trestních řízeních nebo mohou oklamat uživatele a vylákat z nich peníze.

Ale AI je i významným pomocníkem při obraně právě před kyberútoky. Check Point využívá k analýze hrozeb a ochraně před útoky více než 70 různých nástrojů, přičemž více než 40 z nich je založeno na AI. Tyto technologie pomáhají například při analýze chování, analýze velkého množství dat o hrozbách z různých zdrojů, včetně darknetu, usnadňují detekci zero-day zranitelností nebo umožňují automatizovat záplatování bezpečnostních chyb.

V poslední době se také diskutují různé zákazy a omezení AI. V případě ChatGPT jsou obavy spojené zejména s ochranou soukromí, jelikož jsme už byli svědky úniku dat, není ani vyřešena věková hranice uživatelů. Blokování podobných služeb má ovšem jen omezený účinek, protože každý jen trochu zdatnější uživatel zvládne zákaz obejít například pomocí VPN, čile se obchoduje také s kradenými prémiovými účty. Problémem je, že většina uživatelů si neuvědomuje, že citlivé informace vkládané do ChatGPT budou v případě úniku velmi cenné a mohly by být použity k cíleným marketingovým účelům. Mluvíme o potenciální sociální manipulaci v dosud nevídaném měřítku,“ upozorňuje Pavel Krejčí.

 

Dopad umělé inteligence na naši společnost bude záviset na tom, jak se rozhodneme tuto technologii rozvíjet a používat. Bude důležité zvážit potenciální přínosy a rizika a snažit se, aby se AI vyvíjela zodpovědně, eticky a prospěšně pro společnost.

  g+   sdílet