Jak chatbot ChatGPT poháněný umělou inteligencí (AI) získává na síle, techničtí giganti jako Google a Baidu oznámili své plány na vytvoření podobných nástrojů umělé inteligence.
Mnoho společností a odborníků zabývajících se kybernetickou bezpečností po celém světě však varovalo, že ChatGPT může představovat hrozbu pro kybernetickou bezpečnost. »Největší hrozbou jsou pravděpodobně dezinformace,« řekl CGTN Čang Čchao, docent Institutu pro síťové vědy a kyberprostor na Univerzitě Tsinghua s tím, že ChatGPT je dostatečně výkonný na to, aby vytvořil odstavec s jasností a logikou, takže pro laika je těžké určit, zda je obsah skutečný.
ChatGPT by mohli zneužít kybernetičtí útočníci k zápisu malwaru, řekl Čang Čchao a dodal, že model může také představovat unikátní bezpečnostní hrozby. »Můžu ho trénovat tak, že mu budu dávat určité otázky a navádět ho, aby dával správné nebo špatné odpovědi. Nakonec z něj mohu udělat mírně škodlivý program, který dává tendenční odpovědi,« řekl.
Na druhou stranu může být ChatGPT použit pro identifikaci potenciálních rizik a dokonce i pro generování obranných strategií. Profesor poznamenal, že rychlý vývoj systémů podobných ChatGPT přináší prospěch jak obráncům, tak útočníkům, díky čemuž je konfrontace intenzivnější. »ChatGPT je v současné době používán oběma stranami, v obou případech ve fázi průzkumu,« řekl.
Čang Čchao řekl, že ChatGPT udělal generační skok. »Jednoduchou analogií je říci, že modely umělé inteligence byly v minulosti možná na úrovni žáka základní školy. Nyní je tento model umělé inteligence, ChatGPT, ve skutečnosti na úrovni studenta vysoké školy.«
Profesor řekl, že ChatGPT má nyní určitou schopnost tvořit a psát obsah, který je organizovaný a podobný lidské tvorbě, což bylo dříve zcela mimo dosah. »Rozdíl je v tom, že ChatGPT má mnohem větší množství dat. Jestliže předchozí modely umělé inteligence měly miliardu datových parametrů, pak ChatGPT jich má sto miliard,« řekl Čang Čchao pro CGTN a dodal, že další inovací ChatGPT je přijetí lidských zásahů.
»Některé zprávy uvedly, že společnosti zaměstnávají tisíce lidí, aby trénovali tento model,« řekl. »Do modelu zavedli ‚lidský faktor‘. Všechny strategické modely proto mohou fungovat mnohem lépe než pouhé učení z dat.«
Některé čínské společnosti zabývající se kybernetickou bezpečností, včetně Čchi An-Sin Technology, vytvořily plány na trénování svých bezpečnostních modelů založených na technologiích souvisejících s ChatGPT.
»Po vydání aplikace jsme provedli určitou výuku na modelech podobných ChatGPT,« řekl CGTN Li Ťien-pching, ředitel think-tanku Čchi An-Sin Chu-fu. »V primární fázi se modely používají hlavně k vývoji produktů pro interní zabezpečení, což pomáhá našim inženýrům zlepšovat kvalitu produktů,« řekl Li Ťien-pching.
Společnost Čchi An-Sin Technology a s ní spolupracující firmy zjistily, že může pomoci útočníkům identifikovat bezpečnostní chyby a rychleji je zneužít.
»V minulosti trvalo útočníkům dny nebo déle, než našli mezery a použili je,« řekl Li Ťien-pching a dodal, že s ChatGPT by se tato doba mohla zkrátit na několik minut, takže ochrana internetu bude mnohem obtížnější. Expert řekl, že nástroje podobné ChatGPT mohou také snížit schopnosti potřebné pro provádění útoků.
»Dříve vyžadovalo vytvoření malware silné schopnosti, ale s pomocí ChatGPT může člověk napsat malware s velmi malými znalostmi kódování,« řekl. Expert řekl CGTN, že společnost se účastnila projektu souvisejícího s využitím umělé inteligence v oblasti bezpečnosti, který nedávno zahájilo Národní výzkumné centrum pro rozvoj bezpečnosti průmyslových informací s cílem poskytnout ochranu umělé inteligenci pomocí jejich technologie.
»Doufáme, že umělá inteligence bude v oblasti bezpečnosti aplikována v širším měřítku, aby se zlepšila efektivita a účinnost bezpečnostní ochrany,« řekl expert.
Technologie je dvousečná zbraň. Stejně jako ChatGPT může být užitečná i škodlivá pro internetovou bezpečnost.
(pr)