Pravidla Číny pro označování obsahu vytvořeného umělou inteligencí krotí rizika

Když Wang Chao, třiačtyřicetiletý provozovatel penzionu typu B&B ze severozápadočínského města Lan-čou, loni v srpnu zveřejnil na internetu krátké video oslavující jeho »nový Maybach«, začaly se jen hrnout gratulace. Zároveň mu ale začali volat »staří přátelé« s žádostmi o půjčku.

Byl tu však jeden problém. Luxusní vůz existoval pouze na obrazovce. Klip byl vytvořen pomocí umělé inteligence (AI), ale nikde ve videu to nebylo uvedeno.

»Kdybych to zveřejnil o měsíc později,« řekl Wang, který ve skutečnosti vlastní dodávku v hodnotě menší než jedné desetiny ceny Maybachu, »lidé by tomu nevěřili.« Tou dobou by totiž nová čínská pravidla vyžadovala, aby video jasně deklarovalo svůj umělý původ.

Dne 1. září 2025 Čína v této oblasti zavedla regulační novinku. Podle opatření pro identifikaci obsahu generovaného AI musí být veškerý takový obsah zveřejněný na internetu opatřen jak viditelným označením pro publikum, tak neviditelnými metadaty, která umožňují dohledat odpovědnost.

Regulace přišla v pravý čas, protože uživatelská základna AI v Číně rychle roste a úřady volají po přísnějším dohledu. Počet uživatelů generativní umělé inteligence v Číně dosáhl k červnu 2025 515 milionů, což je o 266 milionů více než v prosinci 2024, a během pouhých šesti měsíců se tak téměř zdvojnásobil. Tato informace vyplývá z údajů Čínského internetového informačního centra.

Viditelná náprava

Logika těchto pravidel je přímočará. Jak generativní AI zaplavuje sociální sítě, regulátoři se obávají, že falešné obrázky, videa či hlasy by mohly uvádět veřejnost v omyl a podporovat podvody. Označování obsahu obnovuje transparentnost, aniž by brzdilo inovace.

Čínské platformy sociálních médií reagovaly rychle. Aplikace pro krátká videa, jako je Douyin, čínská verze TikToku, či Kuaishou, nyní uživatele vyzývají, aby uvedli, zda je obsah vytvořen umělou inteligencí. Audio platformy, například Ximalaya, přidávají mluvená upozornění i textová varování.

Čtyři měsíce po vstupu pravidel v platnost opatřily hlavní platformy pro generování obsahu pomocí AI, včetně Doubao, DeepSeek, Qwen a Yiyan, AI štítky více než 150 miliard položek generovaného obsahu, zahrnujících text, obrázky, zvuk i video. Zároveň přední sociální sítě použily výrazná upozornění přímo na obrazovce u více než 220 milionů položek obsahu vytvořeného AI.

Podle výzkumného týmu z univerzity Si-an Ťiao-tchung vzrostla skepsе uživatelů vůči neznámému obsahu od zavedení těchto pravidel o téměř 40 procent.

Navíc díky implicitnímu označování, které umožňuje regulátorům rychle identifikovat jak nástroje použité k vytvoření obsahu, tak kanály, jimiž se šíří, se výrazně zrychlilo vyvozování odpovědnosti.

V jednom přeshraničním vyšetřování falešných zpráv generovaných AI se čas potřebný k určení odpovědnosti zkrátil z průměrných 72 hodin na pouhých 12 hodin, uvedl výzkumný tým.

»Zavedení pravidel pro označování obsahu vytvořeného umělou inteligencí vyřešilo dlouhodobé bolestivé body v odvětví,« uvedl Wang Süe-lien, generální manažer IT společnosti se sídlem v provincii Kan-su. »Pod vedením politiky je patrný pokrok, který naznačuje uspořádanější a pozitivnější trajektorii dalšího rozvoje tohoto sektoru.«

Nové výzvy

Jak se šíří viditelná označení, přibývají i pokusy je odstranit. Vyhledávání výrazů jako »odstranění AI značky« reportérů na hlavních e-commerce platformách a sociálních sítích odhaluje rozrůstající se šedý trh.

Od základních nástrojů za pouhých 9,9 jüanu (zhruba 1,4 amerického dolaru) až po zakázkové služby v hodnotě tisíců jüanů vznikl otevřeně nabízený byznys zaměřený na obcházení označování obsahu vytvořeného AI.

Ještě znepokojivější je míra sofistikovanosti. Podle technických expertů se tyto praktiky vyvinuly od prostého ořezávání obsahu k vícestupňovým procesům, které zahrnují čištění metadat, opakované převody formátů souborů a opětovné nahrávání napříč platformami. Obsah označený na jedné platformě tak může na jiné projít bez povšimnutí.

»Protože jednotlivé platformy uplatňují odlišné standardy a disponují různou úrovní schopností detekce AI, může obsah, který musí být na jedné platformě označen jako vytvořený umělou inteligencí, po jednoduché změně formátu uniknout kontrole na jiné,« uvedl Šen Jü-lin, zástupce ředitele provinčního výpočetního centra v Kan-su.

Šen dodal, že techniky obcházení označování zdaleka nejsou jen ojedinělé triky. »Výsledkem může být eskalující arzenál postupů, který podnítí novou generaci ke stále sofistikovanějšímu zneužívání umělé inteligence,« uvedl.

Odborníci a pozorovatelé rovněž upozorňují, že sankce za porušení pravidel označování zatím nejsou dostatečně jasně definovány a samotná označení dosud nejsou standardizována.

Ťiang Jen-šuang, odborná asistentka výzkumu v Čínském institutu pro vzdělávání a sociální rozvoj při Pekingské normální univerzitě, tvrdí, že regulační technologie na většině platforem zůstávají křehké.

Ťiang navrhuje urychlit standardizaci technologií označování AI, a to s jasnějšími technickými specifikacemi přizpůsobenými různým platformám a typům obsahu, aby se předešlo regulačním mezerám způsobeným technickými nesoulady.

»Pouze prostřednictvím víceúrovňové obrany a koordinovaného postupu,« uvedla Ťiang, »můžeme nasměrovat umělou inteligenci od nekontrolovaného rozmachu k tomu, aby se stala skutečným nástrojem podpory širší ekonomiky.«

(Xinhua)

Související články

3 KOMENTÁŘŮ

Zanechte komentář

Please enter your comment!
Please enter your name here

- Advertisement -

Poslední zprávy