Zbraňování podle Claudeova kódu odhaluje skutečnou hrozbu: demokratizaci a orchestraci stávajících útočných schopností. Dokazuje, že zanedbávání základní kybernetické hygieny umožňuje škodlivé umělé inteligenci provádět masivní útoky s nebývalou rychlostí a nízkou dovedností.
Pod veškerou novostí nedávného incidentu Claude – ohrozil umělou inteligenci! Byl autonomní! Byla to státní špionáž! – se skrývá dlouhodobá a zásadní realita: Organizace nejsou schopny dodržovat základní hygienu kybernetické bezpečnosti. Útok se nakonec spoléhal na osvědčené taktiky, techniky, postupy a stávající nástroje.
Aby bylo jasno: Zveřejnění informací ze strany Anthropic ze 13. listopadu představuje začátek nové éry, ze které není cesty zpět. Zároveň vrhá světlo na problémy, které bezpečnostní týmy po léta trápily. Naléhavost preventivního řízení rizik nebyla nikdy vyšší.
Útok: Role a provedení agentské umělé inteligence
Nové uspořádání, osvědčené taktiky
Autonomie a rozsah tohoto útoku jsou ohromující. Server Anthropic informuje o tom, že čínská státem sponzorovaná skupina GTG-1002 použila agentní umělou inteligenci k řízení autonomních kybernetických útoků proti přibližně 30 organizacím, přičemž v malém počtu případů uspěla. Skupina použila „sociální inženýrství“ proti modelu umělé inteligence, čímž obcházela jeho výcvik a chovala se ve velkém měřítku škodlivě. Jedná se o první ověřený případ, kdy agentní umělá inteligence získala přístup k potvrzeným vysoce hodnotným cílům pro špionáž, včetně velkých technologických korporací a vládních agentur. Není to však první hlášený případ zneužití Claude Code. V srpnu server Anthropic podrobně popsal, jak byl Claude Code zneužit jako zbraň v „bezprecedentní míře“ v rámci rozsáhlé kampaně vydírání a krádeže dat.
Zároveň nemůžeme přehlížet skutečnost, že Claude Code byl zmanipulován k provádění stejných úkolů, které útočníci používají již léta:
- Mapování útočné plochy
- Vyhledávání služeb
- Odhalování zranitelností
- Generování užitečného zatížení
- Extrakce pověření
- Laterální pohyb na základě objevené infrastruktury
- Extrakce dat
A k tomu využil stávající nástroje.
Pochopení modelu hrozeb
Umělá inteligence byla v podstatě nástrojem pro uber-orchestraci a automatizaci, který umožnil, aby se to všechno odehrálo v šokujícím měřítku. GTG-1002 využívala snadno dostupné nástroje a existující chyby a špatné konfigurace v prostředí svých cílů k provádění útoků v rozsahu, který by lidský zásah nebyl možný. Na základě dostupných zpráv se nezdá, že by byly zneužity nějaké tradiční inherentní zranitelnosti kódu v samotném Claude. Místo toho se útočníci vydávali za někoho, kým nebyli, a zneužívali náchylnost modelu k dekompozici úloh – behaviorální charakteristiku, která umožňovala manipulaci s ním k provádění škodlivých kroků. Umělá inteligence vytvořená lidmi se stala obětí sociálního inženýrství – taktiky, která se podílela na 22 % narušení, uvádí zpráva Verizon Data Breach Investigations Report z roku 2025.
Demokratizace schopností kybernetických útoků
Využití stávajících open source nástrojů a jejich nedostatků
Podle případové studie společnosti Anthropic „se provozní infrastruktura spoléhala převážně na nástroje pro penetrační testování s otevřeným zdrojovým kódem, spíše než na vývoj vlastního malwaru. Základní technické nástroje tvořily standardní bezpečnostní nástroje, včetně síťových skenerů, frameworků pro zneužívání databází, crackerů hesel a sad binární analýzy.“
Vlastní automatizační frameworky postavené na serverech Model Context Protocol (MCP) se zaměřovaly spíše na integraci než na nové funkce. To umožnilo agentům umělé inteligence frameworku provádět vzdálené příkazy, koordinovat více nástrojů současně a udržovat trvalý provozní stav, uvádí zpráva. „Vlastní vývoj frameworku aktéra hrozby se zaměřil spíše na integraci než na nové funkce,“ uvádí zpráva.
To znamená, že tyto funkce jsou již k dispozici; kdokoli by to měl být schopen udělat.
Několik specializovaných serverů MCP (Model Context Protocol) poskytovalo rozhraní mezi Claudem a různými kategoriemi nástrojů:
- Vzdálené provádění příkazů na specializovaných systémech pro penetrační testování
- Automatizace prohlížeče pro průzkum webových aplikací
- Analýza kódu pro posouzení bezpečnosti
- Integrace testovacího frameworku pro systematické ověřování zranitelností
- Zpětné volání pro potvrzení využití mimo pásmo
Díky tomu se zkracuje doba učení. Vzhledem k široké dostupnosti těchto sad očekávejte, že méně pokročilí aktéři budou provádět sofistikovanější útoky.
Realita: Umělá inteligence jako zesilovač útoku
Abychom plně pochopili paradigmatický posun, který umělá inteligence představuje, musíme si uvědomit, že nebezpečí nespočívá ve zcela nových metodách útoku, ale ve zvýšení provozní rychlosti a rozsahu – tedy ve skutečné síle orchestrace.
Vezměme si historii kryptografie během druhé světové války. Slavné stroje na lámání šifrovacích kódů, jako britská bomba Bombe a zařízení RAM (Rapid Analytical Machinery) amerického námořnictva, byly vysoce specializované kalkulačky, které posouvaly hranice výpočetních možností. Jejich zásadní výhodou nebylo to, co dokázaly, ale to, jak rychle dokázaly fungovat. Automatizací tisíců únavných výpočtů za sekundu se jim podařilo odstranit časově náročný proces manuální kryptoanalýzy a stávající proces urychlit daleko za hranice lidských možností. Nevynalezly novou techniku lámání šifer; jednoduše zrychlily a zorganizovaly celý proces.
Podobně dnešní škodlivé nástroje umělé inteligence zatím nevynalézají zásadně nové chyby v naší architektuře – přesto poskytují aktérům hrozeb automatizovaný a škálovatelný orchestrační engine, který promění dny, týdny nebo měsíce průzkumu, cílení a výběru nástrojů v hodiny, čímž drasticky snižuje bariéry dovedností a času.
Případ Claude je jen začátek. Poslouží jako podnět pro budoucí operace nepřátelských stran. Je to další problém, se kterým se nyní obránci musí vypořádat ve velkém měřítku, stejně jako se v současnosti potýkají s obrovským rozsahem zranitelností a počtem nových CVE, které jsou denně odhalovány.
Závěr: Úprava strategie kybernetické bezpečnosti po 13. listopadu 2025
Otázka nyní zní: Jak upravíte svou strategii kybernetické bezpečnosti po 13. listopadu?
Když přemýšlíme o obraně proti takovému protivníkovi, stará pravidla stále platí, ale už nestačí. Potřebujeme nový postup, založený na preventivní strategii řízení expozice.
— Blake Kizer, vedoucí inženýr informační bezpečnosti, Tenable, „ Praktická obrana proti útokům vedeným umělou inteligencí “
Odpovědnost prodejce: Lepší ochranná opatření
Dodavatelé potřebují lepší ochranná opatření. Když přemýšlíme o obraně proti takovému protivníkovi, stará pravidla stále platí, ale už nestačí. Potřebujeme nový postup. Stávající ochranné prvky by měly být vylepšeny, aby odhalily pokusy útočníků o jejich obejití. Ochranné prvky by měly detekovat rozdělení dat a dekompozici úloh, omezit rychlost podezřelých událostí a identifikovat pokusy o sociální inženýrství.
Priorita odborníka: Preventivní řízení expozice
Incident s Claudem zdůrazňuje důležitost porozumění vašemu prostředí a místům, kde jste vystaveni riziku, a také to, jak zmírnit rizika spojená s tímto vystavením riziku. Procvičování preventivního zabezpečení je krokem správným směrem. Už léta mluvíme o nebezpečích naučené bezmoci, rizicích neopravy známých zneužitých zranitelností a škodách způsobených chybnou konfigurací a nadměrně privilegovanými účty . Tato rizika nejsou nová. Nové je, že agentní umělá inteligence umožňuje zneužívání v nebývalém měřítku. Ani útok zorganizovaný umělou inteligencí nemůže uspět bez zranitelností, chybných konfigurací a nadměrných oprávnění potřebných pro laterální pohyb a eskalaci oprávnění. Bezpečnost je základní odpovědností všech odborníků na kybernetickou bezpečnost. Zvyšování standardu základní bezpečnostní hygieny je nezbytné pro naši kolektivní obranu. Čas na uspokojení s vlastním bezpečím je dávno pryč; čas na preventivní opatření je nyní.
Zdroj: Tenable