Líbí se vám to ?
Pozor na falešné hovory: Deepfake útočí na emoce i firemní peníze
16.12.2025
Ještě před pár lety patřila videa tvořená umělou inteligencí mezi technologické hříčky. Dnes ale dokážou způsobit škody za miliardy a měnit realitu způsobem, který jsme dosud neznali. Deepfake se stává jedním z nejrychleji rostoucích typů kybernetických hrozeb — a dopadá stále častěji na firmy i běžné domácnosti.
Když už nestačí jen „nedůvěřuj a prověřuj“
Deepfake umí napodobit obličej, hlas i mimiku člověka tak přesvědčivě, že běžný uživatel nemá prakticky žádnou šanci podvrh poznat. A čísla to potvrzují. Během posledních tří let vzrostl počet deepfake podvodů z téměř zanedbatelného procenta na hodnoty, které už bezpečnostní odborníky opravdu znepokojují. Jen v prvních měsících roku 2025 způsobil tento typ útoků škody přes 4,6 miliardy korun. A podle trendů se bude situace dál zhoršovat – kvalitní AI nástroje jsou totiž stále dostupnější.
Příběhy, které dokazují, že podvod už nevypadá jako podvod
Světem nedávno obletěl případ z Hongkongu. Zaměstnanec globální firmy se připojil na poradu s manažery, které znal celé roky. Obličeje seděly, hlasy také. Zadání úkolu – převést finanční prostředky – vypadalo jako běžný pokyn. Jenže celá schůzka byla vytvořená umělou inteligencí. Firma přišla o stovky milionů korun.
A podobné pokusy se odehrávají i v Evropě, jen většinou neskončí v médiích. Stačí kvalitní fotografie nebo pár sekund videa z firemních sítí a útočník zvládne přesvědčivě napodobit kohokoliv od člena vedení po personalistu.
Deepfake už není jen firemní problém
Útočníci stále častěji cílí i na jednotlivce. Rodičům volá „dítě“, které potřebuje rychle peníze. Prarodičům se ozve „vnuk“ s prosbou o pomoc. Napodobit hlas dnes zabere AI pár vteřin – stačí běžné video z TikToku. A protože lidé mají tendenci reagovat emocionálně, jsou tyto útoky mimořádně účinné. Většina lidí si navíc není jistá, jestli by dokázala falešný hlas rozpoznat. To z deepfake dělá nástroj, který může ohrozit prakticky každou rodinu.
Jak se chránit: jednoduché kroky, které mohou zachránit miliony
Pro firmy
- Zavést jasné postupy pro schvalování plateb a citlivých operací.
- Učit zaměstnance, jak deepfake vypadá a kdy být na pozoru.
- U důležitých požadavků používat nezávislé ověření (např. zavolat přímo na interní číslo).
- Omezit množství veřejně dostupných fotografií vedení i zaměstnanců.
Pro domácnosti
- Domluvte si s rodinou ověřovací větu nebo heslo pro nouzové situace.
- Pokud vás „blízký“ žádá o peníze, vždy si komunikaci ověřte jiným kanálem.
- Dávejte pozor na podivné pauzy ve videu, nepřirozené pohyby obličeje nebo divný rytmus řeči.
Technologie jako obrana? Ano, ale není to samospasitelné
Vyvíjejí se nástroje, které dokážou deepfake detekovat, a jejich přesnost se rychle zlepšuje. Růst tohoto trhu patří k nejdynamičtějším v oblasti kyberbezpečnosti. Přesto ale zůstává nejdůležitější obrannou linií člověk – jeho pozornost, skepse a ověřování.
Realita roku 2025
Deepfake přestal být okrajovým fenoménem a stává se hrozbou, která zasahuje finanční sektor, firmy i rodiny. Útočníci nepotřebují složité hackování – stačí jim využít naši důvěru.
Čím dříve se naučíme ostražitosti, procesům ověřování a chytré prevenci, tím menší šanci jim dáme.
Zdroj: https://www.chip.cz/bezpecnost/deepfake-kdyz-uz-nevite-komu-verit