Pozor na falešné hovory: Deepfake útočí na emoce i firemní peníze

Líbí se vám to ?

Kontaktujte nás

Pozor na falešné hovory: Deepfake útočí na emoce i firemní peníze

16.12.2025

Ještě před pár lety patřila videa tvořená umělou inteligencí mezi technologické hříčky. Dnes ale dokážou způsobit škody za miliardy a měnit realitu způsobem, který jsme dosud neznali. Deepfake se stává jedním z nejrychleji rostoucích typů kybernetických hrozeb — a dopadá stále častěji na firmy i běžné domácnosti.

Když už nestačí jen „nedůvěřuj a prověřuj“

Deepfake umí napodobit obličej, hlas i mimiku člověka tak přesvědčivě, že běžný uživatel nemá prakticky žádnou šanci podvrh poznat. A čísla to potvrzují. Během posledních tří let vzrostl počet deepfake podvodů z téměř zanedbatelného procenta na hodnoty, které už bezpečnostní odborníky opravdu znepokojují. Jen v prvních měsících roku 2025 způsobil tento typ útoků škody přes 4,6 miliardy korun. A podle trendů se bude situace dál zhoršovat – kvalitní AI nástroje jsou totiž stále dostupnější.

Příběhy, které dokazují, že podvod už nevypadá jako podvod

Světem nedávno obletěl případ z Hongkongu. Zaměstnanec globální firmy se připojil na poradu s manažery, které znal celé roky. Obličeje seděly, hlasy také. Zadání úkolu – převést finanční prostředky – vypadalo jako běžný pokyn. Jenže celá schůzka byla vytvořená umělou inteligencí. Firma přišla o stovky milionů korun.

A podobné pokusy se odehrávají i v Evropě, jen většinou neskončí v médiích. Stačí kvalitní fotografie nebo pár sekund videa z firemních sítí a útočník zvládne přesvědčivě napodobit kohokoliv od člena vedení po personalistu.

Deepfake už není jen firemní problém

Útočníci stále častěji cílí i na jednotlivce. Rodičům volá „dítě“, které potřebuje rychle peníze. Prarodičům se ozve „vnuk“ s prosbou o pomoc. Napodobit hlas dnes zabere AI pár vteřin – stačí běžné video z TikToku. A protože lidé mají tendenci reagovat emocionálně, jsou tyto útoky mimořádně účinné. Většina lidí si navíc není jistá, jestli by dokázala falešný hlas rozpoznat. To z deepfake dělá nástroj, který může ohrozit prakticky každou rodinu.

Jak se chránit: jednoduché kroky, které mohou zachránit miliony

Pro firmy

  • Zavést jasné postupy pro schvalování plateb a citlivých operací.
  • Učit zaměstnance, jak deepfake vypadá a kdy být na pozoru.
  • U důležitých požadavků používat nezávislé ověření (např. zavolat přímo na interní číslo).
  • Omezit množství veřejně dostupných fotografií vedení i zaměstnanců.

Pro domácnosti

  • Domluvte si s rodinou ověřovací větu nebo heslo pro nouzové situace.
  • Pokud vás „blízký“ žádá o peníze, vždy si komunikaci ověřte jiným kanálem.
  • Dávejte pozor na podivné pauzy ve videu, nepřirozené pohyby obličeje nebo divný rytmus řeči.

Technologie jako obrana? Ano, ale není to samospasitelné

Vyvíjejí se nástroje, které dokážou deepfake detekovat, a jejich přesnost se rychle zlepšuje. Růst tohoto trhu patří k nejdynamičtějším v oblasti kyberbezpečnosti. Přesto ale zůstává nejdůležitější obrannou linií člověk – jeho pozornost, skepse a ověřování.

Realita roku 2025

Deepfake přestal být okrajovým fenoménem a stává se hrozbou, která zasahuje finanční sektor, firmy i rodiny. Útočníci nepotřebují složité hackování – stačí jim využít naši důvěru.

Čím dříve se naučíme ostražitosti, procesům ověřování a chytré prevenci, tím menší šanci jim dáme.

Zdroj: https://www.chip.cz/bezpecnost/deepfake-kdyz-uz-nevite-komu-verit