Podsouvání hlasu pomocí AI (AI voice spoofing) je použití syntetického, uměle generovaného audia k přesvědčivému napodobení hlasu skutečné osoby. Útočníci často imitují hlasy vedení, manažerů nebo pracovníků podpory, aby oběti přiměli k provedení plateb, prozrazení přihlašovacích údajů nebo schválení citlivých operací.
Tradičně se podvodník musel snažit něčí hlas napodobit ručně. Dnes útočníkům stačí krátká audio ukázka z podcastu, webináře, videa nebo zaznamenané on-line schůzky a nástroje založené na AI z ní dokážou hlas zklonovat. Jakmile je hlas „zachycen“, modely řízené umělou inteligencí dokážou generovat realistické nahrávky, které znepokojivě přesně kopírují tón, tempo i intonaci.
V prostředí práce na dálku, virtuálních akcí a on-line meetingů jsou hlasy lidí z firmy dostupnější než kdy dříve. To útočníkům usnadňuje vytvářet deepfake audio, které zní natolik věrohodně, že dokáže obejít přirozenou ostražitost – zejména pokud je zkombinované s tlakem na čas nebo odkazem na autoritu.
Podsouvání hlasu pomocí AI už není hypotetická hrozba. Je snadno dostupné, levné na provedení a jednoduché na automatizaci. Otevřené modely i komerční platformy pro klonování hlasu umožňují téměř komukoli se základními technickými znalostmi:
Výsledkem je nová forma sociálního inženýrství, která působí velmi osobně a důvěryhodně. Stejně jako e-mailový spoofing kdysi výrazně zjednodušil podvržení identity odesílatele, AI dnes výrazně usnadnila podvržení samotného hlasu.
Hlasové útoky založené na AI často kopírují klasické scénáře sociálního inženýrství, ale mají mnohem vyšší úspěšnost. Oběť totiž slyší hlas někoho, komu důvěřuje. Níže najdete několik typických scénářů inspirovaných reálnými případy.
Pracovník finančního oddělení přijme hovor z čísla, které vypadá jako číslo generálního ředitele. Hlas zní správně, používá známé obraty. Volající vysvětluje, že probíhá důvěrná transakce a je potřeba okamžitě odeslat platbu na konkrétní účet.
Protože hlas i příběh působí věrohodně, zaměstnanec může obejít standardní schvalovací proces. Řada firem už v podobných situacích utrpěla výrazné finanční ztráty – v jednom známém případě útočníci vylákali přes 200 000 USD tím, že se podvrženým hlasem vydávali za CEO.
Servisní podpora IT přijme hovor od osoby, která zní přesně jako vedoucí oddělení. Tvrdí, že těsně před důležitou prezentací přišla o přístup ke svému účtu a naléhavě žádá o okamžitý reset hesla.
Pokud technik v dobré víře poruší postup a účet bez dalšího ověření resetuje, útočníci získají přímý přístup do interních systémů. Odtud mohou zvyšovat svá oprávnění, stahovat data nebo připravovat další útoky.
Podvodníci se mohou vydávat za pracovníky zákaznické podpory nebo account managery a volat přímo vašim zákazníkům, partnerům či dodavatelům. V takovém hovoru „podpora“ často žádá o potvrzení platebních údajů, schválení změn na účtu nebo kliknutí na odkaz, který následně přijde e-mailem.
Tyto útoky poškozují důvěru v značku, i když vaše organizace ve skutečnosti nic neprovedla. Oběti si zapamatují jméno firmy, která v hovoru zazněla, a mohou ji vinit z podvodu.
Podsouvání hlasu pomocí AI není problém jen pro velké korporace s veřejně známým vedením. Cílem se může stát prakticky jakákoli organizace, zejména pokud:
V každém prostředí, kde je hlas důležitým signálem důvěry, představuje deepfake audio reálný a rostoucí vektor útoku.
Přestože syntetické hlasy jsou stále kvalitnější, útočníci stále spoléhají na klasické psychologické triky. Zaměstnanci by si měli všímat zejména těchto varovných signálů:
Kombinace těchto signálů by měla okamžitě vést k dodatečnému ověření, nikoliv k automatickému splnění požadavku.
Úplně zabránit klonování hlasu nelze, ale lze útočníkům výrazně ztížit, aby s jeho pomocí uspěli. Nejlepší výsledky přináší kombinace jasných politik, školení a promyšlených procesů.
Každá žádost, která se týká peněz, přístupů do systémů nebo zpracování citlivých dat, by měla mít povinný druhý krok ověření. Například:
Taková pravidla by měla být formálně zdokumentovaná, aby se na ně zaměstnanci mohli odvolat i ve chvíli, kdy na ně údajně tlačí „vedení“.
Pokud hovor zní podezřele, zaměstnanec by měl mít povinnost přesunout komunikaci do jiného, důvěryhodného kanálu. Typicky:
Útočník může mít pod kontrolou falešný hlas, ale jen zřídka ovládá všechny firemní kanály současně.
Řada úspěšných podvodů je možná proto, že jedna osoba může sama schválit kritickou akci. Riziko se sníží, pokud:
Takové mechanismy chrání firmu nejen před útoky využívajícími deepfake audio, ale také před klasickými interními podvody.
Většina organizací už dnes školí zaměstnance v rozpoznávání e-mailového phishingu. K těmto školením má smysl přidat i scénáře spojené s hlasem AI. Například:
V praxi je nejjednodušší vnímat hlasové útoky jako další variantu stejné hrozby: sociálního inženýrství.
Další tipy pro rozpoznávání phishingu v různých odvětvích najdete v našich česky lokalizovaných průvodcích:
V praxi hlasové útoky málokdy stojí samostatně. Velmi často jsou kombinované s podvrženými e-maily, aby podvod vypadal ještě důvěryhodněji. Typické příklady:
Hlas zatím neumíme technicky ověřit. E-mail ale ano. Proto hrají standardy SPF, DKIM a DMARC tak důležitou roli při obraně proti spoofingu.
Pokud ještě nemáte pro svou doménu plně nastavené ověřování e-mailů, doporučujeme tyto články:
Podsouvání hlasu pomocí AI přináší nový vektor útoku, ale ve většině případů se podvod stejně dokončí přes e-mail. Deepfake hovory často končí tím, že má oběť kliknout na odkaz, potvrdit údaje nebo provést platbu na základě e-mailu.
DMARCeye posiluje vaši obranu tím, že vám pomáhá:
Jakmile pro svou doménu prosadíte DMARC, útočníkům se výrazně ztíží možnost posílat zprávy, které vypadají, jako by opravdu přišly od vás. Díky tomu klesá celková úspěšnost kampaní, i když jsou podpořené velmi věrohodným deepfake hlasem.
Získejte bezplatnou zkušební verzi DMARCeye ještě dnes a začněte chránit svou e-mailovou doménu.
Širší kontext spoofingu v různých komunikačních kanálech najdete v našem průvodci Co je spoofing? Základy e-mailových podvodů a jak jim předcházet.