AI Voice Spoofing: Další vývoj v oblasti sociálního inženýrství
Přečtěte si o útocích na podvržení hlasu pomocí umělé inteligence a o použitelných ochranných opatřeních pro vaši firmu.
Podsouvání hlasu pomocí AI (AI voice spoofing) je použití syntetického, uměle generovaného audia k přesvědčivému napodobení hlasu skutečné osoby. Útočníci často imitují hlasy vedení, manažerů nebo pracovníků podpory, aby oběti přiměli k provedení plateb, prozrazení přihlašovacích údajů nebo schválení citlivých operací.
Tradičně se podvodník musel snažit něčí hlas napodobit ručně. Dnes útočníkům stačí krátká audio ukázka z podcastu, webináře, videa nebo zaznamenané on-line schůzky a nástroje založené na AI z ní dokážou hlas zklonovat. Jakmile je hlas „zachycen“, modely řízené umělou inteligencí dokážou generovat realistické nahrávky, které znepokojivě přesně kopírují tón, tempo i intonaci.
V prostředí práce na dálku, virtuálních akcí a on-line meetingů jsou hlasy lidí z firmy dostupnější než kdy dříve. To útočníkům usnadňuje vytvářet deepfake audio, které zní natolik věrohodně, že dokáže obejít přirozenou ostražitost – zejména pokud je zkombinované s tlakem na čas nebo odkazem na autoritu.
Proč útoky s využitím hlasu AI rychle narůstají
Podsouvání hlasu pomocí AI už není hypotetická hrozba. Je snadno dostupné, levné na provedení a jednoduché na automatizaci. Otevřené modely i komerční platformy pro klonování hlasu umožňují téměř komukoli se základními technickými znalostmi:
- shromáždit veřejně dostupné nahrávky hlasu vybrané osoby,
- natrénovat model, který věrně napodobí její akcent, tón i způsob mluvy,
- generovat „na přání“ libovolné věty v jejím hlasu,
- používat hlasové boty v reálném čase k vedení rozhovorů.
Výsledkem je nová forma sociálního inženýrství, která působí velmi osobně a důvěryhodně. Stejně jako e-mailový spoofing kdysi výrazně zjednodušil podvržení identity odesílatele, AI dnes výrazně usnadnila podvržení samotného hlasu.
Reálné příklady útoků s podvrženým hlasem
Hlasové útoky založené na AI často kopírují klasické scénáře sociálního inženýrství, ale mají mnohem vyšší úspěšnost. Oběť totiž slyší hlas někoho, komu důvěřuje. Níže najdete několik typických scénářů inspirovaných reálnými případy.
„CEO“ žádá o urgentní převod peněz
Pracovník finančního oddělení přijme hovor z čísla, které vypadá jako číslo generálního ředitele. Hlas zní správně, používá známé obraty. Volající vysvětluje, že probíhá důvěrná transakce a je potřeba okamžitě odeslat platbu na konkrétní účet.
Protože hlas i příběh působí věrohodně, zaměstnanec může obejít standardní schvalovací proces. Řada firem už v podobných situacích utrpěla výrazné finanční ztráty – v jednom známém případě útočníci vylákali přes 200 000 USD tím, že se podvrženým hlasem vydávali za CEO.
„Vedoucí oddělení“ potřebuje nouzově resetovat heslo
Servisní podpora IT přijme hovor od osoby, která zní přesně jako vedoucí oddělení. Tvrdí, že těsně před důležitou prezentací přišla o přístup ke svému účtu a naléhavě žádá o okamžitý reset hesla.
Pokud technik v dobré víře poruší postup a účet bez dalšího ověření resetuje, útočníci získají přímý přístup do interních systémů. Odtud mohou zvyšovat svá oprávnění, stahovat data nebo připravovat další útoky.
Útoky na zákazníky formou falešných hovorů podpory
Podvodníci se mohou vydávat za pracovníky zákaznické podpory nebo account managery a volat přímo vašim zákazníkům, partnerům či dodavatelům. V takovém hovoru „podpora“ často žádá o potvrzení platebních údajů, schválení změn na účtu nebo kliknutí na odkaz, který následně přijde e-mailem.
Tyto útoky poškozují důvěru v značku, i když vaše organizace ve skutečnosti nic neprovedla. Oběti si zapamatují jméno firmy, která v hovoru zazněla, a mohou ji vinit z podvodu.
Které organizace jsou nejvíce ohrožené
Podsouvání hlasu pomocí AI není problém jen pro velké korporace s veřejně známým vedením. Cílem se může stát prakticky jakákoli organizace, zejména pokud:
- jde o malou nebo středně velkou firmu, která nemá striktní procesy ověřování telefonických požadavků,
- má převážně vzdálené nebo hybridní týmy, kde se většina interakcí odehrává on-line,
- její marketing, sales nebo management často vystupují v podcastech, webinářích či videích,
- provozuje rozsáhlou zákaznickou podporu, kde zaměstnanci fungují pod tlakem a musí reagovat rychle.
V každém prostředí, kde je hlas důležitým signálem důvěry, představuje deepfake audio reálný a rostoucí vektor útoku.
Jak rozpoznat pokusy o podsouvání hlasu AI
Přestože syntetické hlasy jsou stále kvalitnější, útočníci stále spoléhají na klasické psychologické triky. Zaměstnanci by si měli všímat zejména těchto varovných signálů:
- Mimořádný tlak na čas u žádostí o platbu, přístupy nebo citlivé údaje,
- snaha obejít standardní postupy nebo vyhnout se písemnému schválení,
- neochota potvrdit žádost jiným kanálem (interní chat, e-mail, tiketovací systém),
- drobné „artefakty“ v hlase – příliš plynulá řeč, zvláštní pauzy, žádné slyšitelné nádechy,
- telefonáty v neobvyklou dobu od lidí, kteří běžně volají jen v pracovní době.
Kombinace těchto signálů by měla okamžitě vést k dodatečnému ověření, nikoliv k automatickému splnění požadavku.
Obranná opatření, která by měly organizace zavést
Úplně zabránit klonování hlasu nelze, ale lze útočníkům výrazně ztížit, aby s jeho pomocí uspěli. Nejlepší výsledky přináší kombinace jasných politik, školení a promyšlených procesů.
Nastavte jasná pravidla ověřování pro rizikové požadavky
Každá žádost, která se týká peněz, přístupů do systémů nebo zpracování citlivých dat, by měla mít povinný druhý krok ověření. Například:
- platby nad určitou částku vyžadují písemné schválení a druhý podpis,
- IT resetuje účty až po potvrzení identity jiným ověřeným kanálem (např. interním komunikátorem),
- změny bankovních údajů dodavatele se akceptují pouze po ověření přes dříve známé kontaktní údaje.
Taková pravidla by měla být formálně zdokumentovaná, aby se na ně zaměstnanci mohli odvolat i ve chvíli, kdy na ně údajně tlačí „vedení“.
Využívejte ověřování přes jiný kanál
Pokud hovor zní podezřele, zaměstnanec by měl mít povinnost přesunout komunikaci do jiného, důvěryhodného kanálu. Typicky:
- zavolat zpět na číslo z interního adresáře, ne na číslo z displeje,
- napsat dotyčnému zprávu v interním komunikačním nástroji (Slack, Teams atd.),
- poslat e-mail na oficiální firemní adresu dané osoby.
Útočník může mít pod kontrolou falešný hlas, ale jen zřídka ovládá všechny firemní kanály současně.
Posilte schvalovací procesy
Řada úspěšných podvodů je možná proto, že jedna osoba může sama schválit kritickou akci. Riziko se sníží, pokud:
- zavedete pravidlo více schvalovatelů pro vysoké částky nebo citlivé změny,
- rozdělíte odpovědnost za zadání, schválení a provedení platby mezi různé role,
- pravidelně vyhodnocujete výjimky a ruční obcházení standardních postupů.
Takové mechanismy chrání firmu nejen před útoky využívajícími deepfake audio, ale také před klasickými interními podvody.
Rozšiřte školení v oblasti bezpečnosti
Většina organizací už dnes školí zaměstnance v rozpoznávání e-mailového phishingu. K těmto školením má smysl přidat i scénáře spojené s hlasem AI. Například:
- „ředitel“ volající s žádostí o okamžitý převod velké částky,
- „vedoucí“, který odmítá potvrdit reset hesla jiným kanálem,
- „podpora“, která po telefonu žádá o číslo karty a následně pošle e-mail s odkazem.
V praxi je nejjednodušší vnímat hlasové útoky jako další variantu stejné hrozby: sociálního inženýrství.
Další tipy pro rozpoznávání phishingu v různých odvětvích najdete v našich česky lokalizovaných průvodcích:
- Jak odhalit phishingové e-maily v elektronickém obchodě
- Jak odhalit phishingové e-maily: Průvodce pro finanční organizace
- Jak zabránit podvrženým e-mailům ve školách a na univerzitách
- Účinné strategie prevence phishingových útoků ve státní správě
- Jak podvržené e-maily ovlivňují důvěru zákazníků v pojišťovnictví
Jak se hlasové útoky propojují se spoofingem e-mailů
V praxi hlasové útoky málokdy stojí samostatně. Velmi často jsou kombinované s podvrženými e-maily, aby podvod vypadal ještě důvěryhodněji. Typické příklady:
- pracovník financí dostane „telefon od CFO“ a vzápětí e-mail s údaji k platbě,
- zákazník přijme hovor od „konzultanta“ a hned poté mu přijde e-mail s odkazem, který údajně pochází z vaší domény.
Hlas zatím neumíme technicky ověřit. E-mail ale ano. Proto hrají standardy SPF, DKIM a DMARC tak důležitou roli při obraně proti spoofingu.
Pokud ještě nemáte pro svou doménu plně nastavené ověřování e-mailů, doporučujeme tyto články:
- DMARC vs. DKIM vs. SPF: jaký je mezi nimi rozdíl?
- Jak zabránit útokům na e-mailové podvrhy a phishingovým útokům pomocí DMARC
- Zásady DMARC nejsou povoleny? Jak to udělat v 5 snadných krocích
Jak DMARCeye podporuje komplexní strategii proti spoofingu
Podsouvání hlasu pomocí AI přináší nový vektor útoku, ale ve většině případů se podvod stejně dokončí přes e-mail. Deepfake hovory často končí tím, že má oběť kliknout na odkaz, potvrdit údaje nebo provést platbu na základě e-mailu.
DMARCeye posiluje vaši obranu tím, že vám pomáhá:
- zjistit všechny služby, které posílají e-maily jménem vaší domény,
- odhalit neautorizované odesílatele, kteří mohou podporovat kampaně využívající deepfake hovory,
- monitorovat výsledky SPF, DKIM a DMARC v přehledném rozhraní,
- bezpečně přejít až k politice „reject“, která blokuje podvržené zprávy ještě před doručením.
Jakmile pro svou doménu prosadíte DMARC, útočníkům se výrazně ztíží možnost posílat zprávy, které vypadají, jako by opravdu přišly od vás. Díky tomu klesá celková úspěšnost kampaní, i když jsou podpořené velmi věrohodným deepfake hlasem.
Získejte bezplatnou zkušební verzi DMARCeye ještě dnes a začněte chránit svou e-mailovou doménu.
Širší kontext spoofingu v různých komunikačních kanálech najdete v našem průvodci Co je spoofing? Základy e-mailových podvodů a jak jim předcházet.