Podvrhování hlasu umělou inteligencí je škodlivé vytváření syntetického zvuku, který napodobuje skutečné osoby (často manažery, vedoucí pracovníky nebo pracovníky podpory) za účelem spáchání podvodu, krádeže pověření nebo získání přístupu k citlivým zdrojům.
Na rozdíl od tradičního vishingu (hlasového phishingu) využívají moderní útoky strojové učení a technologii deepfake ke klonování řečových vzorů z pouhých 30 sekund veřejně dostupného zvuku. Útočníci pak tyto realistické imitace používají v telefonních hovorech nebo nahraných zprávách v reálném čase, díky čemuž je sociální inženýrství věrohodnější a škodlivější než kdy dříve.
Prudký nárůst práce na dálku, zvýšené využívání digitálních schůzek a hojné vystavování hlasů vedoucích pracovníků na internetu představují pro aktéry hrozeb živnou půdu. Zvukové deepfakes mohou být dostatečně přesvědčivé, aby obešly lidskou podezřívavost, zejména ve vysoce stresových nebo naléhavě znějících scénářích. Podklady naleznete v části Adaptivní zabezpečení: Všichni, kdo se chtějí dostat na trh, se mohou obrátit na společnost McAfee, která se zabývá umělou inteligencí: V tomto případě se jedná o podvody s hlubokými falešnými hlasovými nahrávkami.
S tím, jak se umělá inteligence stává dostupnější, nasazují nyní útočníci skriptované a dokonce interaktivní hlasové roboty k provádění vysoce cílených útoků. Nedávné případové studie poukazují na útočníky, kteří se vydávají za generální ředitele nebo finanční šéfy a přesvědčují zaměstnance, aby převedli peníze, zveřejnili pohledávky nebo obešli bezpečnostní kontroly. V jednom známém příkladu přišla britská dceřiná společnost energetické firmy o 243 000 dolarů poté, co se podvodníci pomocí hlasu generovaného umělou inteligencí vydávali za jejího generálního ředitele během údajného urgentního převodu. Stále většímu riziku jsou vystaveny malé a střední podniky, které nemají vyhrazené zdroje na ověření každého požadavku. Tato technologie se také používá k phishingu pověření, shromažďování hlasových zpráv a manipulaci se systémy směrování hovorů. Pokud dojde k úniku hovorů se zákazníky nebo citlivých údajů v důsledku hlasového sociálního inženýrství, vznikají právní rizika a rizika související s dodržováním předpisů. Další poznatky a případy prevence naleznete na webu Right-Hand: Vydejte se na stránky : Deepfake vishing 2025 a CrowdStrike: Vishingová rizika.
Podniky musí přijmout proaktivní přístup k boji proti hlasovému podvrhování s umělou inteligencí. Za prvé, zavést jasný proces ověřování všech hlasových požadavků týkajících se citlivých informací nebo transakcí - nikdy se nespoléhat pouze na identifikaci volajícího a pro akce s vysokou hodnotou používat známý sekundární způsob kontaktu. Vyškolte zaměstnance, aby rozpoznali taktiky, jako je naléhavost, vydávání se za autoritu nebo požadavky, které obcházejí písemné procesy. Zvažte nasazení řešení proti hlasovým podvodům a nástrojů pro detekci anomálií, které označují podezřelé hovory nebo analyzují zvukový záznam z hlediska charakteristik deepfake. Změny zásad - například schvalování více osobami a nezávislé kontroly zpětných hovorů - mohou výrazně snížit riziko. Firmy by měly být neustále informovány o nejnovějších právních rámcích a sdílet informace o hrozbách v rámci svého odvětví. Další praktické způsoby obrany jsou popsány na stránkách Group-IB: Prevence Vishingu a Blue Goat Cyber: Vishingové taktiky.
Chcete-li se dozvědět více o tom, jak spoofing ovlivňuje firmy v jiných odvětvích, podívejte se na náš článek o základech spoofingu a jak mu předcházet.