Počasí dnes4 °C, zítra2 °C
Sobota 23. listopadu 2024  |  Svátek má Klement
Bez reklam

Banky by měly ustoupit od hlasového ověřování identity svých klientů, říká vědkyně Barbara Zitová

Umělá inteligence v dnešní době dokáže napodobit mluvu člověka tak, že skoro nepoznáme rozdíl, říká docentka Barbara Zitová z Ústavu teorie informace a automatizace Akademie věd ČR. Softwaru k tomu stačí pár minut záznamu reálného mluveného projevu člověka. Banky by podle vědkyně měly ustoupit od hlasového ověřování identity svých klientů. Nejen o tom se Barbara Zitová rozpovídala v dalším díle rozhovorového seriálu Bez servítků.

Zařazení HHC na seznam návykových látek není dobrým řešením, říká odbornice na závislosti

Národní protidrogový koordinátor Jindřich Vobořil chce vládě předložit návrh s možností zajištění abolice pro lidi, kteří by byli po ohlášeném zákazu kanabinolu HHC stíháni za držení produktů s touto látkou. Zabránit chce případným trestům vězení. V...

Jak rychle se vyvíjí umělá inteligence a kdy zaznamenala ten rychlý vývoj?
Proměňuje se velmi rychle. Ten nejrychlejší vývoj začal podle mého zhruba dva až tři roky zpět, kdy začalo toto téma pronikat mnohem více mezi „běžné“ lidi. V té době začala umělá inteligence získávat na velké popularitě a postupně se stala mnohem více dostupná široké veřejnosti. Uvidíme, jak dlouho se toto tempo udrží.

Velmi často se mluví o pozitivních vlivech umělé inteligence. Ta je ale také spojena s riziky kyberkriminality. Kde vidíte největší rizika?
V tenhle moment považuji za největší riziko deep fakes. V případě audia to může být situace, kdy se někdo vaším hlasem přihlásil do banky skrze hlasové ověřování. Deep fake videi se může někdo snažit ovlivnit volby nebo třeba veřejný názor. To může mít velký společný dopad. Těch možností je tedy mnohem více.

Je tedy bezpečnější ověřování například formou SMS?
Nevím o žádném případu, kdy by byla taková SMS umělou inteligencí přečtena nebo kdy by se někdo podílel na nějakém podvodu v podobném směru. Nejsem expert, ale domnívám se, že je to díky kódování bezpečnější forma ověření než hlasem. Ověřování hlasem je v tento moment velmi rizikové.

Dá se říct, že je nyní hlas napodobený umělou inteligencí k nerozpoznání od originálu?
Myslím si, že na poslech je to k nerozpoznání. Nedokáži vyloučit, že se objeví nějaké metody, které z pohledu frekvenčních analýz objeví něco, co v sobě normální hlas nemá. Zároveň bude podle mého otázkou času, než se podaří vyvinout postupy, aby i to takové audio bylo k nerozpoznání od originálu hlasu. Kde to tedy jde, tam by se měly metody ověření hlasem vyměnit za jiné způsoby.

Co by vlastně takový podvodník musel udělat pro to, aby dokázal napodobit hlas pomyslné oběti?
Předesílám, že jsem nedělala žádný experiment, že bych se pokusila prolomit do banky skrze napodobený hlas nějakého klienta. Na vytvoření zvukové stopy, která vypadá velmi podobně originálu, je potřeba zhruba dvou až tříminutová nahrávka, která je jakýmsi vzorem dotyčného hlasu. Což není v dnešní době problém získat. Spousta lidí měla nějaká veřejná vystoupení, lidé mají také videa se svým hlasem na sociálních sítích a v neposlední řadě není problém také někomu zavolat. Bez zvukové stopy s hlasem potenciální oběti to ale nejde.

Některé firmy vyrábějící aplikace dokážou udělat video vaší osoby i se zvukovou stopou, tak zvaného avatara. Považuji za slibné, že zároveň vyžadují proces ověření, kdy srovnávají osobu, podle kterého je avatar tvořen s osobou, která se v daný moment nachází před kamerou, a to v reálném čase. Cílem je zajistit, že digitální avatar a hlas jsou používány oprávněnou osobou.

Kdybyste tedy měli video někoho cizího, bylo by jeho zneužití složitější. Neříkám ale, že je to nemožné. U samotného hlasu zatím tenhle model ověřování není. Je možné, že přijde, ale je otázkou času, kdy se to někomu podaří obejít.

Stačí chytrý telefon a QR kód. Umělá inteligence dokáže poradit, jak se chovat v případě útoku střelce

Jak se chovat v případě útoku aktivního střelce, by mohla poradit umělá inteligence. Měsíc po tragické události na filozofické fakultě přišly spolky Presafe a Odborný institut ochrany obyvatel s bezplatným chatbotem, který by měl rychle a jednoduše...

Stejně jako u většiny podvodů jsou podvodníci o krok napřed. Jaká je tedy cesta z toho, aby umělá inteligence nebyla „dobrým sluhou a špatným pánem“?
Určitě prospívá samotné ověřování, jak jsem naznačila. Mnoho pracovišť se věnuje vývoji metod, které mají omezovat potencionální zneužívání. Obávám se, že v okamžiku, kdy by se zavedlo nějaké plošné omezení dostupnosti takových aplikací, tak to v podstatě vyústí v to, že ti „špatní“ to stejně budou mít a nedostanou se k tomu „ti hodní“. Obecně podobné represivní techniky moc nefungují. Úplné znemožnění využívání umělé inteligence širokou veřejností by ničemu neprospělo.  

Mluvili jsme o reálné možnosti vytvořit falsum hlasu. Jak je to ale například s ověřováním pomocí obličeje? Dá se předpokládat, že umělá inteligence dokáže napodobit také obličej člověka do takové míry, že by mohlo dojít k jeho zneužití při přihlašování do různých aplikací?
O žádném takovém případu zatím nevím, ale napadlo mě v souvislosti s jednou službou nejmenované aplikace, že by toto reálně mohlo hrozit. Jedna firma zavedla nový parametr, kdy nahrajete fotografii a potvrdíte, že chcete tuhle tvář v jiném prostřední nebo konstelaci. Ta tvář nezůstane úplně stejná, je lehce modifikovaná, ale je otázka, jak by algoritmy na detekci tváří na něco podobného reagovaly. Víc podrobností bych asi neuváděla, aby to nebylo pro někoho návodné. Je to placená služba, nemá ji tedy každý, ale kdo by ji mohl chtít zneužít, určitě do toho zainvestuje. Je otázka, kam tohle povede. Myslím, že tohle ověřování tváří je do budoucna také rizikové.

Existuje nějaká univerzální rada, jak rozpoznat deep fake videa nebo uměle vytvořený hlas napodobující někoho?
V první řadě chci upozornit, že neexistuje něco jako být obětí umělé inteligence. Člověk může být maximálně obětí podvodníka využívající umělou inteligenci k podvodům. Všeobecně by se lidé měli obeznámit s tím, že je něco takového reálné. Kdysi dávno se tradovalo, že to musí být pravda, protože to bylo v televizi nebo novinách. Dnes už ale všichni tak nějak ví, že to tak nemusí být. Proto je potřeba takové uvědomění, co vše je možné a co vše se dá vytvořit. Pokud si to lidé budou uvědomovat, třeba budou v určitých situacích více obezřetnější a budou zvažovat, jestli je to reálné. To ale také může jít ruku v ruce s tím, že budeme méně věcem věřit. Člověk bude více skeptický. Blíží se nám volby, tak by bylo dobré, kdybychom se dívali na to, co se bude o různých politicích říkat, kritickým okem.

Vnitřně mám pocit, že se společnost rozdělila na totální odpůrce umělé inteligence a totální příznivce. Spousta nadšenců to bere se vším všady a nechce vidět negativa, oproti tomu je spousta odpůrců, kteří si to nevyzkoušeli, nechtějí si to vyzkoušet a berou to zcela negativně. Byla bych ráda, kdyby se lidé s umělou inteligencí seznámili, byť jen za účelem toho, aby věděli, co dokáže. Totální odmítání nepovažuji za dobré, protože se může rychle vymstít.

Ohodnoť článek

Foto AV ČR

Štítky umělá inteligence, podvod, Barbara Zitová, Bez servítků, rozhovor

Komentáře

Pro přidání příspěvku se musíte nejdříve přihlásit / registrovat / přihlásit přes Facebook.

Banky by měly ustoupit od hlasového ověřování identity svých klientů, říká vědkyně Barbara Zitová  |  Bez servítků  |  Drbna  |  Brněnská Drbna - zprávy z Brna a Jihomoravského kraje

Můj profil Bez reklam

Přihlášení uživatele

Přihlásit se pomocí GoogleZaložením účtu souhlasím s obchodními podmínkami, etickým
kodexem
a rozumím zpracování osobních údajů dle poučení.

Zapomenuté heslo

Na zadanou e-mailovou adresu bude zaslán e-mail s odkazem na změnu hesla.