X 
Выборы в Молдове новостей: 5256
Акция протеста новостей: 1750
Землетрясения новостей: 507

Виталий Левинца: "Искусственный интеллект создает много угроз в сфере кибербезопасности"

4 окт. 6:30   Общество
4 час. назад 1308 0

Искусственный интеллект в последнее время создает много угроз в сфере кибербезопасности, и крайне важно перепроверять информацию в случае звонков от родных и близких или начальства, если в них содержится просьба срочно перевести деньги в связи с той или иной ситуацией, не требующей отлагательств.

Об этом заявил эксперт по кибербезопасности Виталий Левинца, выступая в ток-шоу "Без галстуков с Александром Стахурским" на телеканале N4, передает Noi.md.

Он отметил, что многие новые серьезные угрозы в сфере кибербезопасности, созданные с помощью искусственного интеллекта, появились совершенно недавно: год, полтора или два назад.

Сначала с развитием программ искусственного интеллекта это была своего рода игра, было интересно и красиво создавать дипфейки, чтобы показать каких-то знаменитостей в ситуациях, совершенно им не свойственных.

По словам эксперта по кибербезопасности, все посмеялись над этим, но потом потихонечку начали придумывать с помощью искусственного интеллекта уже не такие безобидные вещи. К примеру, очень многие парни начали делать на всяких сайтах знакомств профайлы, генерируя с помощью искусственного интеллекта фотографии девушек, которые нравятся большинству парней, и запускали ботов с искусственным интеллектом, которые поддерживали общение с этими парнями. А задача этого бота состояла в выпрашивании денег.


"Когда только они это запустили, то буквально за неделю собрали около 20 000 долларов. Просто потому, что бот - это не человек. Он не устаёт, он разговаривал одновременно с сотнями людей, всегда просил у них 1, 2, 3, 5, 10 долларов, и за неделю они собрали 20 000. Это одно из, скажем так, плохих использований искусственного интеллекта. Это буквально было 2 года назад", - сказал Виталий Левинца.

Он отметил, что на следующем этапе начали создавать дипфейки простых людей. К примеру, полгода назад в одной крупной компании произошел видеозвонок от генерального директора финансовому директору, и начальник попросил срочно перевести на указанный им счет $2 млн, отметив, что это очень срочно, а он сейчас улетает, и не будет доступен в течение 5-6 часов, и поэтому ему не нужно звонить, а следует быстро перевести деньги.

"Финансовый директор увидел начальника, который позвонил и попросил его сделать перевод. Он подготавливает всё, переводит эти все деньги, и не звонит начальнику. Не набирает человека, думая, что тот в самолёте, он будет занят. И в это же время генеральный директор заходит в офис, и выясняется, что он никуда не летит, и деньги никуда не нужно переводить. Это реальная история, это реально произошло, и перевели непонятно кому $2 млн долларов. Но они, по-моему, смогли там найти и вернуть деньги назад. Но всё равно, прецедент был, и он не один", - заявил эксперт по кибербезопасности.

По его словам, такое же мошенничество применяется и с создаваемым искусственным интеллектом фейком голосов. К примеру, звонит отцу взрослый ребенок из-за границы и говорит, что у него разрядился телефон, он звонит не со своего номера и просит срочно перевести 2000 долларов, чтобы заплатить за учёбу.

"Человек слышит голос своего ребёнка, который просит срочно перевести деньги, чтобы успеть заплатить за учебу, потому что истекает время и потом он не сможет заплатить и не сможет учиться, диктует счет. Отец делает перевод, а ребёнок потом приезжает и говорит, что не звонил, и у него всё нормально, и телефон заряжен", - отметил Виталий Левинца.

Он подчеркнул, что поэтому любая просьба перевода финансов, перевода личных данных, открытия каких-то паролей всегда должна подтверждаться ответным звонком, чтобы установить её достоверность или фейковость.

0
0
0
1
0

Добавить комментарий

500

Нашли ошибку в тексте? Выделите ее и нажмите Ctrl+Enter

За кого вы собираетесь голосовать на президентских выборах 20 октября?