Об этом заявил эксперт по кибербезопасности Виталий Левинца, выступая в ток-шоу "Без галстуков с Александром Стахурским" на телеканале N4, передает Noi.md.
Он отметил, что многие новые серьезные угрозы в сфере кибербезопасности, созданные с помощью искусственного интеллекта, появились совершенно недавно: год, полтора или два назад.
Сначала с развитием программ искусственного интеллекта это была своего рода игра, было интересно и красиво создавать дипфейки, чтобы показать каких-то знаменитостей в ситуациях, совершенно им не свойственных.
По словам эксперта по кибербезопасности, все посмеялись над этим, но потом потихонечку начали придумывать с помощью искусственного интеллекта уже не такие безобидные вещи. К примеру, очень многие парни начали делать на всяких сайтах знакомств профайлы, генерируя с помощью искусственного интеллекта фотографии девушек, которые нравятся большинству парней, и запускали ботов с искусственным интеллектом, которые поддерживали общение с этими парнями. А задача этого бота состояла в выпрашивании денег.
Он отметил, что на следующем этапе начали создавать дипфейки простых людей. К примеру, полгода назад в одной крупной компании произошел видеозвонок от генерального директора финансовому директору, и начальник попросил срочно перевести на указанный им счет $2 млн, отметив, что это очень срочно, а он сейчас улетает, и не будет доступен в течение 5-6 часов, и поэтому ему не нужно звонить, а следует быстро перевести деньги.
"Финансовый директор увидел начальника, который позвонил и попросил его сделать перевод. Он подготавливает всё, переводит эти все деньги, и не звонит начальнику. Не набирает человека, думая, что тот в самолёте, он будет занят. И в это же время генеральный директор заходит в офис, и выясняется, что он никуда не летит, и деньги никуда не нужно переводить. Это реальная история, это реально произошло, и перевели непонятно кому $2 млн долларов. Но они, по-моему, смогли там найти и вернуть деньги назад. Но всё равно, прецедент был, и он не один", - заявил эксперт по кибербезопасности.
По его словам, такое же мошенничество применяется и с создаваемым искусственным интеллектом фейком голосов. К примеру, звонит отцу взрослый ребенок из-за границы и говорит, что у него разрядился телефон, он звонит не со своего номера и просит срочно перевести 2000 долларов, чтобы заплатить за учёбу.
"Человек слышит голос своего ребёнка, который просит срочно перевести деньги, чтобы успеть заплатить за учебу, потому что истекает время и потом он не сможет заплатить и не сможет учиться, диктует счет. Отец делает перевод, а ребёнок потом приезжает и говорит, что не звонил, и у него всё нормально, и телефон заряжен", - отметил Виталий Левинца.
Он подчеркнул, что поэтому любая просьба перевода финансов, перевода личных данных, открытия каких-то паролей всегда должна подтверждаться ответным звонком, чтобы установить её достоверность или фейковость.
Добавить комментарий