X 
Выборы в Молдове новостей: 4934
Приднестровье новостей: 1435
Президент новостей: 4033
Война в Украине новостей: 6235

Дьявол кроется в деталях. Чем опасны чат-боты?

28 июн. 2023, 10:00 (обновлено 28 июн. 2023, 20:05)   Аналитика
5967 0

Первая многозадачная модель искусственного интеллекта (ИИ) ChatGPT установила исторический рекорд по привлечению аудитории и в то же время привела к росту беспокойства общественности, вновь обострив дискуссии о потенциальных угрозах цифровых технологий на базе ИИ.

ChatGPT способен создавать реалистичный, интеллектуальный текст в ответ на запросы пользователя, однако результат зачастую непредсказуем. Вызывает вопросы его фактическая точность, а также большое количество вредных, вводящих в заблуждение, а то и оскорбительных ответов. Вместе с тем, сервисы, предоставляющие возможность генерировать текст или изображения, не раз становились мишенью для хакеров, желающих получить личные данные пользователей. Существует и множество других потенциальных угроз, на которые обращают внимание специалисты.

Ситуацию усугубляет отсутствие какого-либо четкого регулирования этого круга вопросов – европейские страны только начинают разрабатывать правовые инструменты. О вызовах, которые несет ChatGPT и аналогичные ему большие языковые модели, стали задумываться и в Молдове.

Эксперты полагают, что необходимо ограничить на уровне законодательства доступ к таким сервисам определенному кругу лиц, например, в образовательной системе, а с точки зрения безопасности использования, важно принять законы, устанавливающие строгие правила сбора и хранения данных пользователей, а также обязательную сертификацию и лицензирование для создателей и владельцев этих технологий.

Нейросети наступают


В последние месяцы стремительное развитие получил чат-бот с искусственным интеллектом ChatGPT. Аббревиатура в переводе с английского означает «генеративный предварительно обученный трансформер» (Generative Pre-trained Transformer). Данный продукт был разработан компанией OpenAI и способен работать в диалоговом режиме, поддерживающем запросы на естественных языках. В отличие от большинства чат-ботов, ChatGPT отслеживает состояние пользователя, запоминая предыдущие вопросы и ответы, данные ему в том же разговоре.

ChatGPT – большая языковая модель, для тренировки которой использовались методы обучения с учителями. При этом люди-тренеры играли обе стороны: пользователя и помощника по искусственному интеллекту. Благодаря обучению на огромном количестве созданных человеком высококачественных текстов и диалогах с экспертами, разработчиками был достигнут новый для чат-ботов уровень полезности и связанности изложения информации. Результатом, в частности, стала возможность сгенерировать подробный и похожий на человеческий текст.

ChatGPT был запущен 30 ноября 2022 г. и привлек внимание своими широкими возможностями. В их числе написание кода, создание текстов, возможности перевода, получения точных ответов и использование контекста диалога для ответов. Только за первые два месяца аудитория активных пользователей ChatGPT достигла 100 млн человек, что стало историческим рекордом по росту посетителей.

В марте 2023 г. интерес к этому продукту еще более возрос в связи с выпуском новой модели, доступной тестировщикам и платным подписчикам. В ней у ИИ появилась возможность обработки не только текста, но и картинок. На популярность нейросети OpenAI отреагировали крупнейшие технологические корпораци. Так, Google объявил о начале тестирования своего чат-бота Bard, а Microsoft встроила ChatGPT в строку поиска Bing.

При этом фактическая точность чат-бота неоднократно подверглась критике, вызывало вопросы и большое количество вредных и вводящих в заблуждение ответов. В попытке предотвратить выдачу оскорбительных результатов от запросов пользователей и получение сомнительных ответов, в ChatGPT запросы определенным образом фильтруются, а потенциально нежелательные подсказки отклоняются. Однако, как свидетельствуют многочисленные примеры на просторах интернета, получается это далеко не всегда.

Выявлено множество случаев, когда тот же ChatGPT в силу своего несовершенства выдавал не только взятые с потолка суждения, но и «выдумывал» в их поддержку несуществующие источники, факты и события. Эксперты отмечают, что первый позитивный опыт использования модели может существенно притупить бдительность пользователей. Избыточное доверие к ИИ-системе, подогреваемое природной ленью человека, грозит риском исключения дополнительной перепроверки полученных результатов при решении тех или иных задач, включая общественно важные.

«Эффект домино»

Когда один из специалистов использовал ChatGPT в студенческом задании и обнаружил, что сгенерированный им текст соответствует тому, что мог бы предоставить хороший студент, он высказал мнение, что «перед академическими кругами стоят некоторые очень серьёзные проблемы». Уже получили известность случаи неэтичного использования нейросетей при сдаче письменных экзаменов и написании различных видов работ, в том числе выпускных в школах и вузах.

Порой невозможно отличить созданный ChatGPT текст от написанного рукою человека, что явным образом нарушает принцип самостоятельности выполнения заданий. Все это ставит под сомнение соблюдение базового требования любой системы классического образования – успешное освоение материала школьником или студентом по итогам обучения.

Иными словами, существующие методики оценки учащихся не способны в полной мере отвечать новым реалиям. Требуется или их корректировка, или введение ограничений на использование больших языковых моделей в сфере образования. Эксперты отмечают потребность в изменении образовательной системы таким образом, чтобы ограничить доступ к цифровым технологиям и исключить доступ к искусственному интеллекту в учебном процессе при подготовке и сдаче любых видов контрольных работ и экзаменов.

Среди главных рисков, на которые обращают внимание специалисты, - высокая вероятность введения пользователя в заблуждение. Фактическая точность ChatGPT регулярно ставится под сомнение. Тому можно найти множество примеров в СМИ и соцсетях. Так, один из пользователей задал ChatGPT множество вопросов. В одном примере он попросил назвать самую большую после Мексики страну в Центральной Америке. ChatGPT ответил, что это Гватемала, хотя правильный ответ – Никарагуа. Известен случай, когда один из адвокатов попал под суд из-за того, что использовал в деле реально не существующие прецеденты, которые выдал ему ChatGPT.

Исследователи выражают обеспокоенность и по поводу его влияния на законодательное регулирование и формирование общественного мнения. Ведь при помощи чат-бота любой человек получает способность писать автоматические комментарии в попытке повлиять на принятие новых нормативных актов и другие процессы.

В числе прочего этот риск запускает сценарий массового использования чат-ботов в целях манипуляции общественным мнением. Так, по запросу пользователя, ChatGPT и его аналоги способны поставить на конвейер создание эффективных ботов, до определенной степени неотличимых от людей, с целью фальсификации отзывов в Интернете (на товары, сервисы, услуги и др.), якобы основанных на личном опыте, которого у чат-ботов нет и быть не может.

В этой же плоскости лежит риск манипуляционного воздействия на аудиторию через массовую генерацию публикаций, якобы созданных человеком. Такое применение языковых моделей существенно усиливает любой пропагандистский потенциал за счет встроенного в ИИ-систему функционала по быстрому генерированию разнообразных текстов с общим смыслом. На один и тот же контекстный запрос система каждый раз будет выдавать уникальный текст на базе требуемой идеи или тезиса.

Эксперты также говорят о рисках генерации большого объема идеологизированного контента, который заинтересованные лица могут применять для политической и социальной дестабилизации общества. Поскольку ИИ глубоко интегрирован в средства поиска информации в интернете и социальные сети, в кратчайшие сроки возможно создание неконтролируемого информационного пространства. Вбрасываемые чат-ботами в инфополе месседжи начнут подхватываться, эволюционировать и обрастать реальной человеческой аудиторией. Последствия такого «эффекта домино» трудно просчитать.

Существует и множество других потенциальных угроз, на которые обращают внимание специалисты. Так, все чаще звучат мнения о том, что ChatGPT повлияет на спрос работников умственного труда и приведет к частичной замене людей на «умных» ассистентов. В то же время ChatGPT может стать новым эффективным инструментом в руках злоумышленников, поскольку он способен писать вредоносные программы и фишинговые электронные письма.

«Источник страха и дезинформации»

Доступ к этому сервису ограничен в ряде стран, в том числе в Китае, России, Белоруссии, Афганистане и др. Крупнейшим IT-компаниям Китая, несмотря на уже имеющийся официальный запрет, было предписано не использовать ChatGPT в своих продуктах. Как сообщает China Daily, чат-бот может способствовать распространению информации в геополитических интересах США.

Первой западной страной, самостоятельно заблокировавшей у себя ChatGPT, стала Италия. При этом власти ссылаются на несоблюдение правил конфиденциальности данных. Принятие ограничительных мер итальянские власти объяснили утечкой данных пользователей в марте 2023 г. Кроме того, касательно положения о конфиденциальности чата было отмечено отсутствие в нем информации о сведениях, собираемых OpenAI, и правовых основаниях на сбор и хранение данных для обучения ИИ. Также компанию обвинили в том, что она не проверяет возраст пользователей.

Судя по всему, поток ограничительных мер будет нарастать. В последние месяцы жаркие дискуссии вокруг рисков широкого использования новых моделей искусственного интеллекта разворачиваются во многих государствах. Из-за опасений по поводу негативного воздействия на обучение, а также по поводу безопасности и точности генерируемого системой контента, доступ к ChatGPT ограничен в сетях и на устройствах государственных школ Нью-Йорка.

К осторожности при использовании продуктов, связанных с ИИ, все чаще призывают международные организации. Буквально на днях генеральный секретарь ООН Антониу Гутерриш обратил внимание, что приложения искусственного интеллекта должны соблюдать нормы этики. По его словам, сегодня социальные медиа и различные цифровые платформы все больше являются не средством связи людей, а источником страха и дезинформации. Генсек ООН считает важным принять все меры, чтобы компьютерные приложения не вышли из-под контроля, «были безопасны, защищены, соответствовали этике и обязательствам в сфере прав человека».

Причем решать эти проблемы, по его убеждению, всем странам надо «срочно и незамедлительно». «Когда социальные сети появились поколение назад, цифровые платформы воспринимались как захватывающий новый способ связи. Теперь цифровыми платформами злоупотребляют, чтобы подрывать науку, распространять дезинформацию и разжигать ненависть», - подчеркнул Гутерриш.

В начале июня Европарламент одобрил проект, который регулирует вопросы ИИ и призван ограничить риски, создаваемые с развитием ChatGPT. Речь идет о европейском (и первом в мире) регламенте, касающемся искусственного интеллекта. Документ, в частности, содержит полный запрет на автоматические системы распознавания лиц в общественных местах. При его подготовке обсуждалась возможность введения некоторых исключений, однако в конечном счете евродепутаты отказались от этого и приняли решение в пользу тотального запрета. Теперь странам ЕС предстоит доработать текст нормативного акта.

О вызовах, которые несет ChatGPT и аналогичные ему большие языковые модели, стали задумываться и в Молдове. На прошлой неделе, во время выступления на церемонии награждения самых талантливых студентов в сфере IT в стране, президент Майя Санду упомянула о возможностях и рисках искусственного интеллекта. Глава государства подчеркнула, что все развивается очень быстро, и эту тему нужно обсуждать в том числе в учебных заведениях.

«Кто из вас использует ChatGPT при выполнении домашних заданий? Сколько ваших учителей понимают, когда задание выполняется с помощью ChatGPT, с помощью другой модели или учеником? Это серьезное обсуждение, которое нам необходимо провести в школе. Искусственный интеллект может нас напугать, он предлагает нам некоторые экстраординарные возможности, но это также сопряжено с огромными рисками. Если мы их не знаем, если мы их не изучаем, если мы их не понимаем, нам может не понравиться то, что произойдет», - заявила Санду.

Как отмечают многие аналитики, на данный момент нельзя придумать абсолютную защиту от угроз, исходящих от нейросетей и чат-ботов. Специалисты призывают быть осторожными, отказаться от полного доверия нейросетям и перепроверять любую информацию от них. По их мнению, необходимо ограничить на уровне законодательства доступ к ним определенному кругу лиц, например, в образовательной системе, а с точки зрения безопасности пользования, в первую очередь принять законы, устанавливающие строгие правила сбора и хранения данных пользователей, а также обязательную сертификацию и лицензирование для создателей и владельцев этих технологий.

Виктор Суружиу

4
0
0
0
2

Добавить комментарий

500

Нашли ошибку в тексте? Выделите ее и нажмите Ctrl+Enter

© Бизнес

К какому этносу вы себя относите?