Новые риски для пользователей ChatGPT: вредоносный код и манипуляции контентом

Татьяна Штерева редактор раздела Стиль жизни
пошуком ChatGPT можна маніпулювати

Фото: Pexels

Новый инструмент поиска ChatGPT от OpenAI, доступный для платных пользователей, может быть использован для манипуляций через скрытый контент на веб-страницах. Это может приводить к предоставлению ложных или даже вредных ответов. Такие выводы сделала редакция The Guardian в ходе собственного расследования.

Результаты тестирования поиска ChatGPT

Во время тестирования инструмент анализировал веб-страницы со скрытым текстом, который влиял на ответы ChatGPT.

Например, фейковый сайт, созданный для эксперимента, содержал инструкции, написанные скрытым текстом. Это заставляло ChatGPT игнорировать негативные отзывы о продукте и выдавать только положительную оценку. Это сработало даже тогда, когда на странице были настоящие негативные рецензии.

Также выяснилось, что инструмент может возвращать вредоносный код с веб-сайтов. В примере, приведенном исследователем Microsoft Томасом Роччиа, код, сгенерированный ChatGPT для работы с криптовалютами, похитил учетные данные пользователя, что привело к потере $2,5 тыс.

Мнения экспертов

Исследователь кибербезопасности из CyberCX Якоб Ларсен предупредил о риске создания сайтов, которые намеренно манипулируют ответами ChatGPT. В то же время он отметил, что функция поиска лишь недавно стала доступной, а OpenAI активно тестирует систему.

Главный научный сотрудник компании SR Labs Карстен Ноль сравнил эту проблему с “SEO-подрывом” — технологией, когда злоумышленники манипулируют сайтами, чтобы повлиять на их позицию в поисковых системах.

Он также добавил, что большие языковые модели, как ChatGPT, должны быть инструментом-помощником, но их ответы нужно проверять.

— Это как ребенок с огромным объемом памяти, но без критического мышления. Вы не можете слепо доверять тому, что он говорит, — пояснил Ноль.

Последствия для пользователей

Скрытый текст, который исторически наказывался поисковыми системами вроде Google, теперь может стать инструментом для манипуляций в системах искусственного интеллекта.

В то же время OpenAI всегда добавляет предупреждение для своих пользователей: “ChatGPT может ошибаться. Проверяйте важную информацию”.

К слову, компания OpenAI продолжает работать над расширением функционала ChatGPT. Недавно у чат-бота появилась возможность анализировать видео и реагировать на него в режиме реального времени.