С точностью 85%: ИИ научился копировать человеческую личность

штучний інтелект
Источник: Pexels

Всего два часа разговора с искусственным интеллектом достаточно, чтобы он создал точную копию личности человека. К такому выводу пришли исследователи из Stanford University и Google, пишет Live Sience.

ИИ может создать цифровую копию личности

В рамках эксперимента ученые создали симуляционных агентов — ИИ-модели, которые имитируют поведение человека. Для этого они провели двухчасовые интервью с более чем тысячей респондентов, собирая информацию об их жизни, ценностях и взглядах на общественные вопросы. Эти данные использовались для обучения генеративной модели искусственного интеллекта.

Чтобы оценить точность копий, участники проходили серию личностных тестов, социальных опросов и логических игр. Через две недели эти же тесты провели для ИИ-моделей, сравнивая результаты. Искусственный интеллект показал 85% совпадений с ответами реальных людей.

Сейчас смотрят

ИИ-агенты хорошо справляются с задачами, связанными с личностными тестами или социальными опросами. Однако точность снижается в сценариях, включающих социальную динамику или сложные экономические решения, например интерактивные игры.

Авторы исследования уверены, что технология может открыть новые горизонты для изучения человеческого поведения. Но ее применение требует строгого контроля, чтобы избежать возможных злоупотреблений.

Возможности и риски создания ИИ-копий личности

В исследовании указано, что такие модели могут быть полезными для различных научных целей. Например, они могут помочь оценить эффективность государственных программ, понять реакцию общества на новые продукты или проанализировать, как люди реагируют на глобальные события, которые сложно или этически неприемлемо изучать на реальных примерах.

— Общее моделирование человеческих отношений и поведения — это возможность создать лабораторию для тестирования широкого спектра вмешательств и теорий, — говорится в исследовании.

ИИ также может помочь в создании теорий причинно-следственных связей или в изучении влияния социальных структур на людей.

Однако исследователи признают и риски. Искусственный интеллект может быть использован в преступных целях: для обмана, манипуляций или злоупотреблений, в частности в онлайн-среде. Ведь технологии глубоких фейков уже не раз доказывали свою опасность.

Недавно Life. Факты ICTV рассказывали, какие риски для пользователей несет поиск через ChatGPT.

Если вы увидели ошибку в тексте, пожалуйста, выделите фрагмент текста и нажмите Cntrl + Entr.
Знайшли помилку в тексті?
Помилка