Компания Google обновила свои этические принципы в отношении искусственного интеллекта, изъяв из них запрет на использование технологии для оружия и наблюдения.
Ранее компания прямо отмечала, что не будет применять ИИ в сферах, которые, “вероятно, нанесут общий вред”. Этот пункт исчез из обновленных правил.
Почему Google изменил правила
Представитель Google отказался отвечать на конкретные вопросы о политике компании в отношении военных разработок и наблюдения. Вместо этого он сослался на блог гендиректора Google DeepMind Демиса Хассабиса и старшего вице-президента Google Джеймса Маники.
В заявлении отмечается, что пересмотр этических принципов вызван быстрым развитием ИИ и необходимостью сотрудничества между технологическими компаниями демократических стран и их правительствами.
— Происходит глобальная конкуренция за лидерство в области искусственного интеллекта на фоне все более сложной геополитической ситуации. Мы считаем, что именно демократии должны возглавлять развитие ИИ, опираясь на основополагающие ценности — свободу, равенство и уважение к правам человека, — говорится в заявлении.
Ранее Google отличался от других крупных технологических компаний тем, что не сотрудничал с оборонными ведомствами США в сфере ИИ. Однако обновление принципов открывает путь к таким партнерствам.
Соглашения IT-компаний с военными
В прошлом году компания OpenAI, которая разрабатывает ChatGPT, заключила соглашение с производителем военной техники Anduril для разработки технологий для Пентагона. Другой разработчик ИИ, Anthropic, сотрудничает с оборонным подрядчиком Palantir, предоставляя ему доступ к своему чат-боту Claude.
Технологические гиганты Microsoft и Amazon уже давно работают с Пентагоном, а изменения в политике Google приближают его к этому направлению.
— Эта новость свидетельствует о том, что сотрудничество технологического сектора США с Министерством обороны становится более тесным, в том числе и среди ведущих разработчиков ИИ, — отметил профессор политологии Пенсильванского университета Майкл Горовиц.
По его словам, США заинтересованы в использовании искусственного интеллекта для оборонных нужд, и правительство пытается привлечь к этому процессу технологические компании.
Почему Google ввел ограничения
Компания решила ограничить военное использование ИИ в 2018 году после протестов сотрудников компании против контракта с Пентагоном. В рамках проекта Project Maven Google разрабатывал алгоритмы для анализа видео с дронов. Тогда тысячи сотрудников подписали открытое письмо с требованием не использовать технологии компании в военных целях, после чего Google решил не продлевать контракт.
Однако новые изменения политики свидетельствуют о развороте в сторону национальной безопасности США, что совпадает с позицией некоторых других техногигантов. Бывший генеральный директор Google Эрик Шмидт уже несколько лет предупреждает о рисках, связанных с отставанием США в сфере ИИ от Китая.
Изменения в политике Google отражают общие тенденции в Кремниевой долине, где многие компании пересматривают свои предыдущие обязательства по этическому использованию технологий. В начале года компания Meta, которой принадлежат Facebook, Instagram и Threads, объявила о масштабных изменениях в подходе к модерации контента.