Компания Google разрешила себе использовать ИИ для создания оружия и технологий слежки

Искусственный интеллект. Автор: EBU/ERR
Искусственный интеллект. Автор: EBU/ERR

Компания Google внесла важное изменение в документ, описывающий принципы работы компании с искусственным интеллектом; теперь в нем нет пункта, который запрещает использование подобных технологий для создания оружия или инструментов слежки.

При этом Google не первая компания, которая отказалась от подобных ограничений. Многие конкуренты в сфере ИИ, в том числе OpenAI и Anthropic, уже заявили о планах сотрудничать с оборонным сектором США, пишет Meduza.

Издание The Washington Post обратило внимание на изменения в принципах работы Google с ИИ во вторник, 4 февраля. Журналисты отмечают, что правки внесли недавно. В архивной копии страницы от 30 января ограничения на применение ИИ в определенных сферах все еще присутствуют.

Впервые компания Google представила свои принципы работы с искусственным интеллектом в 2018 году. К этому привел протест сотрудников против сотрудничества с Пентагоном в рамках проекта Maven. Контракт с военными подразумевал использование алгоритмов компьютерного зрения Google для анализа кадров, полученных с дронов.

"Мы считаем, что Google не должен заниматься войной", – говорилось в открытом письме, которое подписали больше 3000 сотрудников компании. Они потребовали немедленно закрыть проект, а также разработать четкую политику использования технологий Google. В частности, руководство должно было гарантировать, что ни сама компания, ни ее подрядчики никогда не будут создавать военные технологии.

В конечном итоге Google отказался от участия в проекте. В опубликованном позже документе помимо целей компании и принципов разработки ИИ-продуктов до недавнего времени был пункт, связанный с ограничениями. В нем указано, что Google не будет разрабатывать искусственный интеллект (или внедрять уже существующие разработки) для четырех областей применения:

Технологии, которые причиняют или могут причинить общий вред.

"Если существует существенный риск нанесения вреда, мы будем действовать только в тех случаях, когда считаем, что преимущества существенно перевешивают риски, и примем соответствующие меры по обеспечению безопасности", – говорится в документе.

Оружие или другие технологии, основная цель или применение которых заключается в причинении вреда людям или непосредственное содействие этому.

Технологии, которые собирают или используют информацию для слежки, нарушая международно признанные нормы.

Технологии, цель которых противоречит общепринятым принципам международного права и прав человека. Сразу после этого блока в документе шла уточняющая фраза: "По мере накопления опыта в этой области список может меняться".

Газета The Washington Post обратилась за комментарием к представителям Google, но в компании отказались отвечать на конкретные вопросы, связанные с использованием ИИ в военных целях. Вместо этого они предложили журналистам ознакомиться с постом в корпоративном блоге, который был опубликован в тот же день. Однако в тексте, авторами которого указаны старший вице-президент Google Джеймс Манийка и сооснователь и гендиректор Google DeepMind Демис Хассабис, нет никакой конкретики.

В главе, посвященной новым принципам работы с ИИ, говорится, что технологии искусственного интеллекта существенно продвинулись, став частью повседневной жизни миллиардов людей. Теперь Google планирует сфокусироваться на трех ключевых направлениях: инновациях, ответственной разработке и внедрении ИИ, а также на совместном прогрессе (подразумевается, что компания создает технологии, которые помогают другим использовать ИИ во благо).

Об отмене ограничений, связанных с использованием искусственного интеллекта, в блоге ничего не сказано. Единственный абзац, который можно считать попыткой косвенно объяснить эти изменения, звучит так: "Глобальная гонка за лидерство в области ИИ происходит в условиях все более сложной геополитической обстановки. Мы считаем, что демократические страны должны лидировать в разработке ИИ, руководствуясь основными ценностями, такими как свобода, равенство и уважение прав человека. Мы также считаем, что компании, правительства и организации, разделяющие эти ценности, должны работать вместе для создания ИИ, который защищает людей, способствует глобальному росту и поддерживает национальную безопасность".

0
15 февраля в 11:40