Угрозы от внедрения искусственного интеллекта превышают пользу. Любые инициативы по регулированию ИИ наталкиваются на интересы заказчиков нейросетей и вступают с ними в противоречие. Но выход должен быть найден.
Искусственный интеллект (ИИ) и машинное обучение могут внести серьёзный вклад в решение некоторых из самых трудноразрешимых проблем нашего времени — от создания совершенного и дешевого лекарства от самых тяжёлых болезней до управления экономикой. Но пока мы являемся свидетелями тому, как наравне с пользой они способны причинить вред. И дело не в несовершенстве технологии, а в направлении, по которому движется её развитие.
Сегодня массивные наборы данных, из которых программируются алгоритмы для распознавания закономерностей, используются для прогнозирования поведения людей и управления ими. Всё чаще ИИ и машинное обучение используются для замены человеческих решений автоматизированным принятием решений от имени людей. Это происходит в сферах, которые могут существенно повлиять на жизнь людей — в банках или визовых центрах, в медицинских и образовательных учреждениях.
Вычисления нейронных сетей происходят в так называемом «черном ящике», к которому может не иметь доступа даже заказчик алгоритма. Самые большие наборы данных и алгоритмическая активность генерируются глобальными социальными сетями, которые отслеживают каждое наше действие в сети Интернет. Эти наборы данных используются для прогнозирования и формирования наших потребностей и управления нашими желаниями крупными торговыми компаниями, международными консалтинговыми агентствами и банками развития — якобы для ускорения экономического роста. Но рост, особенно в экономически развитых странах, так и не происходит.
ИИ используется в процессе принятия государственных решений, планирования и распределения ресурсов, но такие системы не предполагают динамику и наличие обратной связи, то есть носят односторонний, директивный (и здесь директива исходит не от человека, а от машины) характер.
Можно выделить несколько бросающихся в глаза угроз использования ИИ в перечисленных направлениях.
Всё более широкое использование ИИ при принятии государственных решений и оказании государственных услуг поднимает важные вопросы, касающиеся справедливости и прав человека. Индикатором важности проблемы является то, как производятся цифровые данные. В самих наборах данных есть неточности и пробелы. Тот факт, что большая часть населения мира не подключена к Интернету и глобальным социальным сетям, которые стимулируют новую экономику и создают «новую нормальность», основанную на данных, означает, что для принятия решений и оказания услуг на уровне государства их просто не существует.
Кроме того, системы ИИ не подлежат подотчетности и регулированию, необходимому для снижения рисков, которые они представляют для общества.
Использование ИИ на промышленных предприятиях приводит к тому, что автоматизация вытесняет низкоквалифицированные кадры с заводов и фабрик.
Пострадать могут не только синие воротнички, но и работники умственного труда — от офисных клерков до учителей и врачей.
Сюда стоит добавить отсутствие субъектности права у ИИ. Нейросеть не понесет ответственность за сбивший человека беспилотник или за неверный диагноз и протокол лечения, созданный ИИ.
Эти угрозы настолько значительны, что появилось несколько международных форумов, декларирующих необходимость создания «хорошего», «этичного» и «ответственного» ИИ. Но большинство инициатив представляют собой технические решения социальных и политических проблем. Это означает, что они разрабатываются вне рамок прав человека и вне человеческого сознания.
Из факта наличия человеческого сознания вытекает право людей на частную жизнь и персональные данные, которые человек может держать в тайне от остальных. Но машинные алгоритмы нарушают эти права, так как при их внедрении заказчики систем с ИИ частенько руководствуются «общим благом» или «общими интересами». Иногда в качестве аргумента преподносится удобство пользователя и необратимость цифровой революции.
В какой-то момент международное сообщество и отдельные страны начали откликаться на глобальный призыв к созданию ответственного искусственного интеллекта. В 2019 году 42 страны подписали принципы развития ИИ в ОЭСР.
Совсем недавно ЮНЕСКО разработала Рекомендации по этике в области ИИ, которые были приняты на 41-й Генеральной Ассамблее ООН. Рекомендации сосредоточены на защите основных прав и свобод, экологической устойчивости и разнообразии.
Некоторые специалисты говорят о том, что потенциальный вред от систем ИИ можно уменьшить за счёт грамотного управления данными, включив в него защиту права людей или введя обязательные требования к защите данных и кибербезопасности и штрафах за их нарушения. Но часто права людей противоречат целям и задачам заказчиков нейросетей.
Тогда решение может быть найдено в разработке кибернетических систем с моментальной обратной связью от объекта воздействия, что означает прямой контроль общества над созданием и внедрением цифровых технологий.
Но тогда мы получим совершенно другой социально-экономический базис.
Готовы ли мы к нему?
Автор: Ангелина Потеряйко для ИА РЕГНУМ