Какие международные правовые документы могут иллюстрировать тенденцию регулирования

Обновлено: 17.05.2024


Данный принцип и ИИ тесно взаимосвязаны друг с другом как явления, составляющие информационную картину сегодняшней реальности на международном и национальном уровнях.

Во многом оправдан подход международного правового регулирования в форме стратегий, резолюций и прочих документов, так как именно в таком формате возможно более детальное описание ИИ в различных сферах жизни и выведение норм soft law.

Концепции ИИ: теоретические и прикладные вопросы


Многие исследователи утверждают, что методология ИИ основывается на декартовской теории, а именно — ее положениях о разделении разума и физического мира. Кроме того, в теории Декарта отмечается, что сущность идей о мире не обязательно соответствует изучаемому предмету [1]. Основываясь на этих положениях, исследователи приходят к выводу, что ментальные процессы существуют сами по себе и опираются на собственные законы. Соответственно по такому же принципу должен функционировать и ИИ, как и должны быть выработаны технические правила, на основе которых будет работать ИИ.

Сегодня совершаются попытки дать характеристику, оценку и определение ИИ. Компания PWC дает весьма емкое определение, которое заключается в том, что под ИИ понимается собирательный термин, охватывающий множество умных технологий, которые объединяет способность к самообучению.

В настоящее время накапливаются и систематизируются знания о построении ИИ, и объектом изучения выступают нейронные сети и машинное обучение. Фундаментальным проектом, отражающим данные подходы в здравоохранении, является IBM Watson. Изначально IBM Watson стали обучать и затем применять в онкологической сфере, а уже в наши дни система позволяет ставить точный диагноз. Далее IBM объявила о создании программного обеспечения Avicenna, которое смогло бы считывать и анализировать медицинские снимки. Кроме того, существуют и проекты, целью которых является анализ сотни снимков на предмет отклонений от нормы.

Подходы к определению ИИ можно разделить на теоретический и прикладной. Оба подхода уместны при разработке правовой базы регулирования. Однако здесь следует понимать, что конечной целью продукта ИИ является полностью самостоятельная машина, способная принимать те или иные решения. Человечество не изобрело автономное ИИ. Вышеназванный аспект следует учитывать при формировании тех или иных политико-правовых документов в той степени, в какой имеются риск-факторы (технические и иные).

Концепция ИИ компании DAPRA

Компания Defense Advanced Research Projects Agency (DARPA) — агентство перспективных оборонных исследовательских проектов при Министерстве обороны США. В сферу интересов DARPA входят и проекты ИИ. Данная компания выделяет три направления ИИ [2]:

На наш взгляд, именно агентство DARPA рассматривает ИИ наиболее объективно. При этом создателями документа делается акцент на развитие трех направлений ИИ и сферы, в которых будут развиваться данные направления.

Хотя концепция DARPA нам кажется наиболее глубокой и логически связанной с сегодняшней ситуацией в сфере развития ИИ, данные технологии не изучены в части функциональных возможностей и определения нравственных, правовых и организационных пределов.

На наш взгляд, концептуально искусственный интеллект можно подразделять на несколько содержательных направлений:

  1. техническое направление;
  2. бизнес-направление (использование ИИ в целях аналитики бизнес- процессов;
  3. правовое направление (политико-правовой и юридический).

Далее, в статье мы рассмотрим именно правовое направление, которое заключается в регулирование ИИ и его пределах.

Опыт Европейского союза по правовому регулированию ИИ


На данном документе регулирование вопросов ИИ не заканчивается, 19 февраля 2020 г. Европейская комиссия издала Белую книгу, в которой акцент смещается на создание экосистемы ИИ. ЕК на базе данного документа планирует пересмотреть и принять обновленный скоординированный план по регулированию и развитию ИИ к концу 2020 г.

По мнению авторов документа, подобная инициатива существенно повлияет на качество потребительского рынка, социальных услуг, обеспечение безопасности. В Белой книге выделены следующие пункты в сфере нормативных мероприятий в области ИИ:

  • создание ключевых инновационных и научных центров в области ИИ и выработка их стратегических положений;
  • содействие внедрению ИИ в государственный сектор. Европейская комиссия инициирует открытые и прозрачные отраслевые диалоги, отдавая приоритет в здравоохранении и т.д.;
  • создание этических принципов, а также разработка рекомендаций по ИИ.

В данном документе широко обозначено направление в нормативно-правовом регулировании, которое подразумевает устранение возможных рисков появления ИИ (имеется ввиду полностью автономного ИИ).

Если говорить о правовой неопределенности в части ИИ через призму рисков, следует отметить, что регламентированное правовое отражение каждого риска может снизить общий уровень безопасности и подорвать конкурентоспособность европейских компаний. Это будет наглядно наблюдаться через последующие правовые ограничения в связи с подробной регламентацией рисков.

Наиболее важной задачей законодательной базы ЕС является ее применимость в сфере ИИ. Белой книге подчеркивается, что необходима адекватная оценка законодательной базы и ее применимости. Отмечается изменение в концепции безопасности. Дело в том, что использование ИИ в продуктах и услугах порождает массу рисков, что создает необходимость правового регулирования данного направления (например, создание стандартов, связанных с новыми приложениями ИИ).


В дополнение отметим, что аргументы в отношении нормативно-правового регулирования ИИ подкреплены отчетом о последствиях использования ИИ, интернета вещей и робототехники. В отчете подробно анализируется соответствующая нормативно-правовая база.

Исходя из анализа Белой книги, можно сделать вывод, что проблемы правового регулирования ИИ должны решаться не только на уровне нормативных актов, но и рассмотрения сущности ИИ, его перспектив использования на рынках (например, проблема автономных систем ИИ). Также важно достигнуть согласия в правовых вопросах регулирования ИИ (исходя из сущности ИИ), границ его развития, динамики внедрения в другие производства.

После издания Белой книги на уровне Европейского союза была проведена консультативная работа с общественностью. В ходе данной работы, все государства — члены ЕС и соответствующие заинтересованные стороны (включая гражданское общество, промышленность и академические круги) были приглашены принять участие в консультациях.

Вышеназванное мероприятие позволило получить соответствующий опыт для дальнейшего совершенствования законодательства.

Европейский союз исследует ИИ в рамках проекта Horizon 2020. Данный проект позволяет исследовать ИИ в рамках следующих векторов развития:

Данные блоки характеризуют не общее отношение Европейского союза к развитию ИИ, а указывают на конкретные проблемы, которые могут стать сложностью в развитие экосистемы ИИ и правовой базы в этой сфере. Условно можно выделить следующие трудности в правоприменении условий, сформулированных ЕК:

  • вопросы ответственности. Пока не совсем ясна схема ответственности органов власти за работу ИИ и как это будет аргументироваться в части доказательственной базы;
  • противоречивость положений друг другу. Кроме того, стоит упомянуть, что есть скрытое противоречие между вышеназванным блоком и блоком по развитию ИИ в целом, где последний призван развивать ИИ с учетом всего спектра человеческих способностей. Речь идет о создании вполне автономной системы, обладающей человеческими способностями в принятии решений, и причинно-следственная связь ввиду этого не раскрыта;
  • система прозрачности носит неопределенный характер, т.е. не совсем понятно, как будут фильтроваться решения ИИ.


ЕК сделала важные правовые попытки, но они не содержат конкретных действий в организационной и правовой сфере (например, технические регламенты, дополнительные стратегии, директивы).

Подобный опыт международного правового регулирования ИИ воспринимается двояко. С одной стороны, использование опыта Белой книги помогает обозначить весь спектр вопросов ИИ (в т.ч. кибербезопасности). С другой стороны, международное правовое регулирование не исчерпывается данными документами. Мы полагаем, что детальная проработка блоков, которые обозначает ЕК, необходима для исключения их противоречивости.

  1. разработка и использование систем ИИ в соответствии с этическими принципами: уважение к человеку, автономность ИИ (допустимые пределы, которые будут постепенно определяться и прорабатываться), предупреждение правонарушений, объяснимость процессов ИИ. В направлении указывается на устранение противоречий между принципами;
  2. внимание к уязвимым группам, таким как инвалиды и дети, которые наиболее подвержены риск-фактору со стороны новых технологий (ИИ);
  3. внимание к рискам системы ИИ, которые сложно прогнозировать (в этой связи следует обратить внимание на правовые меры, которые могут быть приняты);
  4. разработка, развертывание и использование систем ИИ должны отвечать следующим требованиям: контроль специальных функций ИИ человеком (надзор); техническая надежность и безопасность; конфиденциальность; прозрачность; разнообразие, недискриминация и справедливость; экологическое и социальное благополучие; ответственность;
  5. рекомендации Группы по ИИ должны быть имплементированы в национальное законодательство других государств.

Следует отметить, что вышеназванная модель правового регулирования, избранная ЕС, имеет ряд преимуществ:

  1. стратегии и рекомендации позволяют оперативно реагировать на динамику ИИ и его возможности, в соответствии с чем постоянно подвергать изменениям правовую материю в рамках ЕС и государств-членов;
  2. Декларация о сотрудничестве в сфере ИИ не предполагает каких-то рамочных определений и формулировок, что позволяет дорабатывать отдельные вопросы в выше проанализированных документах.
  • требуется различать основания дискриминации, которые закрепляются в законодательстве;
  • администрирование IP и управление сетью.


Приоритетом является использование ИИ и его совершенствование до уровня автономности. Данная задача остается реальной, как было отмечено в национальных стратегических документах США и весьма косвенно в документах ИИ. Это создает определенные риск-факторы в правовой сфере в свете реализации сетевой нейтральности.

Исходя из проведенного анализа, следует отметить перспективы правового регулирования данных явлений. Важно отметить, что если подходить к данному вопросу методологически и теоретически через призму формирующейся подотрасли права международной информационной кибербезопасности, то можно вычленить следующие аспекты:

Международное правовое регулирование на уровне ЕС разрабатывается на каждом уровне отдельно (по ИИ и по сети «Интернет), на универсальном уровне, к сожалению, нет базы для правового регулирования.

Для решения вышеназванных вопросов во многом оправдан подход международного правового регулирования в форме стратегий, резолюций и прочих документов, так как именно в таком формате возможно более детальное описание ИИ в различных сферах жизни и выведение норм soft law.

Читайте также: