• A
  • A
  • A
  • АБВ
  • АБВ
  • АБВ
  • А
  • А
  • А
  • А
  • А
Обычная версия сайта

Руслан Ибрагимов: ВШЭ идет в авангарде юридической науки в области этики и права в цифровой реальности

Руслан Ибрагимов

Руслан Ибрагимов
Фото: МТС

В прошлом году в НИУ ВШЭ был создан Институт права цифровой среды. О том, какими исследованиями он занимается, о некоторых итогах работы и планах на будущее, а также о правовых проблемах использования искусственного интеллекта новостной службе портала рассказал директор по правовым исследованиям Высшей школы экономики Руслан Ибрагимов.

— Руслан Султанович, когда и с какими целями был создан Институт права цифровой среды?

— Он был основан по решению Ученого совета НИУ ВШЭ в апреле 2020 года после того, как на уровне ректора была проработана и определена концепция института и предварительная программа исследований. К тому времени уже активно работал национальный проект «Цифровая экономика». Среди его задач были разработка регуляторной базы для скорейшей цифровой трансформации российской экономики и подготовка кадров для нее. Эти два направления изначально и были положены в основу работы нашего института.

© iStock

Мы предполагали, что наши исследования могут заинтересовать правительство России, и начали работать, ориентируясь в первую очередь на федеральный проект «Нормативное регулирование цифровой среды» национальной программы «Цифровая экономика», где были зафиксированы акценты государства в области развития регуляторной базы.

Юридическая наука к тому времени была мало вовлечена в сферу цифровой трансформации. Вместе с тем важно было задействовать ее потенциал в реализации национальной программы, обеспечить логичную связь между традиционным и цифровым правом.

— Как исследовательские задачи сочетались с образовательными?

— Мы сразу планировали, что результаты исследований должны быть использованы в обучении студентов. Это сокращает интервал между наукой и образованием. Если мы в НИУ ВШЭ разрабатываем определенные концепции, логично апробировать их и в учебном процессе университета, привлекать студентов к исследовательской работе, обучать их научным методам. Они адаптированы к цифровизации с первых лет учебы и могут быть проводниками родившихся в институте идей в студенческую среду.

В настоящее время мы участвуем в разработке майноров, посвященных основам цифрового права. Разработано несколько учебных программ для факультета права, в проработке еще несколько. Рассчитываем начать преподавание с начала будущего года. Мы уверены, что в ближайшем будущем в экономике возникнет большая потребность в «цифровых» юристах.

— Расскажите об основных направлениях исследований Института права цифровой среды.

— В 2020 году, работая неполный год, мы провели 11 исследований, связанных с цифровой средой. На нынешний год у нас есть план из 16 работ, часть из них выполнены по госзаданию, другие — в рамках текущей деятельности ВШЭ. Работы объединены в несколько блоков.

Первый блок посвящен проблематике правового регулирования искусственного интеллекта (ИИ) и связанной с его использованием деятельности. Второй связан с регулированием больших данных, которые лежат в основе цифровой экономики. Это сейчас очень острая тема. В этом году мы ставим задачу изучить проблемы правового регулирования оборота цифровых данных, в том числе обезличенных. Нынешнее законодательство ограничивает гражданский оборот обезличенных данных, а без него невозможно развитие цифровой экономики. Совершенствование регулирования может способствовать развитию оборота данных. Наша задача — понять барьеры и дать предложения по их устранению.

Третий блок находится на стыке интеллектуальной собственности и искусственного интеллекта.

Четвертый посвящен исследованиям, касающимся прикладного использования ИИ, например в медицине. В частности, мы приступили к изучению проблемы статуса людей с имплантированными киберфизическими системами.

Помимо этого, мы решили заняться вопросами цифровой этики. Искусственный интеллект стремится имитировать поведение человека, и нас волнуют этические основы, заложенные в его работу. Мы создали самостоятельное направление, организовали в институте Лабораторию права и этики цифровой среды. Она будет заниматься вопросами этики и права в цифровой реальности.

ВШЭ, на мой взгляд, идет в авангарде этого направления юридической науки. В ноябре мы планируем провести большую международную конференцию по теме цифровой этики и права, мы хотим показать свои первые наработки и подчеркнуть важность этических правил и норм в системном регулировании искусственного интеллекта и того, что с ним связано.

— Находят ли исследования экспертов института отражение в конкретных нормативно-правовых документах?

— С момента сдачи наших первых результатов прошло чуть больше полугода. Нормотворчество — процесс длительный. Идеи, заложенные в исследованиях, в настоящее время обсуждаются рынком и регуляторами. Мы находимся в диалоге с ведомствами, объясняем свои подходы и выводы и надеемся, что в недалеком будущем они найдут отражение в нормативно-правовой базе.

— Какие наиболее существенные правовые проблемы, на ваш взгляд, порождает расширение применения искусственного интеллекта?

— Основная особенность искусственного интеллекта в недалеком будущем, заставляющая пересматривать подходы, — его автономность. Она ведет к непредсказуемости последствий его применения в разных отраслях нашей жизни, которые могут быть юридически значимыми или находятся в морально-этической плоскости. Для нас важно и то и другое. Я бы выделил три ключевые потенциальные проблемы, которые могут возникнуть вследствие его развития.

Во-первых, это нарушение прав и свобод человека, нарушение неприкосновенности частной жизни, физической и психической неприкосновенности, возможные проявления дискриминации. Некоторые технологии ИИ напрямую касаются этих проблем. Например, вызывает вопросы так называемая система социального скоринга, когда именно ИИ присваивает человеку определенный рейтинг, от которого зависит реализация его прав. Биометрическая идентификация также нуждается в уточнении в плане законодательного регулирования. На этот счет есть разные позиции в Европе, других странах. Дискуссия продолжается, мы будем исследовать эту проблему, мы видим, что без донастройки законодательства не обойтись.

© iStock

Вторая проблема — защита и восстановление прав в случае их нарушения, поскольку пока существует технологическая и юридическая непрозрачность системы искусственного интеллекта. Многим людям неясно, как ИИ принимает решения. Непрозрачность, в том числе порождающая юридические последствия, нарушает права граждан, поэтому нужно информировать людей о порядке принятия решений искусственным интеллектом и о том, как их обжаловать.

И третья ключевая правовая проблема — справедливое распределение ответственности. Существующие правовые механизмы ответственности применительно к системам ИИ не являются оптимальными, они не позволяют оценить их автономность и непредсказуемость.

Мы пока не дошли до применения автономных систем, существующие системы в основном обрабатывают информацию, но мы в полушаге от их появления, поэтому уже сейчас должны анализировать возникающие риски и предлагать решения.

Решение проблемы ответственности является основой доверия людей к искусственному интеллекту. Если нам удастся четко обозначить, как должна определяться ответственность за ущерб, причиненный ИИ, это позволит повысить уровень доверия к подобным системам.

— Можно ли избежать недобросовестного использования систем искусственного интеллекта?

— Этот вопрос актуален и в России, и в мире, поскольку технологический прогресс потенциально может порождать риски нарушения прав человека. Вместе с тем эти системы позволят государству и обществу выйти на новые уровни экономического развития.

Надо правильно использовать опыт, наработанный при регулировании других новых для своего времени технологий, таких как, например, атомная энергетика или воздушные перевозки. Чтобы искусственный интеллект был безопасным, требуется наличие трех ключей: требования технического характера (технические стандарты), нормы превентивного регулирования критически важных сфер; отраслевые правила, учитывающие специфику применения ИИ в тех или иных отраслях с учетом риск-ориентированного подхода; и, наконец, общее нормативно-правовое регулирование, определяющее объем полномочий и ответственности.

— Возвращаясь к теме ответственности: кто все же, на ваш взгляд, должен отвечать за негативные последствия использования искусственного интеллекта?

— Конечно, этот вопрос один из самых важных. Без понимания, как будет распределяться ответственность за причинение ущерба, не будет ни доверия, ни развития. Вопрос ответственности актуализируется в связи с запуском экспериментального правового режима в сфере беспилотного транспорта.

В мире обсуждаются разные подходы. Есть крайние: например, сам искусственный интеллект должен отвечать за причинение ущерба. Большинство же высказывается за то, что ответственность за вред, причиненный ИИ, должен нести человек, субъектом признается физическое или юридическое лицо, а не робот. Мы в настоящее время скорее придерживаемся второй точки зрения, хотя сейчас сложно предсказать, как будет эволюционировать право в отдаленной перспективе.

В любом случае тем, кто использует систему ИИ, можно рекомендовать страховать свою гражданскую ответственность перед третьими лицами.

— Как должны регулироваться авторские права на произведения, созданные с применением искусственного интеллекта?

— Искусственный интеллект широко используется для создания объектов интеллектуальной собственности, начиная с фильмов и завершая изобретениями. Следование этой тенденции может привести к вытеснению человека из творческой сферы, чего не хотелось бы. Пока использование ИИ в данной сфере не афишируется широко, поскольку результат интеллектуальной деятельности охраняется, только если он создан человеком.

Представляется, что необходимо выделить использование ИИ в создании интеллектуальной собственности в отдельную сферу. Следует прямо указать, что результаты интеллектуальной деятельности могут быть созданы с помощью искусственного интеллекта, но с ограниченной продолжительностью действия и меньшим объемом прав на результаты интеллектуальной деятельности, чем у человека по действующему закону. Такие права могут предоставляться физическому лицу, подобно изготовителю программы или базы данных. Тогда и инвестиции в ИИ будут защищены, и человек будет заинтересован в личном участии в творческой деятельности. Это будет способствовать и соблюдению прав потребителя, поскольку его надо будет информировать, как был создан объект интеллектуальной собственности, будь то кино, музыка и т.д.

— Как вы оцениваете принятие Кодекса этики в сфере искусственного интеллекта и его возможное влияние на применение ИИ?

— Мы с коллегами активно участвовали в разработке кодекса на площадке Альянса AI. Считаю, что кодекс играет основополагающую роль в выстраивании комплексной системы регулирования. Так или иначе, положения кодекса найдут свое отражение как в технических стандартах, так и в нормативно-правовом регулировании в области использования ИИ. Именно этические правила будут учитываться в процессе создания правовых норм, как это всегда и происходило в истории права.

— Какие пункты кодекса вы считаете наиболее важными?

— Мне представляется, что после широкого обсуждения проекта кодекса на разных площадках в нем сохранено все, что действительно важно. Тем не менее я бы обратил внимание на раздел, посвященный вопросам практической имплементации принципов кодекса в работу присоединившихся к нему компаний и создания системы, стимулирующей применение его положений участниками рынка.

— Жизнь современного человека трудно представить без социальных сетей. Можно ли сейчас говорить о тайне частной жизни и где, по вашему мнению, начинается ее нарушение?

— По нашим наблюдениям, многие пользователи не задумываются, что бесплатные услуги социальных сетей оплачиваются их временем и вниманием, а значит, важной информацией для рекламодателей. При этом юридическую границу между общедоступной информацией и частной жизнью провести довольно сложно. Некоторые любят демонстрировать, как проводят отпуск, показывать своих животных, другие не хотят это раскрывать, рассказывать о себе и родственниках. Эти границы пользователи вправе устанавливать самостоятельно, а все остальные обязаны уважать такой выбор. В идеале обязанность социальной сети — следить за тем, чтобы личная граница, определенная каждым пользователем самостоятельно, не нарушалась.

Что такое нарушение частной или семейной тайны? Когда речь идет об угрозах жизни, здоровью, о шантаже вне зависимости от применяемых средств, это подлежит наказанию в гражданском или уголовном порядке. Однако одними правовыми методами обозначенную проблему не решить, решение находится на стыке этики и права. Следует последовательно и настойчиво разъяснять пользователям правила гигиены в киберпространстве, в том числе и самим сетям.

Мы видим актуальность этой тематики и запрос общества на правовое изучение подобных проблем. Институт планирует исследовать темы, которые волнуют многих: утечки данных, методы защиты от травли в социальных сетях и т.п.

Институт права цифровой среды и Лаборатория права и этики цифровой среды проводят Всероссийскую научную онлайн-конференцию «Мир людей и машин: этические и правовые аспекты цифровой трансформации». Мероприятие проходит при информационной и организационной поддержке Российского общества «Знание». Узнать подробности и зарегистрироваться можно здесь.