• A
  • A
  • A
  • АБВ
  • АБВ
  • АБВ
  • А
  • А
  • А
  • А
  • А
Обычная версия сайта

«Мы пока далеки от мира, где люди живут в гармонии с машинами»

«Мы пока далеки от мира, где люди живут в гармонии с машинами»

© iStock

Применение цифровых технологий должно сочетаться со строгим выполнением этических и правовых норм, которые еще предстоит выработать. Плата за вход в «дивный новый мир» цифры — согласие на предоставление персональных данных. Институт права цифровой среды (ИПЦС) и Лаборатория права и этики цифровой среды НИУ ВШЭ при поддержке общества «Знание» провели Всероссийскую конференцию «Мир людей и машин: этические и правовые аспекты цифровой трансформации».

Арсений Майоров

Открывая пленарное заседание, заведующий лабораторией, заместитель гендиректора общества «Знание» Арсений Майоров выразил надежду, что конференция станет популярной площадкой обсуждения гуманитарных вопросов цифровой среды. Он зачитал приветствия вице-премьера правительства России Дмитрия Чернышенко и генерального директора общества «Знание» Максима Древаля.

Председатель комитета Госдумы по информационной политике, информтехнологиям и связи Александр Хинштейн отметил необходимость выработки этических норм в условиях дополнения реальности цифровой средой, модернизации права и моральных принципов. Интернет должен упростить взаимодействие граждан с властью, стимулировать рост экономики. Также, по его мнению, необходимо устранить цифровое неравенство и обеспечить подавляющее большинство семей устойчивым доступом в интернет.

Руслан Ибрагимов

Директор по правовым исследованиям ВШЭ, руководитель ИПЦС Руслан Ибрагимов подчеркнул, что анализ правовых аспектов цифровой трансформации приводит к изучению этических проблем применения искусственного интеллекта (ИИ). «Мы пока далеки от мира, где люди живут в гармонии с машинами. Но за машинами стоят не тайные силы, а конкретные люди, которые могут нарушать правила, совершать ошибки, работать на благо человека и в корыстных целях. Все это требует детальной проработки этических проблем», — сказал Руслан Ибрагимов.

Научный руководитель ВШЭ Ярослав Кузьминов отметил важность проблем, возникающих на стыке этики и права, этики и технологий. Человечество, полагает он, переходит к гибридной реальности, в которой нельзя видеть только отрицательные эффекты. Человек в виртуальной реальности может снимать эмоциональное и социальное напряжение, создавать новые сферы деятельности, в том числе экономические.

Ярослав Кузьминов

Уже сейчас в США пытаются ограничить работу технологических гигантов и защитить права простых людей от повсеместного проникновения ИИ. Это, по мнению Кузьминова, не случайно: плата за вход в «дивный новый мир» — согласие на предоставление персональных данных в условиях, когда их владельцы не понимают последствий доступа к ним. «Мы редко понимаем, как их собирают, как хранят, это нередко выглядит нечестным договором на несправедливых условиях», — считает Ярослав Кузьминов. Он назвал высокими риски, связанные с недостаточной защитой персональных данных в частных компаниях и государственных сервисах.

Этика должна стать одной из опор борьбы за цифровые права человека

Пока нельзя утвердительно ответить на вопрос, будет ли мир подчиняться этическим нормам. Ученые должны увидеть вектор развития гуманитарного и этического сопровождения технологического роста. «Предмет работ конференции и института — увидеть эти векторы и дать материал для работы нашим специалистам в сфере больших данных, юристам, психологам», — подчеркнул Ярослав Кузьминов.

Он обратил внимание на то, что, сталкиваясь с выросшим объемом информации, люди часто отказываются от ее анализа и осознанного выбора в пользу случайного поиска: «Мы должны говорить о техзаданиях для поисковиков и новостных сервисов, чтобы они представляли не одну позицию. Это дорого, но нам надо готовиться к этому, развивая в гражданах критическое отношение к новостям, которые им навязывают».

Научный руководитель ВШЭ также отметил выросшую конкуренцию в ряде сфер между IT-корпорациями и государствами, причем лишь немногие из них могут бороться с навязыванием цифровыми гигантами своих правил. России в этой ситуации важно соблюдать баланс между защитой суверенитета и сохранением технологических связей.

Татьяна Матвеева

Начальник управления президента по развитию информационно-коммуникационных технологий и инфраструктуры связи Татьяна Матвеева отметила проблему сочетания права и этики с быстрым ростом ИИ. Россия, по ее мнению, — один из лидеров в мире по уровню регулирования цифровой экономики. Государство и дальше намерено совершенствовать нормативное регулирование, двигаясь от стратегических проблем к отраслевым и специальным. «Мы даем возможность бизнесу развиваться в рамках специальных правовых режимов, государство помогает снимать часть правовых барьеров, но приоритетом остаются права граждан, в том числе и защита их персональных данных», — заявила Татьяна Матвеева. Она полагает, что запрос на безопасные технологии ИИ вызван не страхом перед восстанием машин, а конкретными угрозами, связанными с утечкой данных.

Необходимость разработки цифровой этики Татьяна Матвеева подтвердила примером, связанным с созданием цифровых двойников, когда появление образов умерших детей или родителей может повредить психику человека.

При взаимодействии между миром людей и машин приоритет должен сохраняться за людьми, чтобы человек мог отменить решение машины

Декан факультета права ВШЭ Вадим Виноградов отметил, что право и этика должны стать основой цифровой трансформации. Цифровизация в широком ее понимании предполагает преобразование информации в удобную форму, способствующее повышению качества жизни. Важно определить тенденции права, отражающие изменения в экономике и обществе. Появляются новые сферы жизни, требующие правового регулирования: идентификация личности, цифровые финансовые технологии, базы данных и другие реалии цифровой экономики. Необходима также регуляция взаимоотношений, возникающих при применении искусственного интеллекта в частных и государственных сервисах и общественно значимых институтах.

Вадим Виноградов

Цифровая трансформация влечет за собой появление этических проблем, которые трудно разрешить исключительно правовыми методами. Например, они возникают при обработке и анализе персональных данных граждан. Бизнесу они нужны для онлайн-рекламы и торговли, а государству — для принятия управленческих решений и взаимодействия с гражданами. Защита персональных данных важна, но ее чрезмерное регулирование затрудняет работу исследователей с обезличенными данными в таких важных сферах, как здравоохранение или безопасность движения. Этическое регулирование данных пока недостаточно проработано.

По мнению Вадима Виноградова, отсутствие этических обязательств чревато появлением проблем, связанных со скрытой дискриминацией. В России наибольшие риски могут породить автоматизированные системы принятия решений в социальной сфере. Особенно чувствительными будут ошибки вследствие низкого качества инфраструктуры и баз данных. Поэтому, отметил декан факультета права, важно принятие этического кодекса применения ИИ.

В ближайшем будущем, полагает он, повысится влияние общественных институтов, формализующих нормы этики вне госрегулирования.

Частные компании не должны брать на себя роль общественных институтов и подменять их

Ведущий научный сотрудник Центра фундаментальных исследований ВШЭ Сергей Левин отметил, что без философского осмысления ИИ его анализ затруднителен. Он рассказал о нескольких подходах к этике искусственного интеллекта, которые предполагают, что ИИ может быть моральным судьей; агентом, совершающим определенные действия и несущим за них ответственность; и, наконец, «моральным пациентом», о котором должен заботиться человек. Кроме того, если возможности ИИ превзойдут когнитивные способности человека, потребуется особая этика.

Сергей Левин

Сергей Левин подчеркнул, что у ИИ как у морального судьи есть ограничения, вызванные его неспособностью (в отличие от человека) обосновать свой выбор. ИИ основывает свои выводы на агрегировании других суждений и не может сочетать решение с конкретной ситуацией. Поэтому суждение ИИ должно подтверждаться человеком.

Агентность подкрепляется ответственностью за свои решения и возможными санкциями, наказаниями, однако машины и ИИ не могут испытывать боль и страдание и нести ответственность, поэтому могут использоваться как инструмент, но не как автономный субъект.

В пленарном заседании также приняли участие председатель правления Фонда «Сколково» Игорь Дроздов и руководитель секретариата первого заместителя председателя Совета Федерации РФ Алексей Устинов. 

На круглом столе «Кодекс этики в сфере искусственного интеллекта: этико-правовые коллизии в регулировании цифровых технологий» руководитель Центра экспертизы по реализации федерального проекта «Искусственный интеллект» Сергей Наквасин представил доклад «Поиск баланса интересов: соблюдение прав человека в процессе развития технологий ИИ». Заместитель директора ИПЦС факультета права ВШЭ Михаил Якушев выступил с сообщением «Этика технологии и технология этики», а руководитель Школы философии и культурологии факультета гуманитарных наук ВШЭ Анастасия Углева рассказала о национальном этическом кодексе «как отражении реальности и как принципе долженствования». Заведующий Лабораторией нейронных систем и глубокого обучения МФТИ Михаил Бурцев сделал доклад о практике применения этических норм в разговорных ассистентах. 

Модератором круглого стола выступил Руслан Ибрагимов. В его работе также участвовали управляющий директор Центра регулирования ИИ Сбера Андрей Незнамов и председатель комиссии по правовому обеспечению цифровой экономики московского отделения Ассоциации юристов России Александр Журавлев.

Работа конференции продолжилась также в тематических секциях.

Вам также может быть интересно:

В России при участии ВШЭ разработан и подписан Кодекс этики искусственного интеллекта

Ректор НИУ ВШЭ Никита Анисимов, а также руководители других ведущих университетов страны и технологических компаний подписали Национальный кодекс этики искусственного интеллекта. В разработке документа приняли участие эксперты Вышки. Презентация кодекса и церемония подписания состоялись на I Международном форуме «Этика искусственного интеллекта: начало доверия».

ВШЭ получила грант правительства РФ на создание Исследовательского центра в сфере искусственного интеллекта

Завершился отбор исследовательских центров, которые получат гранты в рамках федерального проекта «Искусственный интеллект». В число победителей вошел НИУ ВШЭ. Среди целей центра — разработка новых технологий ИИ, позволяющих расширить области его применения, преодолеть существующие ограничения для решения прикладных задач и оптимизировать модели ИИ.

«Плохо обученный искусственный интеллект опаснее восстания машин»

При нынешнем уровне развития искусственного интеллекта (ИИ) человечеству не грозит восстание машин. Более актуальной угрозой представляется применение недостаточно обученного ИИ в жизненно важных сферах, а также попытки его использования для того, чтобы поставить под контроль жизнь человека. Об этом шла речь на семинаре «Угрозы, которых мы не ожидали от искусственного интеллекта», проведенном Научно-учебной лаборатории трансцендентальной философии ВШЭ.

Эксперты Вышки просчитали риски цифровизации

Подавляющее большинство российских граждан — 85% — не готовы доверить принятие решений искусственному интеллекту, говорится в докладе Центра исследований гражданского общества и некоммерческого сектора НИУ ВШЭ. Соответствующее исследование он провел для Совета при Президенте РФ по развитию гражданского общества и правам человека (СПЧ). Чтобы минимизировать риски, нужна новая модель правового регулирования, говорится в исследовании.

Права человека: как предотвратить вытеснение людей из сферы творчества

Искусственный интеллект составляет реальную конкуренцию человеку в создании результатов интеллектуальной деятельности. Массовое использование ИИ приводит к тому, что права автора-человека защищать все труднее. Необходимо корректировать законодательство, уверены эксперты Института права цифровой среды ВШЭ, подготовившие доклад «Проблема машинного творчества в системе права: регулирование создания и использования результатов интеллектуальной деятельности с применением искусственного интеллекта. Зарубежный опыт и российские перспективы».

Эксперты Вышки разобрались, кто должен нести ответственность за действия искусственного интеллекта

Искусственный интеллект (ИИ) вскоре может стать участником принятия юридически значимых решений, система ИИ фактически будет наделена властью, считают эксперты Института права цифровой среды НИУ ВШЭ. Поэтому должен быть решен вопрос о порядке ответственности в случае «автоматизированного принятия решения». О том, должны ли отвечать за действия системы ее разработчики и какие меры государство может принять для развития инвестпроектов в сфере ИИ, эксперты рассказали в специальном докладе.

Россия и Москва в гонке за искусственный интеллект

За последние пять лет Россия вышла на 17-е место среди топ-30 стран по числу публикаций в области искусственного интеллекта и демонстрирует темпы роста публикационной активности выше среднемировых. При сохранении текущих темпов роста Россия может достичь 7 места к 2025 г., а к концу 2030 г. — будет уступать только Индии, Китаю и США. Об этом говорится в исследовании ИСИЭЗ НИУ ВШЭ.

Эксперты Вышки зададут стандарт искусственному интеллекту

Высшая школа экономики по заказу Федерального агентства по технологическому регулированию и метрологии разработает российские стандарты создания и применения искусственного интеллекта (ИИ) в сетях связи, системах аналитики, нейронных сетях, системах госуслуг, для контроля оборота алкоголя и в других сферах. Об этом проекте и о том, зачем и как нужно стандартизировать ИИ, новостной службе портала рассказал директор по научным проектам НИУ ВШЭ, председатель национального технического комитета по стандартизации ТК164 «Искусственный интеллект» Сергей Гарбук.

Восемь вопросов к искусственному интеллекту

Словосочетания «нейронные сети», «машинное обучение», «искусственный интеллект» звучат все чаще и чаще. Их произносят Владимир Путин и Максим Кац. Профессию специалиста по анализу данных называют одной из самых востребованных сейчас и в ближайшем будущем. Но вокруг темы искусственного интеллекта существует большое количество мифов и заблуждений. Ответы на наиболее популярные вопросы об искусственном интеллекте (ИИ) VTimes дает Дмитрий Ветров, профессор-исследователь НИУ ВШЭ.

«Идешь и чувство гордости возникает»: Герман Греф познакомился с Покровкой и преподавателями

Председатель Попечительского совета НИУ ВШЭ – президент и председатель правления Сбербанка – Герман Греф посетил новый кампус Вышки на Покровском бульваре. Он встретился с молодыми учеными факультета экономических наук и факультета компьютерных наук, а ректор Ярослав Кузьминов провел для гостя экскурсию по Покровке.