Svoboda | Graniru | BBC Russia | Golosameriki | Facebook
Тема форума
27 июня 2024, 15:09

Регулирование ИИ: главное из лекции главы Конституционного суда

Регулирование ИИ: главное из лекции главы Конституционного суда
Валерий Зорькин считает, что искусственный интеллект не стоит наделять личными правами. По его словам, ИИ не является носителем важных составляющих личности. Речь идет о душе, свободном сознании и чувствах. Также роботы не имеют имущества, за счет которого можно возместить ущерб. Об этом глава Конституционного суда рассказал в лекции «Право и вызовы искусственного интеллекта», которая прошла в рамках ПМЮФ-2024.

«Я бы сказал, что необходима осторожность», — с этих слов начал лекцию председатель Конституционного суда Валерий Зорькин. Он отметил значимость искусственного интеллекта: без его помощи человечество не справится с обработкой накопленной цифровой информации. Ожидаемо, что «ИИ на полных парах проникает в сферу юриспруденции», отметил Зорькин.

Глава КС предупредил: нельзя забывать, что перед нами иной тип интеллекта. Это разум, который может полностью игнорировать все, что люди считают ценностно важным. Зорькин сослался на слова известного физика Стивена Хокинга. Он считал, что «‎успех в создании ИИ станет крупнейшим событием в истории человечества. Это также может быть последним, если мы не научимся избегать рисков».

При этом, по словам Зорькина, решение проблемы контроля нейросетей осложняется бизнес-гонкой производителей софта, которая может привести к исчезновению мер предосторожности во имя выпуска программы раньше и дешевле конкурентов.

Правовой статус ИИ

В законодательстве России в настоящий момент правовой статус ИИ не определен, но в доктрине на данный счет сформулированы альтернативные подходы. Искусственный интеллект является объектом права, субъектом права по моделям юрлица, особого правового статуса электронного лица и физического лица. 

При этом глава КС отметил, что сейчас все слышнее призывы наделить ИИ личными правами. Например, в докладе о правовых вопросах Европарламента ставится вопрос о наделении самых развитых роботов и искусственного интеллекта особым статусом электронной личности с выбором определенных прав и обязанностей.

Предлагается гарантировать ИИ право на свободу. У Зорькина возникает вопрос: свободу для чего и свободу от чего? 

Личными правами может обладать только личность. И это не тавтология, а непреложная истина. 

Валерий Зорькин, председатель Конституционного суда 

Прежде чем наделять правосубъектностью некую сущность, ставя ее наравне с человеком, стоит вспомнить, что человек — это существо социальное. И его поведение, которое проявляет себя в правоотношениях, формируется той средой, где обитают индивидуумы. Можем ли мы утверждать, что ИИ подобен человеку и обладает неотъемлемым от состояния субъектности в сфере права соответствующим набором практических навыков и стереотипов поведения? Мне кажется, что отрицательный ответ на поставленный вопрос очевиден, сказал Зорькин.

Предложение наделить роботов правосубъектностью несостоятельно и потому, что роботы не имеют обособленного имущества, принадлежащего на каком-то вещном праве, из которого впоследствии можно возместить ущерб. Также робот неспособен самостоятельно отстаивать свои интересы, выступая по регрессному иску потерпевшего.

Нет смысла придумывать для программы наказание, негативные эмоции от которого она не будет переживать. Законодатель поступает верно, не создавая юридическую фикцию в виде нового субъекта права. 

Валерий Зорькин, председатель Конституционного суда 

Искусственный интеллект не является носителем критически важных составляющих личности: души, свободного сознания, чувств, личных интересов — подчеркнул Зорькин. Поэтому, несмотря на сверхмощную скорость обработки информации, в несколько раз превосходящую возможности человека, ИИ остается программой с привязанным к ней материально-техническим обеспечением. По его мнению, предпочтительнее конструировать правовое положение ИИ исходя из обеспечения безусловной безопасности и эффективной ответственности за причиненный при использовании этой технологии ущерб. Оба этих критерия не предполагают за ним самостоятельной деликтоспособности.