Svoboda | Graniru | BBC Russia | Golosameriki | Facebook
Перейти к основному контенту
Дискуссионный клуб ,  
0 
Андрей Незнамов

Цифровое бессмертие: зачем мораль искусственному интеллекту

Фото: Johannes Simon / Getty Images
Фото: Johannes Simon / Getty Images

Искусственный интеллект в последнее время не просто модный тренд. Это умный инструмент для государств, корпораций и небольших стартапов, целых сообществ и отдельных людей. Благодаря ИИ стремительно улучшается жизнь граждан. Жители мегаполисов взаимодействуют с системами «умных» технологий каждый день. А для бизнеса ИИ, кажется, уже стал знаком символа успеха.

Так, согласно исследованию, 98% лидеров бизнеса согласны с тем, что компаниям необходимо лучше понимать потенциал технологий искусственного интеллекта и машинного обучения для достижения долгосрочного успеха.

По данным Национального центра развития ИИ при правительстве, сегодня около 53% крупных компаний используют ИИ в своей деятельности. Государство поддерживает разработчиков: так, по федеральному проекту «Искусственный интеллект» национального проекта «Цифровая экономика» профинансировано уже более 800 проектов.

Но чем глубже проникает технология в жизнь, тем больше возникает социальных, философских, моральных и правовых вопросов, связанных с ее применением. Встраивание ИИ в разные сферы жизни и экономики по скорости и масштабу напоминает цунами. И все же этот поток можно условно разделить на три волны.

В первой, самой близкой волне — применение технологии в отдельных сферах. Именно такие кейсы мы чаще всего наблюдаем в медийном поле. Например, в начале августа в одной из стран мира регулятор заключил мировое соглашение с компанией, которая использовала для найма ИИ, который автоматически отклонял кандидатов-женщин старше 55 лет и кандидатов-мужчин старше 60 лет. Ранее IBM ограничила распространение технологии видеонаблюдения в связи с потенциальной возможностью ее использования не по назначению.

И, конечно, огромное количество этических вопросов подняло распространение ChatGPT и подобных моделей. Какую оценку система дает происходящим или прошедшим событиям, персонам или фактам? Какие подсказки она вправе давать, а какие нет? И как GPT-модели справляются с выполнением профессиональных обязанностей — перечень вопросов кажется бесконечным.

За первой волной высится значительно более высокая волна общего характера, редко описываемая одним-двумя кейсами. Например, к ней относится вопрос влияний новых технологий на рынок труда. Различные исследователи приводят самые разные оценки о количестве рабочих мест, которые будут созданы или трансформированы из-за применения ИИ.

В этой же волне находится глобальная проблема условий использования персональных данных и защита конфиденциальности в информационном обществе. Как действовать людям, бизнесу и регулятору в условиях беспрецедентного накопления огромных объемов данных, в том числе и персонального характера?

Ведутся и дискуссии об использовании новых технологий в образовательных процессах. Вероятно, вы читаете эти слова на смартфоне или планшете. Эти гаджеты с нами меньше пары десятков лет, и мы вряд ли можем уверенно сказать, как они на нас повлияли. Большое видится на расстоянии, а мы в начале пути.

Все это требует ответов. А выражается в запросе общества на надежный искусственный интеллект. И он неизменно связан с этикой.

Так, 85% потребителей говорят, что организациям важно учитывать этические аспекты, поскольку они используют ИИ для решения проблем общества. Аналогичным образом 75% руководителей считали этику искусственного интеллекта важной уже в 2021 году — по сравнению с менее чем 50% респондентов в 2018 году.

Почему же этика в сфере ИИ стала ответом на все вопросы? В современном мире под этикой искусственного интеллекта понимаются одновременно механизмы саморегулирования разработчиков в виде корпоративных норм и стандартов, инструменты взаимодействия регулятора с бизнесом и обществом по вопросам развития новых технологий. Собственно набор нравственных дилемм, возникающих у людей с развитием ИИ, прообразы будущего государственного регулирования новых технологий в виде самых разных инструментов «мягкого права», а также потенциальная этика самих систем ИИ — например, AGI. В тех случаях, если искусственный интеллект станет таким, что будет способен иметь свои этические представления.

В реальности именно этика ИИ стала единственным быстрым ответом на существующие волны вопросов.

Возникли вопросы применения новых технологий в бизнесе — и вот три десятка мировых разработчиков принимают корпоративные нормы этичного развития ИИ. Они не только про этику — и про безопасность, и про сотрудничество, и про корпоративное управление. Появляются этические декларации, хартии, петиции и открытые письма.

Разработчики вместе с наукой под руководством государства создают этический кодекс. Мир увидел на горизонте что-то похожее на AGI — универсальный ИИ, способный «думать» на человеческом уровне, и эксперты стали рассуждать на тему личной этики будущего сверхразума.

Российский опыт стал одним из самых показательных. Во-первых, у крупных российских разработчиков действуют корпоративные нормы этики ИИ. Во-вторых, создан национальный Кодекс этики в сфере ИИ. В-третьих, в рамках кодекса созданы реальные механизмы управления на базе Альянса в сфере ИИ и взаимодействия разработчиков, науки, представителей общественных организаций между собой и с государством. Так, одна из рабочих групп ищет ответы на вопросы этичности механизмов цифрового бессмертия. А другая группа в диалоге с регулятором — баланс между правовым регулированием и саморегулированием рекомендательных сервисов.

Таким образом, формируется системная этика ИИ, которая включает в себя огромный пласт разноплановых вопросов и решений. Но объединяет их всех одно: стремление создать эффективные инструменты для успешного взаимодействия человека и умных технологий.

Об авторе
Андрей Незнамов Андрей Незнамов председатель Национальной комиссии по этике ИИ
Точка зрения авторов, статьи которых публикуются в разделе «Мнения», может не совпадать с мнением редакции.
Теги
Прямой эфир
Ошибка воспроизведения видео. Пожалуйста, обновите ваш браузер.
Лента новостей
Курс евро на 27 апреля
EUR ЦБ: 98,72 (+0,01)
Инвестиции, 26 апр, 16:31
Курс доллара на 27 апреля
USD ЦБ: 92,01 (-0,12)
Инвестиции, 26 апр, 16:31
Фигурант дела замминистра обороны Иванова обжаловал свой арест Политика, 20:40
Экс-подчиненного замминистра обороны арестовали за особо крупную растрату Политика, 20:37
Must-have в e-commerce: опыт крупных брендов РБК и Яндекс Реклама, 20:36
Шольц в вопросе ракет TAURUS отказался доверять Украине Политика, 20:31
МИД ответил на данные об отказе во въезде в Россию гражданам Таджикистана Политика, 20:14
Гимн России прервался во время церемонии награждения на ЧЕ в Белграде Спорт, 20:14
Осужденному в Киргизии участнику спецоперации дадут убежище в России Политика, 20:11
Тайм-менеджмент: как больше успевать
За 5 дней вы пересмотрите свой подход к планированию и научитесь разным инструментам тайм-менеджмента
Подробнее
Руководство РФС отказалось от приглашения на финал ЛЧ ради Кубка России Спорт, 20:06
МИД Таджикистана рекомендовал гражданам не ездить в Россию Политика, 19:57
Путин поздравил доктора Рошаля с днем рождения Общество, 19:55
В Петербурге загорелся трамвай Общество, 19:54
Участники «Иннопрома-2024» подвели итоги работы делегации из Башкирии Отрасли, 19:46
СК завел второе уголовное дело после стрельбы в полицейского в Петербурге Общество, 19:44
Акции ЛУКОЙЛа на Мосбирже впервые в истории стали стоить дороже ₽8 тыс. Инвестиции, 19:37