> Искусственный интеллект и этика - Аргументы Недели. Челябинск

//Общество 13+

Искусственный интеллект и этика

12 октября 2021, 10:32 [ «Аргументы Недели. Челябинск» ]

С позиций антропоцентризма считается, что именно человек, а не робот выступает центром Вселенной. При этом вполне очевидно, что иногда поведение этого человека не поддается разумному толкованию. Более того, наиболее смелые даже утверждают, что некоторое разумное поведение вообще не присуще человеку. Тем не менее эти якобы неразумные люди уже вплотную подошли к решению амбициозной задачи по созданию ими искусственного интеллекта.

И три закона робототехники, обязательные правила поведения для роботов, впервые сформулированные Айзеком Азимовым в рассказе «Хоровод» в далеком 1942 году, уже перестали быть фантастикой.


Этика как мягкое принуждение

Более того, в «Национальной стратегии развития искусственного интеллекта на период до 2030 года» и соответствующем указе президента РФ отмечено, что в «целях аналитической поддержки стратегии уже проводятся научные исследования, направленные на прогнозирование этических аспектов использования технологий искусственного интеллекта». И более того, результаты таких исследований должны учитываться при принятии управленческих решений. Прокомментировать эти необычные новации мы попросили адвоката, председателя Челябинской коллегии адвокатов «Экономическая» Андрея Коршунова:

— Андрей Геннадьевич, переход к так называемому сильному искусственному интеллекту вполне возможен уже в ближайшем будущем. И несомненно, что рамки его применения будут распространяться на сложные для этического анализа сферы, например на военную. Насколько в такой ситуации разработка определенных этических норм по созданию и использованию искусственного интеллекта действительно выступает необходимостью? Управление и этика — для нас это что-то новое…

— Согласно опросу ВЦИОМ, сегодня почти половина россиян доверяет искусственному интеллекту, при этом, правда, треть россиян опасается, что искусственный разум может заменить человека в сфере их деятельности, а 67% опрошенных, готовы пользоваться компьютерным разумом, чтобы меньше работать, при сохранении существующего уровня их дохода.


— Для большинства искусственный интеллект все еще не выходит за рамки привлекательных услуг и товаров, предлагаемых интернет-магазинами. А в соцсетях компьютер потихоньку формирует пользователю ленту, которая показывает ему те сообщения, которые, как ей кажется, наиболее приятны и интересны конкретному человеку.

— Но многих людей вот этот подход все еще пугает, когда пользователю кажется, что кто-то знает о нем больше, чем знает он сам о себе. А другие люди считают это навязыванием им определенных товаров, определенных ценностей, созданием некоей иллюзии, принятием чужого решения за этого человека, И раздаются, соответственно, призывы: это всё надо запретить, чтобы каждый мог сам принимать решения без каких-то подсказок извне и проявлений даже таких ничтожных по существу проявлений искусственного интеллекта.

Этический кодекс — на страже

В связи с этим в последнее время бурно обсуждается так называемый кодекс этики в сфере искусственного интеллекта. Этот проект сегодня разрабатывает межотраслевой альянс в сфере искусственного интеллекта, совместно с аналитическим центром при правительстве Российской Федерации и с Минэкономразвитием.

Коротко напомню историю вопроса. Существует по линии указов президента 490-й указ президента о развитии искусственного интеллекта. Имеется и так называемая национальная стратегия развития искусственного интеллекта на период до 2030 года. Это такой программный документ, в котором в целях развития этой стратегии проводятся различные научные исследования, направленные на прогнозирование в том числе и этических аспектов использования технологий искусственного интеллекта. И в соответствии с этой стратегией результаты этих исследований должны обязательно учитываться при принятии управленческих решений в сфере искусственного интеллекта…

— А другим важным документом, регламентирующим необходимость регулирования этических аспектов применения, является концепция развития регулирования отношений в сфере технологий искусственного интеллекта и робототехники на период до 2024 года. Это уже акт по линии исполнительной власти. И в этом распоряжении правительства также идет речь о формировании кодексов, этических правил разработки внедрения и применения технологий искусственного интеллекта.

— И в рамках указа президента и постановления правительства действительно было принято решение разработать национальный кодекс этики. Что он из себя представляет, пока не вполне понятно. Его еще не обработали, его только еще обсуждают, в окончательном виде его планируется представить общественности только в конце октября этого года.

Умные машины — для умных людей

Что такое искусственный интеллект? Национальная стратегия определяет его как комплекс технологических решений, позволяющих имитировать когнитивные функции человека и получать при выполнении конкретных задач результаты, сопоставимые как минимум с результатами интеллектуальной деятельности…
А если говорить простыми словами, сюда обычно относят самообучающиеся программы, поиск решений без заранее заданного алгоритма.

— А для чего предполагается использовать этот кодекс?

— Ну, во-первых, уже в самой концепции развития имеются упоминания о том, что развитие искусственного интеллекта должно основываться на базовых этических нормах.
И документ относит к этому прежде всего приоритет благополучия и безопасности человека, защиты его основополагающих прав и свобод подконтрольность человека человеку, проектируемое соответствие закону и недопущение противоправной манипуляции…
Есть такое мнение, что машины способны восстать; они действительно могут чему-то научиться и, возможно, выйти из-под контроля.
Кроме того, есть еще один момент: в любом случае этот алгоритм, даже самообучающийся алгоритм, всё равно содержит некоторые пределы, потому что он разрабатывается все-таки человеком…


Кодекс, без принуждения

Сегодня все эксперты отмечают, что пока все примеры разрабатываемых базовых этических норм носят достаточно расплывчатые формулировки, и определенные затруднения могут возникнуть в связи с тем, каким же образом следует вот эти вот неопределенные этические требования принять.
Потому что любые подобные нормы — регулятивные, в том числе и этические. И они всегда возникают только в социуме и всегда регулируют отношения между людьми. И что для одного будет хорошо, для другого будет, вполне возможно, плохо.


— К тому же, как учили нас классики марксизма-ленинизма, каждый класс обязательно использует этические нормы для укрепления своих позиций, для манипуляции в отношении представителей другого класса.

— Согласен с вами. По большому счету если взять всю историю человечества, то все эти этические нормы можно, в общем-то, свести к одной норме, которая записана еще в древнейших книгах: не делай другому того, чего не желаешь себе. Вот это, наверное, одна из фундаментальных этических норм, про которую вполне можно говорить, что она не содержит никакой классовой примеси и торчащих ушей манипуляции одного класса другим.

И потом, всё это этическое всегда достаточно спорно. Тем более если это не закреплено на уровне закона. Поэтому для регулирования, для социального, здесь было бы интереснее более четко обозначить механизм внедрения этих принципов и требований. Даже если мы их называем всего лишь нормами этическими, причем сами же разработчики кодекса говорят, что разработанные документы ни в коей мере не являются законом и его формулировки носят всего лишь рекомендательный характер. То есть их задача всего лишь как-то помочь людям, обозначить основные принципы внедрения и использования технологии искусственного интеллекта в повседневной жизни.

Такое тоже на сегодняшний день известно. Есть такое явление, и у нас его переводят как «мягкое право», и это такие случаи, когда нормы представляют рекомендации для каких-то органов, организаций и компаний. В этих случаях субъект уже сам решает, насколько он их принимает, использует или не использует в своей повседневной деятельности.

Кодекс предлагается ввести для определенных групп: для разработчиков, заказчиков, эксплуатантов (как их еще называют — пользователей), экспертов, операторов. Для всех, кто потенциально имеет возможность влияния на систему искусственного интеллекта, предлагается ввести вот такой вот кодекс, то есть предать некоторые моральные требования, которыми будет считаться правильно пользоваться.

При этом, соответственно, вся беда этических кодексов в том, что они в основном контролируются принявшим этот кодекс профессиональным сообществом. Да и меры ответственности там более мягкие, в основном в виде порицания и какого-то негативного, скажем так, общественного мнения о том лице, которое этот кодекс не соблюдает. Там есть даже такая мягкая мера принуждения, как несение репутационных рисков. Делается это для того, чтобы человек трудился в общих интересах, в интересах всеобщего прогресса и благосостояния.

В идеале этика устанавливает некий баланс между прибылью заказчиков и интересами всего общества. Просто потому, что любое явление, доведенное до своей крайней точки, может вызвать крайне отрицательную реакцию. Напомню, что никогда не надо делать другим того, чего не пожелаешь себе. Можно, конечно, обмануть кого-то, к примеру, но это можно сделать только один раз, и система доверия — она неизбежно разрушается. И обмануть человека второй раз уже не получится. Чтобы весь цех в целом был здоровее и не вызывал бы негатива у потребителей…

КЕ


Обсудить наши публикации можно на страничках «АН» в Facebook и ВКонтакте