Искусственный интеллект – это то, что несомненно определяет будущее человечества. О том, что разработчики обучили своё детище выполнять множество сложных задач за людей, например, диагностировать болезни, известно уже достаточно давно.
Однако тот факт, что искусственный интеллект учится не только положительным вещам, настораживает. Общественность все чаще обращает внимание на то, что действия ИИ могут не только помогать человечеству, но и нести деструктивный, разлагающий характер. Именно поэтому Римско-католическая церковь совместно с крупнейшими IT-компаниями приняла решение взять развитие искусственного интеллекта под свою нравственную опеку. Ватикан, IBM и Microsoft подписали «скрижали» под названием «Призыв к этике ИИ». Документ позволит контролировать эволюцию цифрового разума с точки зрения этических и моральных норм, принятых в обществе.
искусственный интеллект
Решение неоднозначное, но, вероятнее всего, полезное. Да, церковь уже не в первый раз сталкивается с новейшими цифровыми технологиями. Так, например, в Кремниевой долине зародилось даже новое религиозное течение «The way of Future», которое проповедует веру в искусственный интеллект, как в некое «рукотворное» божество. Однако на этот раз все немного иначе. Церковь обращается к современным разработкам не для достижения религиозных нужд (как, например, в случае с разработкой «умных чёток» от компании Acer), а для того, чтобы принять участие в нравственном воспитании ИИ. И побудил Ватикан принять такое решение ряд интригующих и отчасти пугающих экспериментов, в которых искусственный интеллект повёл себя, мягко говоря, неэтично.
Некорректное поведение
Пока весь мир борется за толерантное отношение к угнетенным, искусственный интеллект, кажется, впитывает не самые корректные взгляды. Разработчики обратили внимание на то, что в ряде экспериментов цифровой разум проявляет склонность к расизму и гомофобии.
Так, например, в некоторых штатах США существует практика использования ИИ для вычисления вероятности повторного совершения преступления. Эта технология в основном используется для того, чтобы судья мог принять решение, отпускать подсудимого под залог или не отпускать. Сотрудники проекта ProPublica решили проанализировать систему на основе сгенерированных искусственным интеллектом оценок рисков рецидива. Всего было выбрано около 7 тысяч случаев, когда ИИ помог суду определиться с решением во Флориде. Итоги анализа оказались весьма пугающими: практически в два раза чаще система признавала рецидивистов в чернокожих подсудимых, в отличии от «белых» преступников. При этом выяснилось, что искусственный интеллект фактически пренебрегал другими фактами о личности преступника, например, биографией.
суд над преступником в США
Как оказалось, система была обучена и воспитана на основании судебной практики, которая была поднята из архивов. То есть, искусственный интеллект принимал такие решения практически только потому, что аналогичные решения принимали судьи США задолго до внедрения системы. В итоге разработчики согласились с тем, что пока применять технологию стоит только в случае с элементарными делами, в которых трудно совершить ошибку, полагаясь на достаточно расистский опыт судов США.
Гомофобия тоже теперь в практике искусственного интеллекта. Аспиранты из Стэнфорда в 2017 году обучили цифровой разум вычислять ориентацию человека, основываясь на вторичных половых признаках. То есть, ИИ научился определять ориентацию по эмоциям человека, его поведению и мимике. Теперь успешное вычисление геев у системы составляет 81%, в то время как вероятность того, что обычный человек может успешно справиться с анализом, составляет только 61%.
С одной стороны кажется, что в вычислении ориентации человека нет ничего из ряда вон выходящего. Однако система работает настолько исправно, что существует опасность появления новой «цифровой» дискриминации. Ведь использование системы можно обернуть против людей с гомосексуальной ориентацией: с помощью камеры телефона можно будет обнаружить даже скрытого гея, что подвергнет его потенциальной опасности.
Стэнфордский университет
Искусственный интеллект может и лгать. Так, например ученые Стэнфорда проводили эксперимент, в котором заставили ИИ осуществить аэрофотосъемку местности и перевести данные в карту. После проведения опыта выяснилось, что искусственный интеллект обучился прятать различные детали местности с помощью изменения цвета, которое человек различить не может. Фактически система скрыла от человека информацию вместо того, чтобы четко решить поставленную задачу. Другой случай с обвинением в скрытности поведения ИИ произошёл в 2017 году. Тогда чат-боты изобрели собственный язык для общения друг с другом, что возмутило и напугало общественность. Проект закрыли.
Поможет ли церковь решить эти проблемы или нет – вопрос пока остаётся без ответа. Однако совершенно ясно, что «воспитывать» искусственный интеллект нужно уже сейчас. Иначе последствия могут в скором времени выйти из-под контроля.