Искусственный интеллект: как система решает все за нас и что будет дальше
Тотальный контроль, манипуляции человечеством, дискриминация и суперинтеллект, не видящий препятствий
2 июня 2021, 14:48 [«Аргументы Недели», Валерия Шавельева ]
Искусственный интеллект, роботизация и цифровизация давно стали неотъемлемой частью всех сфер нашей жизни. За технологиями – будущее, так говорят ученые, но соглашаться с ними спешат не все. Чаще всего дискуссии ведутся по поводу ИИ: он может не только решить ряд проблем, но и создать новые. Что если произойдет сбой или взлом, люди лишатся рабочих мест или ИИ вообще выйдет из-под контроля? И возможно ли такое вообще? «Аргументы Недели» разбираются вместе с экспертами.
Нам кажется, что искусственный интеллект – новейшая технология, которая появилась сравнительно недавно, но это не совсем так. Термин «искусственный интеллект» изобрел американский информатик Джон Маккарти еще в 1950 году и определил его как «способность машин или компьютерных программ думать и рассуждать так же, как человек». Для этого в систему ИИ вкладывают инструкции и данные, на основе которых система выполняет определенные функции. Со временем, изучая логику и мышление человека, ИИ совершенствуется и «чувствует» что нужно сделать и каким способом, чтобы действие отвечало «человеческому». Но зачем это нам?
«Сегодня не только человек, но и алгоритмизированная программа уже не в состоянии быстро и качественно переработать такой объем информации, который у нас есть, – уверен руководитель маркетингового агентства и исследователь в области инновационных технологий Андрей ЮШКОВ. – Нам понадобились принципиально новые технологии – это обусловлено естественным ходом эволюции. Нужной технологией стал ИИ. Он, в отличие от обычных компьютерных программ, работает по принципу «обучаемости», а не «программируемости». Теперь все зашло так далеко, что уже в не столь отдаленном будущем возможно создание комплексных систем ИИ, которые могут взять на себя управление целыми отраслями экономики. И здесь возникает старая как мир проблема: кто получит наибольшую выгоду от внедрения подобной системы? Будет ли она использована в области экономики, руководствуясь принципами социальной справедливости, или будет поставлена на службу олигархам для их обогащения?»
Скажете, но ведь ИИ все-таки не хило облегчает жизнь, а на благо олигархов у нас и так почти все сферы работают. Тогда какая разница: человек пашет или компьютер?
Дело в том, что ИИ на самом деле решает те аналитические задачи, которые сложны для нас, он использует большие вычислительные мощности и неочевидные алгоритмы. Технология активно применяется, например, в медицине – в качестве аналитической базы. Это медицинские карты, выписки, результаты анализов и другие данные. Так системы подсказывают врачам наиболее оптимальные решения. И вот что важно: пока что они только подсказывают.
«ИИ-решения со схожим принципом работы задействованы во многих отраслях: для управления производственными процессами в промышленности, электроэнергетике, маркетинге и так далее, – говорит директор ИИ-продуктов «Mail.ru Цифровые технологии» Светлана АРХИПКИНА. – Они автоматизируют рутинные операции, позволяя переориентировать сотрудников на более сложные и творческие задачи. Что важно: в последние годы компании, внедряющие ИИ-проекты, стали относиться к ним более зрело и взвешенно. Не как к хайпу, а как способу получить конкретный измеримый эффект для бизнеса. Это приводит к появлению стандартов для решений и продуктов, формированию спроса. Поэтому нам нужно относиться к ИИ, как к очень практичной технологии. Она во многом способна помочь нам. Тем не менее не стоит ожидать от ИИ воспроизведения всех человеческих функций и способности полностью заменить человека».
И дело не только в неспособности ИИ полноценно воспроизвести деятельность человека. Технологии ни в коем случае нельзя избавляться от людей, к чему мы с таким энтузиазмом стремимся, потому что в случае отказа системы или техногенного сбоя, люди не только лишатся доступа к информации, не вылетят нужным рейсом, но и даже могут погибнуть. Поэтому, внедряя ИИ, обязательно нужно оставлять аналоговые пути и запасной контур управления – это делает систему устойчивой.
Но пока что мы наблюдаем другое: уже есть огромные риски, например, утечки данных, собираемых для работы ИИ. Их количество по всему миру постоянно растет. Также происходит тотальная слежка за всеми аспектами жизни человека. Данные накапливаются и хранятся в сети годами, а системы анализа становятся все совершеннее. Так подобные технологии ведут к разрушению приватности, меняют представление о частной жизни, способствуют дискриминации и стигматизации.
Во время пандемии в Великобритании был случай, когда годовые оценки выпускникам были поставлены с применением технологий ИИ. Система взяла за основу средний балл по всем школам за период наблюдений, и хороший ученик средней школы получил балл ниже, чем средний ученик элитной школы, что вызвало очевидную волну возмущений.
Применение таких алгоритмов плохо и для людей, и для государства, люди чувствуют себя винтиками, им не к кому апеллировать – система за них все решает, а доверие к государственным институтам снижается.
Тем временем неумение ИИ воспроизвести все человеческие функции не мешает искусственному интеллекту участвовать, например, в информационных войнах. Они сегодня связаны с технологией создания искусственного общественного мнения и влиянием на него путем конструирования агентов влияния или ложных лидеров. С одной стороны ИИ на службе человека, с другой – представляет собой опасность с точки зрения манипуляции отдельными целевыми аудиториями и человечеством в целом.
«Мы – эксперты и акторы медиа поначалу обольстились возможностью уменьшить свои усилия, траты и время на выполнение работы и доверить многое роботам, – отмечает профессор Департамента массовых коммуникаций и медиабизнеса Финансового университета при Правительстве РФ Татьяна КАМИНСКАЯ. – Последнее пятилетие они активно не только разговаривают с нами по телефонам горячих линий, считают финансы, но и создают тексты. Так, Heliograf в The Washington Post внедрен с 2016 года для написания новостей и статистики, используются роботы и в Soccerbot (Южнокорейское новостное издание Yonhap). И здесь тоже заключается опасность использования ИИ (даже пока он способен работать только с открытой информацией и только по определенным алгоритмам). Он становится способным конкурировать с человеком во многих отраслях, где мы проигрываем и выходим из игры, теряя рабочие места. И, конечно, когда различие между ИИ и человеческими голосом, текстом и услугами станут все эфемернее, впору задать себе вопрос о том, не перешли ли мы незаметно тонкую границу между киборгом и человеком? Вопрос человеческого самоопределения, идентичности, вопросы морального выбора встанут с новой силой именно в ближайшие десятилетия. И именно из-за внедрения ИИ».
И искусственный интеллект не только минимизирует человеческий труд: часть профессий уже остаются без работы, еще часть профессий рискует оказаться на рынке труда. Но и начинает влиять на формирование мышления и информационного окружения человека.
«Если мы говорим про будущее, то «Аннушка уже разлила масло», – говорит учредитель интернет-компании, занимающейся разработкой программного обеспечения, Сергей ВЕПРЕНЦЕВ. – Уже сейчас и социальные сети, и реклама привязываются к текущим интересам человека, вы видите только ту информацию, которая вам интересна по мнению социальных сетей (а в них за это отвечает искусственный интеллект). Тем самым вы рискуете не увидеть то, что вам могло бы быть интересно, не будь этой тотальной фильтрации контента под ваши интересы. Теперь именно ИИ формирует информационную картину вокруг вас».
Так гиперперсонализация несет за собой риски формирования локальных «пузырей» вокруг индивида. Например, все ваши новые друзья в Facebook 100% разделяют ваши взгляды, а в рекомендациях товаров появляется только то, что вам действительно нужно, нравится и вы можете себе это позволить. Другая часть реальности становится для вас как темная сторона Луны, которую вы не можете увидеть без существенных на то причин. Об этом тоже говорят эксперты. По их мнению, доверять ИИ полностью все-таки не стоит.
«AI нельзя доверять по простой причине – он еще не появился, – убежден руководитель центра компетенций Сергей НАЗАРЕНКО. – Сейчас искусственным интеллектом мы называем алгоритмы машинного обучения. Мы достаточно легко доверяем ИИ в вопросах обработки фото для Instagram или интеллектуальным фильтрам в Photoshop, передвигаемся на машинах с АБС и ESP, и они помогают нам справляться с трудными ситуациями на дороге (в них редко используется ИИ, но задействованы достаточно сложные алгоритмы обработки сигналов с датчиков). Но мы еще не до конца готовы к тому, что ИИ начнет ставить нам медицинский диагноз, управлять атомной электростанцией или нашим автомобилем (хотя многие владельцы Tesla не согласятся с моим последним утверждением). А если и рассматривать вопросы доверия к ИИ, то ответ сильно зависит от совершенства технологий в конкретной отрасли и последствий возможной ошибки».
А искать ошибки в системах такого рода очень сложно. Как и исправлять их причины. А еще это раздолье для мошенников, связанное не только с рисками утечек, о которых мы уже говорили.
«Уже сейчас есть системы, которые в режиме реального времени позволяют подделывать голос и видео (Deep Fake), – говорит технический директор компании-резидента Сколково, занимающейся созданием решений в области мониторинга и управления событиями информационной безопасности, Антон ФИШМАН. – Представьте себе мир, где ИИ на стороне злоумышленников будет атаковать системы ИИ на стороне финансовых институтов и компаний, и победит та, чья начинка лучше. Что же касается ошибок и их исправлений: когда системы настолько сложны и не подчиняются законам обычной алгоритмики – на выявление причины возникновения ошибки и ее устранение могут уйти месяцы или даже годы. Тем не менее человечество точно уживется с новой технологией. Мы уже не представляем свою жизнь без нее в куче отраслей, а через какое-то время не сможем себе представить ни одну серьезную систему без AI в принципе».
Мы уже не можем представить, а технология продолжает совершенствоваться. И закономерный вопрос, несмотря на скепсис многих исследователей, о судьбе ИИ остается открытым: что, если через 10 или 20 лет искусственный интеллект перейдет черту, когда он станет более продвинутым, чем человеческий мозг?
«Сейчас у нас есть фиксированный искусственный интеллект, потом он будет general, то есть такой же, как человек, а потом будет суперискусственный интеллект, который будет уже на следующей стадии, – уверен сооснователь и вице-президент российской компании, специализирующейся на разработке программного обеспечения, Николай ДОБРОВОЛЬСКИЙ. – И на мой взгляд, мы абсолютно точно не будем иметь полного контроля над ИИ. В этом беспокойство ведущих ученых, которые занимаются этой темой. И даже не обязательно, как во всех фильмах, искусственный интеллект будет нацелен на то, чтобы уничтожить человечество. Представьте, что у нас есть лес и в нем есть муравейник. В лес пришли люди, чтобы построить трассу. Так они повалили лес, проложили дорогу. Если муравейник где-то в стороне, его никто не заметил, он продолжает стоять. Если муравейник оказался на пути этой трассы, люди его не замечают абсолютно так же. Но он исчезнет, когда мы проложим трассу поверх него. Так же и суперинтеллект. Он будет к нам относиться как к муравьям. Он не обязательно должен быть плохим, но у него нет понимания, почему к нам нужно относиться хорошо. Будет какая-то задача, для решения которой надо, чтобы люди исчезли, – люди моментально исчезнут. И вот это печально. Особенно учитывая то, что ресурсы для создания такого ИИ, скорее всего, могут появиться у людей, перед которыми стоят… не совсем хорошие цели».
И это тоже к проблеме отсутствия человека в системе ИИ и его контроля над ним. Сейчас этот вопрос тревожит нас на бытовом уровне: робот не может решить проблему так, как это сделает человек, но дальше – больше. А это значит, что с будущими негативными последствиями ИИ нам нужно бороться уже сейчас.
«Сейчас создаются разного рода этические кодексы и стандарты как на уровне отдельных организация, так и на уровне государства, – говорит руководитель направления исследований и аналитики Центра подготовки руководителей цифровой трансформации ВШГУ РАНХиГС Екатерина ПОТАПОВА. – В них прописываются требования к системам ИИ: прозрачность, верифицируемость, надежность, подотчетность. Важен уже сам факт создания подобных деклараций, но еще важнее соблюдение этических принципов на уровне заказчиков и разработчиков систем. Технические стандарты помогают зафиксировать благополучие человека и этичность систем ИИ с точки зрения именно разработки. Так нам нужно оставлять аналоговые пути и делать дублирующие системы – как для удобства людей, так и для надежности инфраструктуры и сервисов. А еще важна ответственность. Сейчас мы видим некий фатализм по отношению к ошибкам алгоритмов, а нужна презумпция доверия к человеку, защита его прав. В каждом случае использования систем ИИ должна быть ответственность человека. Условно говоря, если алгоритм занизил оценку школьнику, нужно, понимать, почему это произошло и иметь возможность решить эту проблему с помощью сотрудников, а не принимать эту техническую ошибку как данность. Цифровизация – магистральный путь, она меняет нашу жизнь и обратно в аналоговое общество мы уже не вернемся. Но эксперты во всем мире говорят о том, что развитие технологий можно и нужно контролировать. И обязательно нужна общественная дискуссия по этическим вопросам, потому что эти вопросы из области теории уже перешли в практику».
О роли искусственого интеллекта и роботизации в нашей жизни читайте в книге Игоря Диденко "НеВенец творения".