> Искусственный интеллект может заменить на Земле человека и Бога - Аргументы Недели

//Общество 13+

Искусственный интеллект может заменить на Земле человека и Бога

12 апреля 2023, 12:24 [«Аргументы Недели», Анна Кондакова ]

Фото: pixabay.com

В разные времена люди боялись прихода Антихриста и «конца света», столкновения Земли с астероидом и ядерной войны, гибели человечества от перенаселённости и глобального потепления. В наши дни на первый план выходит угроза «восстания машин». Люди боятся, что искусственный интеллект (ИИ) сделает их лишними на Земле или вовсе уничтожит человечество.

Предполагается, что рано или поздно искусственный интеллект, качественно превосходящий человеческий, станет неуправляемым и обретет способность к самосовершенствованию. В дальнейшем он начнёт развиваться по собственным законам, реализуя одному ему известные и понятные цели.

Интересно, что среди некоторых «научно-фантастических» сценариев развития событий в этом ключе встречаются и вполне реалистичные. К этому относится использование ИИ в военном деле. Никакой, даже самый опытный пилот новейшего истребителя не сможет в будущем конкурировать с роботом, наделенным ИИ. То же относится и к другим военным специальностям. Таким образом, возникает гипотетическая перспектива создания «абсолютного оружия», которое гарантированно обеспечит одной стороне победу в военном конфликте.

Мы можем получить новую гонку вооружений с использованием ИИ, которая по своим масштабам многократно превзойдет эпоху холодной войны. К примеру, обычная ошибка ИИ будет способна привести к пуску ракет с ядерными боеголовками. И если люди в дни «карибского кризиса» находили возможность остановиться перед роковой чертой, то в случае с ИИ, начисто лишенного эмоций, такого точно не произойдёт.

Другой сценарий касается не только установления с помощью ИИ тотального контроля за жизнью человека, но и манипулирования этой жизнью. Уже сегодня искусственный интеллект демонстрирует впечатляющие способности прогнозировать будущее. А это может привести к тому, что ИИ будет навязывать как отдельному человеку, так и человечеству в целом именно тот образ мышления и жизни и те сценарии развития, которые представляются ему желательными. Обладая «сверхчеловеческими» способностями и развитым самосознанием, в определённый момент он может прийти к выводу, что люди являются лишними на Земле, и принять решение об их ликвидации.

Развитие ИИ может привести и к тотальному обеднению духовной жизни человека, к «отмене» целых пластов гуманитарной культуры, к буквальному закрепощению человека машиной. ИИ, фактически, сможет исполнять роль бога на Земле.

Уже в наше время искусственный интеллект уверенно обыгрывает мировых чемпионов в самые сложные интеллектуальные игры, определяет на основании сотен МРТ-снимков оптимальную стратегию лучевой терапии при онкологических заболеваниях, водит автомобили и готовит еду, выносит судебные решения и выполняет множество других функций значительно лучше даже самого гениального человека. В перспективе это чревато колоссальной безработицей.

В самом недалеком будущем нейросети смогут писать репортажи и аналитические статьи значительно качественнее профессиональных журналистов и политологов, поскольку обладают безграничным объемом информации и безупречным логическим мышлением.

На фоне этих принципиально новых вызовов возникает вопрос: «Что делать?»

Можно вспомнить три закона робототехники писателя-фантаста Айзека Азимова. Первый закон категорически запрещает роботу вредить людям, второй - предписывает роботу подчиняться людям до тех пор, пока это не станет противоречить первому закону, и, наконец, третий закон диктует роботу защищать свою жизнь, не нарушая первых двух. Вопрос лишь в том, как этого достигнуть.

Недавно Илон Маск, Стив Возняк и более тысячи футурологов, инноваторов и экспертов в сфере ИИ опубликовали открытое письмо с грозным предупреждением:

«Мы должны спросить себя: стоит ли нам позволить машинам заполонить наши информационные каналы пропагандой и ложью? Стоит ли нам автоматизировать все профессии, включая те, что способствуют нашей самореализации? Стоит ли нам разрабатывать умы, которые не принадлежат человеку и которые могли бы в итоге превзойти нас численностью и интеллектом, сделать нас устаревшими и заменить нас? Стоит ли нам рисковать потерей контроля над цивилизацией?»

Авторы послания призывают немедленно приостановить обучение систем ИИ, более мощных, чем модель GPT-4, как минимум на полгода, подчеркивая, что «эта пауза должна быть публичной, ее исполнение должно поддаваться проверке, и ей должны последовать все ключевые представители сферы. Если такая пауза не может быть введена быстро, правительства стран должны вмешаться и установить мораторий». Они также предлагают разработать и внедрить общие протоколы безопасности, которые «должны гарантировать, что системы, относящиеся к ним, в полной мере безопасны».

В то же время некоторые эксперты считают, что приостановки обучения нейросетей недостаточно: речь должна идти о полном запрете на их создание.



Обсудить наши публикации можно на страничках «АН» в Facebook и ВКонтакте