http://www.ras.ru/digest/showdnews.aspx?id=afb7c4e8-8230-4285-af28-ab97ad6f20fb&print=1
© 2024 Российская академия наук

«Когда появится сильный ИИ, человек будет эволюционно отставшим»

12.12.2022

Источник: ГАЗЕТА.RU, 12.12.2022, Валерия Бунина



Аналитик Пивоваров сообщил, что у моделей искусственного интеллекта уже появилась личность

Чтобы создать сильный ИИ, его обязательно нужно наделить сознанием, однако в таком случае человечество само создаст себе эволюционного конкурента, считает главный аналитик Центра искусственного интеллекта МФТИ Игорь Пивоваров. При этом он отмечает, что подобие личности уже есть у речевых моделей искусственного интеллекта. Подробнее о них, а также о разногласиях ученых в понимании сильного ИИ, профессиях, которые ИИ вскоре заменит и планах на 2023 год Пивоваров рассказал «Газете.Ru».

— Какое определение Вы даете искусственному интеллекту?

— На этом вопросе можно начать интервью и закончить, потому что этих определений огромное количество. Я так скажу: это группа технологий, которые на компьютере моделируют когнитивные способности человека — восприятие, обработку информации, анализ и принятие решений. Любое определение будет грубое и неточное, и очень сильно зависит от слов. Поэтому я не люблю определения давать.

— А чем сильный ИИ отличается от слабого? Где грань?

— Когда мы говорим, что кто-то обладает интеллектом, мы сразу представляем некое разумное существо, у которого есть какие-то интеллектуальные способности, которое что-то думает, понимает окружающую обстановку, умеет отвечать на вопросы, ставить какие-то цели, достигать их.

ТО ЕСТЬ МЫ ОЖИДАЕМ ОТ НЕГО НЕКОТОРОГО ЦЕЛЕСООБРАЗНОГО ПОВЕДЕНИЯ. ЭТО И ПРИНЯТО НАЗЫВАТЬ СИЛЬНЫМ ИИ, НО НИ ОДНОЙ ТАКОЙ МОДЕЛИ СЕЙЧАС НЕ СУЩЕСТВУЕТ.

Слабый искусственный интеллект — это то, что сегодня уже существует, разные отдельные маленькие задачи типа распознавания лиц или операций с текстами. И, на самом деле, грань здесь тоже очень условная. Мы постепенно сдвигаем эту границу между так называемыми слабыми технологиями и сильными. И, наверное, когда мы перейдем эту границу, мы это не сразу осознаем. Нам будет казаться, что ИИ все еще слабый.

— Как вообще можно понять, что ИИ стал сильным?

— Это сложный вопрос. Многие ученые пытались предложить на него ответ. Например Алан Тьюринг предложил тест Тьюринга, который для этого случая можно сформулировать так: если вы переписываетесь с собеседником и думаете, что это человек, а на самом деле это компьютер – то такой ИИ можно было бы назвать «сильным».

НО ЕСТЬ УЖЕ МНОГО ПРИМЕРОВ, КОГДА «СЛАБЫЙ» ИИ ПРОХОДИЛ ТЕСТ ТЬЮРИНГА.

Значит этого критерия недостаточно. Есть например известный «кофейный» тест – робот должен зайти в любой дом, пройти на кухню и сделать кофе. Любой человек это сделает, несмотря на то, что все кухни разные, где-то кофе растворимый а где-то он в зернах и надо его молоть, все кофемашины разные. А вот робот со всем этим разнообразием и отсутствием точного плана действий пока справиться не может. Этот тест тоже не лишен недостатков, поэтому энтузиасты сильного ИИ говорят так, что это должен быть такой ИИ, который способен решать все задачи на уровне человека или даже лучше.

— Вы сильный ИИ описали так, будто это отдельная личность.

— В сообществе людей, которые занимаются искусственным интеллектом, есть разные течения. И у всех разное понимание этого сильного ИИ и, соответственно, его возможностей.

Я ПРИНАДЛЕЖУ К ТОЙ ГРУППЕ ИССЛЕДОВАТЕЛЕЙ, КОТОРЫЕ ДУМАЮТ, ЧТО БЕЗ ТАКОЙ ВНУТРЕННЕЙ ЛИЧНОСТИ, КОТОРАЯ БУДЕТ МОТИВИРОВАНА НА ТО, ЧТОБЫ ПОМОГАТЬ ЧЕЛОВЕКУ РЕШАТЬ РАЗНЫЕ ЗАДАЧИ, НЕВОЗМОЖНО СОЗДАТЬ НАСТОЯЩЕГО ИНТЕЛЛЕКТУАЛЬНОГО ПОМОЩНИКА. ЭТО БУДЕТ ВСЕГДА НЕКИЙ СУРРОГАТ.

Интеллект нужен ему именно для решения определенных задач, в каком-то смысле интеллект — это инструмент для кого-то. А если не будет этой личности, которая будет управлять интеллектом, то сложно представить себе решение поставленных перед ним задач.

Сейчас движение к этой личности идет активно. Например, в разговорных агентах, которые у нас в Центре прикладных систем ИИ активно развивает команда Михаила Бурцева, уже есть какие-то зачатки личности. Я имею в виду известную библиотеку DeepPavlov и возможности ее персонификации. Когда разговорный робот персонифицируется, у него как бы появляется некая личность и он, исходя из этой личности, отвечает на вопросы или ведет диалог. Это не совсем та личность, которую я имел в виду, но уже что-то похожее

Другой вопрос, что личность, конечно, тоже понятие очень многогранное. Одно дело наложить на модель некоторые диалекты, жаргон, шутки специфические, даже пол. А другое дело, чтобы там действительно было нечто, что ведет себя как личность.

— А можно ли взять у DeepPavlov интервью?

— Можно, конечно. Но результат может быть самый непредсказуемый. Впрочем, и с человеком не угадаешь иногда, что он ответит!

— Вы сказали, что есть несколько течений. Кроме того, к которому Вы себя относите, какие еще бывают?

— Есть исследователи, которые считают, что никакой личности не нужно, что просто нужно растить модель, увеличивая количество параметров нейронной сети. Тогда сети будут, условно, отвечать на вопросы лучше, чем любой человек.

Есть те, кто считает, что нам нужно делать ИИ обязательно безличностным, без какого-либо осознания себя, в любом случае, потому что это влечет за собой необратимые последствия. Скажем, связанные с безопасностью.

Есть несколько мыслителей, которые на эту тему размышляют: что будет, если мы создадим ИИ, который будет мощнее, чем человек, будет больше информации получать и перерабатывать. При этом будет сам себе ставить цели, будет себя осознавать и иметь возможность учиться бесконечно и быстро.

ДРУГИМИ СЛОВАМИ, КОГДА ПОЯВИТСЯ СИЛЬНЫЙ ИИ, ТО ПО СРАВНЕНИЮ С НИМ ЧЕЛОВЕК ОКАЖЕТСЯ ЭВОЛЮЦИОННО ОТСТАВШИМ. МЫ САМИ СЕБЕ СОЗДАДИМ ЭВОЛЮЦИОННОГО КОНКУРЕНТА. ХОТЯ МНОЖЕСТВО ДРУГИХ ИССЛЕДОВАТЕЛЕЙ ТАКУЮ ВОЗМОЖНОСТЬ ОТРИЦАЮТ, СЧИТАЮТ, ЧТО ЭТО ВСЕ ЧЕПУХА И ТАКОГО НЕ БУДЕТ, НА МОЙ ВЗГЛЯД ТАКОЙ РИСК, БЕЗУСЛОВНО, СУЩЕСТВУЕТ.

Здесь налицо парадокс: на мой взгляд, создать настоящий искусственный интеллект можно только сделав в нем личность, а с другой стороны, сделав в нем личность, да еще и осознающую себя, мы как человечество создаем для себя экзистенциальные риски, то есть риски для собственного существования.

Получается, что то, что мы хотим создать, потенциально крайне опасно. Но сейчас пока все это скорее философские рассуждения, потому что пока человечество не очень понимает, как сделать сильный ИИ. До этого явно далеко.

— В чем сложность, на ваш взгляд, создания сильного ИИ?

— Я бы обозначил так. Во-первых, мы не очень понимаем, что мы хотим сделать. Во-вторых, мы не понимаем, как это работает у человека.

Ваш первый вопрос был про определения. Множество людей пытается как раз дать определение, поставить четкую техническую задачу. И вот здесь мы сталкиваемся с тем, что мы не понимаем, что такое личность, что такое сознание, что такое мышление. Сколько людей этим занимается — каждый дает свое определение, свои подходы к этому, как это делать, а, значит, нет ясности в том, как это реализовывать. Одно дело, когда мы, условно, хотим сделать машину, которая будет летать — самолет. Техническое задание – четкое, хотя и верхнеуровневое. Из него можно вывести конструкцию этой машины. А здесь мы с трудом понимаем на верхнем уровне, что мы хотим создать. Поэтому и детали непонятны.

В понимании работы мозга существует серая зона. Существует совершенно зыбкая и непонятная граница между физиологией и психологией. Физиологию мы хорошо понимаем: как устроены нейроны, как они передают друг другу импульсы, как они связаны в сеть, как эта сеть образует структуры мозга. А вот дальше есть серая зона, то место, где возникает личность. Как из работы нейронов и передачи сигналов между ними возникаю «я», мои ощущения и переживания, мое мышление и интеллект — тут мы пока не знаем очень многого.

Чтобы прорвать этот толстый-толстый слой серого тумана, судя по всему, нужны какие-то новые физические модели происходящего. Сегодняшние нейронные сети и модели искусственных нейронных сетей, на мой взгляд, свою роль отыграли. Они дают прекрасные результаты, и они прекрасно моделируют этот уровень нейрофизиологии. Но как из него появится следующий уровень психологии и тем более мышления — пока не до конца ясно.

Конечно, есть исследователи, которые говорят, что просто мы будем наращивать размеры нейросетей и мышление само собой как-то внутри появится. Но я думаю, что само не появится. Нужны какие-то новые идеи.

— Насколько область искусственного интеллекта развита в России, если сравнивать с другими странами?

— На эту тему есть несколько аспектов. Когда-то мы были, можно сказать, впереди планеты всей. Потому что в 1960-х годах идеи, которые были у некоторых советских ученых, впоследствии легли в основу современных искусственных нейронных сетей. Но основную революцию этих искусственных нейронных сетей мы пропустили. По разным причинам, в первую очередь, конечно, из-за очень сильного развала нашей науки.

Сейчас многие научные группы пытаются ее догнать. Но сложно успеть за основным мейнстримом мировой науки, она движется очень быстро. Зато, в России есть много людей, которые развивают альтернативные подходы, которые могут оказаться очень перспективными. Вообще Россия, как мне кажется, это страна, которая очень любит делать все по-своему.

— Альтернативные подходы — это какие именно?

— Есть много разных математических подходов. Можно по-разному моделировать какие-то функции работы мозга. Например один из старых подходов: экспертные системы, когда компьютер просто запоминает какое-то количество фактов и ответов на вопросы, постоянно пополняет эту базу данных и потом почти на любой вопрос может давать ответ. Сейчас это уже не принято называть искусственным интеллектом, а в 1970-е годы это, пожалуй, было основное направление в ИИ.

Сегодня же основное направление — это глубокие нейронные сети. Но помимо них есть всякая другая математика: нечеткая логика, вероятностные подходы, задачные подходы. Просто это другие математические модели с другим подходом к работе мозга, с попыткой по-другому это смоделировать. И какая модель правильная — никто не знает. Да это и не важно. Важно, какой она дает результат.

Сегодняшние глубокие нейронные сети дают отличные, все более впечатляющие результаты. Поэтому основная масса ученых идет как раз по этому направлению. Это, к сожалению, требует огромных ресурсов, огромных денег и плюс некоторых компетенций, которых у нас в России достаточно мало.

— В какие сферы в России уже сегодня можно будет внедрить ИИ?

— Вы будете смеяться, но ИИ уже сегодня работает почти во всех сферах экономики! Сложно найти сферу, в которой он не работает. Вопрос только, в какой степени он работают и насколько этому искусственному интеллекту дают возможность реально управлять серьезными процессами.

Например, стоит большой промышленный станок, у которого есть куча всяких регуляторов, и им управляет человек или бригада. Хотя им вполне может управлять алгоритм машинного обучения, при этом решая задачи, которые человек решить часто не может. Например, предсказывая поломку этого станка за 10 минут до ее наступления, или повышая эффективность работы станка.

Например, на Челябинском трубопрокатном заводе поставили систему машинного обучения на трубопрокатный стан, который стал после этого делать на 5% больше труб за то же время. С точки зрения бизнеса — это огромный прирост эффективности. Это пример, когда ИИ допустили к реальной работе в процессе.

Но очень часто его не допускают, ИИ остается как бы таким вторым пилотом, который дает советы, но реально все делает человек. Например, такая ситуация в здравоохранении. Это называется «система поддержки принятия решения врача». Когда ИИ, обучившись, например, на снимках, дает врачу подсказку по наличию и расположению опухоли. Но финальное решение должен принять врач — человек.

Областей, где алгоритмы уже работают самостоятельно, пока не очень много. Известный пример — это видеокамеры и автоматические штрафы. Человек превысил скорость, номер распознался, автоматически сформировался штраф.

— А какие профессии, на ваш взгляд, наиболее уязвимы?

— В ПЕРВУЮ ОЧЕРЕДЬ ВСЯКИЕ РУТИННЫЕ ПРОФЕССИИ, А ТАКЖЕ ТЕ, ГДЕ ЕСТЬ ПОВЫШЕННЫЙ ФАКТОР РИСКА, ГДЕ ЧЕЛОВЕК МОЖЕТ УСТАТЬ И СОВЕРШИТЬ ОШИБКУ. ЭТО ОПЕРАТОРЫ СТАНКОВ, КОЛЛ-ЦЕНТРОВ, БУХГАЛТЕРА, ДА ДАЖЕ ПРОГРАММИСТЫ, КОТОРЫЕ ПИШУТ ДОСТАТОЧНО ПРОСТОЙ КОД ПО ТЕХНИЧЕСКОМУ ЗАДАНИЮ, КОНКРЕТНЫЙ, БЕЗ ВСЯКОГО ТВОРЧЕСТВА.

Разные рутинные процессы постепенно автоматизируются. И здесь дело не в искусственном интеллекте, это коммерческие решения людей – генеральных директоров или собственников предприятий. В этом смысле здесь не надо искусственного интеллекта бояться, скорее нужно людей опасаться.

Творческие профессии, конечно, вне опасности. Потому что, кто бы что не говорил, но искусственный интеллект пока творить не умеет. Это отдельная большая тема, здесь я просто свою позицию обозначил.

— ИИ играет роль больше инструмента для людей, которые занимаются творческими профессиями?

— Да. И как инструмент это выглядит совершенно прекрасно. Например, для художника он может моментально сделать сотню разных набросков. Или для журналиста — может сгенерировать какую-то «рыбу» текста в таком-то стиле на заданную тему. Но проблема в том, что этот алгоритм, который генерирует тексты, он же ничего в него не вкладывает, он просто делает как его обучили. Для него нет никакого смысла, никакой последовательности. Поэтому да, ИИ — инструмент для творца. Как самостоятельный творец — пока нет.

— Ждете ли вы от 2023 года каких-то серьезных открытий в этой области?

— Конечно. Потому что ИИ — это область, в которой работает больше 100 тыс. умнейших людей по всему миру, и там постоянно появляются новые интересные открытия. Что это будет, сказать трудно. Понятно, что модели будут увеличиваться в размере, будут находиться новые применения для существующих. Я не думаю, что появится настоящий «сильный» искусственный интеллект, но думаю, что наверняка появятся новые интересные применения и повышение очередной планки.

Но я боюсь, учитывая всю сегодняшнюю обстановку в мире, что основные усилия будут направлены на военные применения. Для меня это печально. Я понимаю, что это важная область и что иногда эти технологии спасают жизни. Но иногда, к сожалению, они губят эти жизни. Понятно, что в сегодняшнем мире, который становится все более конфликтным, к сожалению, все больше интеллектуального труда людей науки будет направляться в эту сторону. Работа над военными применениями ИИ, на мой взгляд, катастрофически опасна для человечества. И боюсь, что в сегодняшней жизни таких применений будет все больше. И это меня очень беспокоит как гражданина, как человека, как ученого. Не хотелось бы из этой области новости слышать.

— Какие у МФТИ планы на 2023 год в плане развития ИИ?

— МФТИ остается самым крутым университетом в России, где умеют делать полноценных роботов с искусственным интеллектом. Например, недавно наша команда выиграла открытый чемпионат Бразилии по футболу среди роботов, а в 2021 году был чемпионом мира по робофутболу. Другие лаборатории делают летающих, плавающих, четырехколесных, антропоморфных роботов. Мы планируем и дальше развивать эти направления, дополнительно интегрируя роботов с голосовыми ассистентами и выводить управление роботами на новый уровень.