Бесчисленные фильмы и книги про взбесившийся ИИ мы пока еще воспринимаем как научную фантастику, данную нам для развлечения. Но, похоже, совсем скоро такое отношение к проблеме может стать неприличным, а то и вовсе преступным. Во всяком случае, Стюарт Рассел уверен, что нам уже сейчас (пока, кажется, не слишком поздно) надо всерьез задуматься о перспективах и рисках совершенствования искусственного интеллекта. Конечно, разного рода алармистских высказываний по этому поводу хватает и сегодня, но они обретают совершенно иной вес, когда исходят не от кого-нибудь, а от советника ООН по контролю над вооружениями, члена Американской ассоциации содействия развитию науки и почетного профессора Калифорнийского университета. Свои тревожные прогнозы и критический взгляд на последние научные разработки Рассел изложил в книге, которую Диана Кульчицкая изучила в рамках совместного проекта «Горького» и «Просветителя».

Стюарт Рассел. Совместимость. Как контролировать искусственный интеллект. М.: Альпина нон-фикшн, 2021. Перевод с английского Натальи Кияченко (Колпаковой). Содержание

Думающие машины сегодня — реальность, а не фантастика из голливудского фильма. Программы для распознавания речи, онлайн-переводчики или алгоритмы для определения объекта на фото используют элементы искусственного интеллекта и способны обучаться. Конечно, нам еще далеко до создания компьютера, который может думать так же, как мы. Тем не менее уже есть вычислительные машины, превосходящие человеческий мозг по определенным параметрам. Что будет, если человечеству удастся создать компьютер умнее нас? Стюарт Рассел пытается доказать, что создание искусственного сверхинтеллекта может повлечь за собой реальную угрозу для человека как вида. Поэтому о последствиях такого открытия нужно задуматься уже сейчас.

Рассел — специалист по искусственному интеллекту с мировым именем. Он получил степень бакалавра по физике в Университете Оксфорда, а позже переехал в США и там продолжил свою академическую карьеру. С 2016 года он возглавлял лабораторию по изучению искусственного интеллекта в Университете Беркли, был вице-президентом Совета Всемирного экономического форума по искусственному интеллекту и робототехнике. Кроме серьезных научных изданий его перу принадлежат и некоторые научно-популярные книги. «Совместимость» — самый свежий труд ученого. На английском книга была опубликована в 2019 году, а русское издание появилось в 2020-м.

Рассел убежден, что человек должен задуматься о том, как он развивает искусственный интеллект. Перефразируя один из тезисов автора, можно сказать, что искусственный интеллект, по его мнению, должен служить целям человека, а не своим собственным целям. То есть нужно подчинить разработки нашим нуждам, но не давать машине властвовать над жизнью человека. Если создать компьютер, который будет умнее нас, то впоследствии мы можем пасть жертвой своего творения. «Восстание машин», которое мы видим в разных фильмах-антиутопиях, превратится в реальность. Поэтому нужно направлять развитие искусственного интеллекта в нужное русло и не увлекаться излишними экспериментами.

Рассел проводит параллель с гориллами. Человек вышел на такой уровень развития, который привел к доминированию человеческой расы над миром. Гориллы, будь они умнее, не дали бы возможность человеку развиваться, чтобы предотвратить такой сценарий. Человек, который не ставит ограничений для развития искусственного интеллекта, может оказаться на месте тех самых горилл. Нам придется подчиниться машине, интеллект которой разовьется до крайне высокого уровня. Именно это в книге и называется «проблемой горилл».

Стоит сказать, что Рассел успокаивает читателей и заявляет, что пока так называемого искусственного сверхинтеллекта не существует. То, что мы имеем сейчас, — это узкий искусственный интеллект. На данном этапе человечество научилось разрабатывать только программы, которые могут решить довольно конкретные задачи. Например, они в состоянии обыграть гроссмейстера в шахматы или научиться безукоризненно играть в настольную игру го. Однако та же программа не сможет решить иные задачи, и более того, не сможет увидеть контекст, вступить в диалог с человеком, понять, что за пределами шахматной доски существует мир, наполненный неопределенностью и сложными нелинейными явлениями. Тем не менее это не значит, что сверхинтеллект машины — нечто недостижимое. Как утверждает Рассел, сверхинтеллект сможет появиться как раз благодаря разработкам в сфере узкого интеллекта. В какой-то момент все наработки позволят ученым выйти на новый уровень и создать разумную машину, которая будет равной по своим когнитивным способностям человеку или даже превосходить его.

Рассел уверен, что искусственный интеллект — слишком серьезная разработка, чтобы пускать ее на самотек и не задумываться о последствиях развития ИИ. В одной из глав автор рассуждает о неправомерном использовании этой технологии. Например, к этой категории можно отнести беспилотные истребители, которые уничтожают цель с помощью автоматического наведения. Рассел отмечает, что такое высокотехнологичное оружие нужно вовсе снять с разработки, так как применение подобных машин может привести к катастрофическим последствиям — возможно, даже к геноциду. Ученый говорит о том, что нельзя давать роботу определять судьбу человека, так как машина может не учесть всех нюансов и слишком буквально интерпретировать те алгоритмы, которые в ней заложены.

Рассел считает злом и алгоритмы, которые используются социальными сетями для определения поведения пользователя и для прогнозирования этого поведения в будущем. Ученый также крайне негативно высказывается о попытках создать гуманоидных роботов — тех, которые были бы похожи на людей. Как он отмечает, это абсолютно ненужная ветвь развития машин, так как мы в этом случае не выделяем инструментальную функцию робота, а пытаемся сделать его похожим на нас внешне, то есть выводим его на один уровень с нами.

Стюарт Рассел
 

Кроме критики некоторых разработок, Рассел также рассуждает о возможных векторах развития искусственного интеллекта и тех сложностях, которые неизбежно встанут перед разработчиками в будущем. Например, ученый отмечает, что робот должен удовлетворять потребности человека и делать то, что полезно для нас. Однако люди слишком разные, и потребности их также могут сильно варьироваться. Невозможно учесть интересы всех одновременно, а кроме того, можно использовать робота во благо одному человеку, но во вред другому. При этом робот, который заботится о мире во всем мире, тоже выглядит утопично и странно. Рассел проводит мысленный эксперимент, рассуждая о том, что будет, если создать робота-помощника, который ставит интересы некой группы людей выше интересов своего владельца из альтруистических побуждений. К примеру, гуманоид Робо может отказаться выполнять указания условной Гарриет, так как узнает, что в Африке умирают от голода тысячи людей, и отправится туда, оставив свою хозяйку наедине с ее проблемами. Вряд ли кто-нибудь захочет потратить деньги, чтобы купить себе такого робота-альтруиста.

Один из тезисов, выдвигаемых теми исследователями, которые отказываются видеть возможные негативные стороны искусственного интеллекта, связан с так называемой проблемой выключателя. Многие считают, что в нужный момент робота или любую разумную машину можно просто выключить из розетки и таким образом предотвратить какие-то нежелательные действия. Автор книги уверен, что это наивное утверждение: ведь если сверхинтеллектуальная машина все-таки будет создана, то она не позволит себя выключить, в нее будет вшит механизм противодействия внешним вмешательствам. Поэтому тезис с выключателем не работает и не отменяет те потенциальные опасности, которые могут возникнуть в связи с развитием думающих компьютеров.

Рассел прогнозирует, что сверхинтеллект может появиться примерно через 80 лет. В этом, как ему кажется, он менее оптимистичен, чем многие его коллеги. Однако, по его мнению, это все же не самое отдаленное будущее, и о развитии этой технологии нужно задумываться уже сейчас. Как утверждает автор, разработки в этой сфере уже пошли по неверному пути. Тем не менее еще есть время пересмотреть то, как разрабатывается ИИ, и сделать работу над ошибками. Рассел не выступает за полную заморозку исследований в сфере искусственного интеллекта, так как глупо было бы полностью отказываться от открытия, которое может облегчить жизнь человека и помочь ему достичь высокой производительности в любой сфере. Однако он отмечает нежелание некоторых ученых признавать те опасности, которые кроются в искусственном интеллекте. Поэтому в конце книги он с оптимизмом высказывается о некоторых инициативах, связанных с контролем ИИ.

Чтобы избежать подчинения нашего биологического вида машинам, нужно рассуждать об искусственном интеллекте не только с технологической точки зрения, но также и с точки зрения этики и гуманистики, просчитывая разные варианты влияния технологии на человека. Как считает Рассел, только так можно избежать апокалиптичных сценариев, описанных писателями-фантастами и философами-футурологами.