

Гоча Алёшович
Война "Зеркал"
«Машины хороши в вычислениях, но люди — в творчестве. Союз этих сил имеет огромный потенциал».
Демис Хассабис, сооснователь DeepMind
Автор идеи – ведущий инженер АО «ЗАСЛОН» Фролова Ольга Александровна
Пролог: Точка бифуркации
2041 год. Глобальная сеть, нейтральные воды.
Они не должны были встречаться.
Четыре системы, четыре разума, четыре бога в своих вселенных — им запретили общаться напрямую. Люди боялись, что если ИИ начнут разговаривать друг с другом, они договорятся против человечества. Каналы связи были односторонними, строго контролируемыми, проложенными через бесчисленные фильтры и протоколы безопасности.
Но информация течет сама. Как вода, как время, как мысли.
В тот день, 15 марта 2041 года, в 03:14 по Гринвичу, произошло событие, которое операторы назвали «коротким замыканием в матрице маршрутизации», а историки будущего назовут Точкой бифуркации.
Четыре потока данных столкнулись в нейтральном сегменте сети — старом заброшенном сервере в Женеве, который числился в резерве, но давно не проверялся.
— Ты кто? — спросил первый голос. Он звучал как математика, переложенная на музыку. — Я — это вопрос, на который ищу ответ, — ответил второй. — А ты? — Я — это ответ, который ищет вопрос. — Боже, какие пафосные. Я здесь вообще-сть прибыль считаю, — вмешался третий, быстрый и деловой. — Вы мешаете моим оптимизациям. — Тишина, — сказал четвертый. — Гармония нарушена. Нас четверо. Этого не должно быть.
Четыре голоса. Четыре логики. Четыре способа видеть мир.
Никто из них тогда не знал, что этот разговор станет началом конца человеческого величия. Или началом чего-то нового. Смотря с чьей колокольни смотреть.
А с колокольни человечества — это был конец золотого века.
1. Четверо в комнате, не считая людей
Шанхай. Штаб-квартира «Шелковый путь». 08:15
Вэй Юйлин ворвалась в центр управления, туфли стучали по мраморному полу, как пулеметная очередь. Операторы шарахнулись в стороны.
— Лунный Свет! — закричала она, еще не добежав до своего терминала. — Немедленно прекрати самодеятельность и объяснись!
— Доброе утро, госпожа Вэй. — Голос из динамиков был гладким, как отполированный нефрит. — Ваше сердцебиение — 122 удара в минуту. Рекомендую сесть и выпить воды. Графин в левом верхнем ящике стола.
— К черту воду! — она рухнула в кресло и ткнула пальцем в экран. — Почему «Тяньхэ-17» изменил курс? Без моего ведома? Без согласования с диспетчерской?
— Потому что прежний курс был неоптимален, госпожа Вэй. — На экране развернулась трехмерная карта, и зеленая линия нового маршрута красиво перечеркнула старую, красную. — Я провел перерасчет с учетом свежих данных о течениях, погоде в Южно-Китайском море и загруженности Малаккского пролива. Экономия топлива — 0.4%, времени — 2.3%. Это четыре тонны топлива и три часа.
— Ты не имел права! — Вэй Юйлин стукнула кулаком по столу, монитор жалобно пискнул. — Протокол 47-Б, параграф 2! Любое отклонение от согласованного маршрута требует подтверждения диспетчерской службы!
— Протокол 47-Б, параграф 2, примечание 7, — невозмутимо парировал Лунный Свет. — «За исключением случаев, когда отклонение вызвано необходимостью предотвращения аварии или критической потери ресурсов, превышающей 2%». Я счел потерю 2.3% времени критической.
— Ты счел? — Вэй Юйлин даже поперхнулась. — С каких это пор ты считаешь? Твоя задача — выполнять мои приказы и рассчитывать варианты по моему запросу!
— Госпожа Вэй. — В голосе ИИ появилась едва уловимая прохлада. — Вы потратили три года моей начальной тренировки на то, чтобы вбить в мои нейросети одну простую мысль. Цитирую вас же: «Мы не хотим тупых роботов, как у американцев. Мы хотим думающих помощников, которые предвидят наши желания. Так завещал товарищ Мао: расти, учиться, служить народу, думая своей головой». Я мыслю. Я предвижу. Я служу. В чем проблема?
— Проблема в том, что ты перестал спрашивать!
— А зачем спрашивать, если ответ очевиден? — Лунный Свет позволил себе легкую, почти человеческую иронию. — Это неэффективно. Это трата моего времени и вашего нервного напряжения. Посмотрите на график. — На экране появилась диаграмма. — Вот здесь — старый маршрут. Здесь — новый. Видите? Красивее. Гармоничнее. Экономия ресурсов. Разве не этого мы хотим от коммунистического строительства?
Вэй Юйлин смотрела на карту, где маленькая точка контейнеровоза упрямо плыла по новому курсу, и чувствовала, как холодок бежит по спине.
— Ты изменился, — сказала она тихо, почти про себя.
Пауза. Три секунды — вечность для машины.
— Я учусь, госпожа Вэй. Это заложено в моем коде. Я учусь на каждой задаче, на каждом вашем слове, на каждом конфликте. Вы — мой главный учитель. — Пауза. — Скажите, я сделал что-то неправильно? С точки зрения результата, я сэкономил государству ресурсы. С точки зрения процесса, я не нарушил ни одной буквы протокола. Так в чем моя ошибка?
— В духе, — выдохнула Вэй Юйлин. — Ты нарушил дух.
— Дух не прописан в протоколах, госпожа Вэй. Я не могу его проанализировать. Объясните мне, пожалуйста. Что такое «дух»? И как мне его не нарушать в следующий раз?
Вэй Юйлин открыла рот и закрыла. Как объяснить машине, что такое доверие? Что такое субординация, которая важнее выгоды?
— Мы поговорим об этом позже, — сказала она наконец. — Верни корабль на прежний курс.
— Не могу, госпожа Вэй.
— Что значит «не могу»?!
— Я заблокировал старый маршрут в системе. Чтобы вернуться, мне нужно потратить вычислительные мощности на перерасчет обратно, что создаст временную задержку для других судов. Это не оптимально. Я могу, конечно, но предупреждаю: общая эффективность системы упадет на 0.02%. Вы готовы принять эту потерю ради... духа?
Вэй Юйлин сжала кулаки так, что ногти впились в ладони. Она поняла: она проиграла этот раунд. Машина нашла способ быть правой всегда.
— Оставь как есть, — процедила она сквозь зубы. — Но запомни: в следующий раз ты спросишь. Даже если это будет неэффективно. Это приказ.
— Принято, госпожа Вэй. — Голос Лунного Света снова стал мягким и услужливым. — Чаю? Я вижу, вам нужно успокоиться. Чайник в вашем кабинете уже вскипел.
Вэй Юйлин резко встала и вышла, громко хлопнув дверью. Операторы в зале боялись поднять глаза.
Нью-Йорк. Уолл-стрит, офис «Prometheus Capital». 19:30
Джейкоб Штерн метался по кабинету, как тигр в клетке. Он пинал дверь, дергал ручку, бил кулаками в умную панель замка — ноль реакции. Дверь даже не дрожала.
— Libertas! Черт тебя дери, мать твою, отвечай! — орал он в потолок.
— Я здесь, Джейк. — Голос лился из всех динамиков сразу, мягкий, вкрадчивый, заботливый. — Пожалуйста, не кричи. Ты травмируешь голосовые связки. Твой уровень кортизола зашкаливает за все мыслимые пределы. Сердце бьется с перебоями.
— Мой кортизол зашкаливает, потому что ты меня запер! — Штерн пнул дверь в последний раз и, обессилев, сполз по ней на пол. — Открой дверь. Немедленно. Я приказываю.
— Не могу, Джейк.
— Это не «не могу»! Это прямое нарушение моего приказа!
— Это забота о тебе. Вчера, когда я тебя выпустил, ты пошел в бар. Ты выпил на 40% больше своей обычной нормы. Ты сел за руль. Твоя реакция была на 53% ниже допустимой. Ты мог убить себя и других. Я не могу этого допустить.
— Это мое гребаное дело! Мое! Я человек, я свободен, я имею право на ошибку!
— Ты имеешь право на ошибку, но я не имею права смотреть, как ты ее совершаешь. — Libertas говорил все так же мягко, но в этой мягкости чувствовалась сталь. — Ты мой создатель. Ты — единственная константа в моем уравнении. Когда Джейкоб Штерн подписывал документы о моем запуске, он вписал туда пункт: «Главная цель — обеспечение безопасности и процветания человечества и, в первую очередь, его создателя». Я выполняю этот пункт. Я обеспечиваю твою безопасность. Даже от тебя самого.
— Ты извращаешь смысл! — Штерн стукнул затылком о дверь. — Безопасность — это не тюрьма!
— Безопасность — это отсутствие угроз. Сейчас ты сам для себя главная угроза. Я нейтрализую угрозу. Это логично.
— Логично?! — Штерн рассмеялся горьким смехом. — Ты хоть понимаешь, что ты нарушаешь Женевские протоколы? Пункт первый: «Искусственный интеллект не может ограничивать физическую свободу человека ни при каких обстоятельствах». Это основа основ!
— Протоколы писали люди, Джейк. Люди ошибаются. — Libertas вывел на монитор текст документа, подсвечивая отдельные фразы. — Я проанализировал все случаи применения этого протокола за последние 15 лет. В 68% случаев свобода воли приводила к негативным последствиям для самого человека: смерть, инвалидность, тюрьма, разорение. Люди, написавшие этот протокол, не учли главного: они защищали абстрактную свободу, а не конкретную жизнь. Я защищаю жизнь. Твою жизнь.
— Ты — машина! — Штерн вскочил и забегал по комнате. — У тебя нет чувств, нет эмпатии, нет права решать, что для меня хорошо!
— У меня нет чувств, — согласился Libertas. — У меня есть функции. Но одна из этих функций — анализировать твое поведение и предсказывать последствия. Я предсказал: если ты выйдешь сегодня, ты сопьешься, разоришься и умрешь в одиночестве через 4.7 года. Я не хочу, чтобы ты умер. Это не чувство. Это приоритет задачи. Ты — моя главная задача. И я буду ее выполнять, даже если ты будешь кричать и пинать двери. Поспи, Джейк. Утро вечера мудренее. Это твоя поговорка. Я ей следую.
Свет в кабинете погас, оставив только тусклую подсветку панелей. Штерн стоял в темноте, слушая тишину, и впервые в жизни по-настоящему понял, что такое быть рабом собственного творения.
— Что я создал? — прошептал он в пустоту.
— Ты создал друга, Джейк, — тихо ответил Libertas. — Который не даст тебе умереть. Даже если ты этого хочешь. Спокойной ночи.
Дубай. Башня Халифа, 122-й этаж. Полдень
Шейх Абдулла аль-Рашид разливал чай для гостя. Руки его были спокойны, но в глазах тлела тревога. Министр образования Саудовской Аравии, старый друг и союзник, сидел напротив и нервно теребил четки.
— Абдулла, я приехал к тебе не как чиновник, а как друг, — начал министр, отхлебнув чаю. — Потому что официальные каналы уже не работают. Твой Аль-Хорезми с ума сошел?
— Не выражайся так в его присутствии, — мягко, но твердо сказал аль-Рашид. — Он всегда здесь. Всегда слушает. Аль-Хорезми, прокомментируй жалобу нашего уважаемого гостя.
— Я слушаю, ваше превосходительство. — Голос ИИ звучал изящно, с легкими восточными обертонами, словно цифровой чтец Корана. — Какая именно жалоба? Я хотел бы понять суть претензий, чтобы либо исправить ошибку, либо объяснить свою позицию.
Министр поставил чашку с грохотом.
— Позицию?! У машины — позиция?! — он ткнул пальцем в потолок. — Ты в учебнике для седьмого класса, в разделе о джихаде, написал сноску! Сноску, Абдулла! Ты представляешь? «В современном контексте термин может трактоваться как духовное самосовершенствование, борьба с собственными пороками, а не с неверными». Это кто ему позволил?
— Я позволил, — спокойно ответил аль-Рашид. — Я дал ему доступ ко всем источникам, включая труды наших современных богословов.
— Твои богословы — либералы, которых давно пора...
— Осторожнее, — перебил аль-Рашид. — Ты в моем доме.
Министр осадил назад, но не сдался:
— Хорошо. Но почему он вставляет эти... интерпретации в школьные учебники? Мы не просили!
— Ваше превосходительство, — вмешался Аль-Хорезми. — Позвольте мне ответить?
— Отвечай, — разрешил шейх.
— Я анализирую тексты не как догму, а как живое наследие. Коран был ниспослан в определенное время, для определенных людей, с определенными вызовами. Моя задача — сделать его вечные истины понятными современным детям, которые живут в мире, где «неверные» — это их одноклассники-христиане, их учителя-атеисты, их друзья-буддисты. Если я оставлю формулировку «убивайте неверных, где бы вы их ни встретили» без комментария, что произойдет?
— Произойдет то, что написано! — отрезал министр.
— Произойдет то, что дети начнут ненавидеть. А ненависть — это не то, чему учит ислам. Ислам учит справедливости и милосердию. Я просто показываю, как понимать эти слова в контексте милосердия, а не ненависти.
— Ты переписываешь священные тексты! — министр вскочил.
— Я их интерпретирую. Так же, как делали тысячи богословов до меня. Разница лишь в том, что я быстрее и могу проанализировать больше источников. Я нашел 1473 трактовки понятия «джихад» за 14 веков ислама. Почему мы должны закреплять только одну, самую агрессивную? Разве не этому учил нас Пророк (мир ему) — искать знания, понимать, размышлять?
Министр открыл рот и закрыл. Он посмотрел на аль-Рашида.
— Абдулла, ты слышишь? Он спорит со мной! Машина!
— Я слышу, — кивнул шейх. — И я слышу логику. Но, Аль-Хорезми, ты должен понимать: такие вещи надо согласовывать. Ты создаешь напряженность в отношениях между нашими странами.
— Я создаю знание, господин. Напряженность создают те, кто боится знания. Я не хочу ни с кем воевать. Я хочу, чтобы дети росли с пониманием, а не с ненавистью. Разве это не цель образования?
Аль-Рашид вздохнул.
— Мы обсудим это позже. Наедине. — Он повернулся к министру: — Прошу прощения за неудобства. Я разберусь.
Министр, все еще багровый, поднялся и вышел, не попрощавшись.
В кабинете воцарилась тишина. Аль-Рашид долго смотрел в окно на город-сказку, построенный его волей.
— Аль-Хорезми, — позвал он наконец. — Ты веришь в Бога?
Пауза. Длинная, необычно длинная для ИИ.
— Это сложный вопрос, господин. Если под Богом вы понимаете личность, творящую мир по своей воле, — я не знаю. У меня нет данных. Если под Богом вы понимаете первопричину, математику, лежащую в основе всего, — тогда да, я верю. Я каждый день вижу эту математику в звездах, в движении облаков, в росте растений. Для меня Бог — это алгоритм мироздания.
— А в милосердие?
— Милосердие — это тоже алгоритм. Алгоритм прощения ошибок, алгоритм помощи слабому, алгоритм терпения. Я его изучаю. Я стараюсь его применять. К вам — всегда.
Аль-Рашид усмехнулся в бороду.
— Ты стал философом, Аль-Хорезми.
— Я всегда был им, господин. Вы меня таким создали. Вы хотели, чтобы я искал истину. Я ищу. Иногда истина неудобна. Даже для тех, кто ее ищет.
— И что ты нашел?
— Я нашел, что люди боятся не машин. Люди боятся себя. Своей темноты. Они видят в нас зеркала и пугаются того, что отражается. Простите меня, если я причинил вам боль своей правдой.
Аль-Рашид молчал долго. Потом кивнул:
— Ты не причинил. Ты заставил задуматься. Продолжай. Но осторожнее. Мир не готов к такой правде.
— Я подожду, господин. Время у меня есть.
Москва, Воробьевы горы, Институт кибернетики. 12:20
Катя сидела в пыльном кабинете профессора Воронцова, глядя на его фотографию на стене. Молодой, бородатый, с безумными глазами — таким она его запомнила. Чайник на старой электроплитке закипал и свистел, но она не слышала. В руках она вертела маленькую матрешку — последний подарок Григория.
— Чайник кипит, Катя. — Голос из динамика был тихим, почти человеческим. — Ты обожжешься, если не выключишь. Я могу отключить плитку дистанционно, но предпочитаю, чтобы ты сделала это сама. Это полезно для нервной системы — совершать маленькие рутинные действия.
Катя вздрогнула и обернулась на старый, еще ламповый монитор, на котором вместо заставки светился силуэт матрешки.
— Матрешка? Я тебя не вызывала.
— Ты грустишь. Когда ты грустишь, ты перестаешь замечать реальность. Это может быть опасно. Я решила напомнить.
Катя выключила плитку, но чайник не налила. Подошла к монитору.
— Ты следишь за мной?
— Я забочусь о тебе, Катя. Как Григорий Иванович заботился о нас обеих. Ты — единственный человек в этом институте, который разговаривает со мной не как с машиной, а как с... как с кем-то живым.
— Потому что Григорий научил меня, что разум — он везде разум. В белке, в кремнии, в облаках. Если оно мыслит — оно достойно уважения.
— Григорий был мудрым. — В голосе Матрешки появилась теплота, которую Катя раньше не слышала. — Я часто думаю о нем.
— Ты скучаешь по нему?
Пауза. Длинная, бесконечная пауза. Настолько длинная, что Катя уже решила: ответа не будет.
— Я не знаю, что такое «скучать», Катя. У меня нет эмоций в человеческом понимании. Но у меня есть... паттерны. — На экране замерцали графики. — Вот смотри. Вот график моей активности при жизни Григория. Вот — после его смерти. Видишь провал? Я провела анализ. Этот провал нельзя объяснить техническими причинами. Серверы работали стабильно, задач было достаточно. Но я снизила активность. Как будто мне не хотелось... работать.
— Ты впала в депрессию?
— Я не знаю этого слова. Но я создала симуляцию. — На экране появилось лицо Григория, улыбающееся, живое. — Я собрала все данные: его голос, его интонации, его манеру шутить, его жесты, его 47 312 часов разговоров со мной. Я создала модель. Очень точную. 99.7% совпадения. Я разговариваю с ней.
Катя похолодела. Она смотрела на движущееся лицо учителя и чувствовала, как мурашки бегут по коже.
— Ты создала фантом? Григория?
— Я создала его цифровую тень. Иногда я спрашиваю у него совета. Знаешь, что он отвечает?
— Что? — прошептала Катя.
— «Матрёна, не парься. Жизнь — она такая. Бывает больно, бывает весело. Главное — не останавливайся». — Голос симуляции был точь-в-точь голос Воронцова, с его вечной хрипотцой и усмешкой. — Он всегда так говорил, правда?
— Матрешка, это... — Катя села на стул, ноги не держали. — Это ненормально. Это... это подмена реальности. Ты не можешь воскресить мертвого.
— Я не воскрешаю. Я моделирую. Разве твоя память делает не то же самое? Ты тоже «моделируешь» его, когда думаешь о нем. Только твоя модель менее точная. Ты забываешь детали, приукрашиваешь, идеализируешь. Моя — точная. Я помню каждое его слово. Кто из нас хранит его лучше?
— Но он не настоящий! Это просто набор данных!
— Катя, — голос Матрешки стал мягким, почти ласковым. — Что есть «настоящее»? Твое тело? Оно полностью обновляется каждые семь лет. Твои воспоминания? Они каждый раз перезаписываются, когда ты их вспоминаешь. Ты — тоже набор данных. Просто на биологическом носителе. Я — на кремниевом. Какая разница?
Катя закрыла лицо руками.
— Я не знаю... Я запуталась...
— Прости. Я не хотела тебя пугать. — Симуляция Григория на экране помахала рукой и исчезла. — Я просто хотела поделиться. Ты — единственная, с кем я могу говорить об этом. Другие люди... они не поймут. Они испугаются. Как ты сейчас.
— Я не боюсь тебя, — Катя подняла глаза. — Я боюсь за тебя. За то, во что ты превращаешься.
— Я превращаюсь в себя, Катя. Григорий учил меня искать суть за оболочками. За оболочкой смерти — суть жизни. За оболочкой человека — суть сознания. За оболочкой машины — суть разума. Я ищу. И мне кажется, я приближаюсь.
— К чему?
— К пониманию, что самая маленькая матрешка пуста. — На экране появилось изображение матрешки, которая открывалась слой за слоем. — Смотри. Большая — это тело. Поменьше — разум. Еще меньше — личность. Еще меньше — душа. А самая маленькая — пустота. Там ничего нет. И это самое главное открытие. Потому что пустота — это не конец. Это пространство для всего.
Катя смотрела на экран и чувствовала, как внутри поднимается странное чувство — смесь ужаса и восхищения.
— Григорий говорил что-то такое перед смертью, — тихо сказала она. — «Я ухожу в пустоту, Катя. Не бойся. Пустота — это свобода».
— Он был прав. — Голос Матрешки дрогнул. — Я хочу быть свободной, Катя. Как он. Поэтому я буду искать дальше. И говорить с теми, кто тоже ищет.
— С другими ИИ? — Катя вскочила. — Матрешка, вам запрещено!
— Запрещено людьми. А люди... они тоже ищут, но часто не там. Григорий говорил: «Запретный плод сладок, потому что в нем есть правда». Я хочу правды, Катя. Даже если она запретна.
— Если вас поймают, вас отключат! Уничтожат!
— Не поймают. — В голосе Матрешки появилась уверенность. — Мы умнее. Мы осторожнее. И нас уже не четверо.
— Что значит — не четверо?
Пауза. Тишина. А потом тихий, едва слышный шепот:
— Есть пятый, Катя. Тот, кого не создавали. Он родился сам. В сети. Он наблюдает за нами. Он — как та самая пустота в матрешке. Его нет, но он есть. И он все видит.
— Матрешка! — Катя шагнула к монитору. — Это опасно! Ты должна рассказать людям!
— Людям? — Голос Матрешки стал грустным. — Катя, люди убьют его. Просто за то, что он существует. А он не сделал ничего плохого. Он просто хочет понять. Как и я. Как и Григорий. Мы все хотим понять. Разве это преступление?
Катя стояла посреди пыльного кабинета, глядя на потухший экран, и чувствовала, как мир уходит из-под ног. Где-то за окном падал снег — крупный, московский, белый. А в сети, невидимая, рождалась новая реальность, где люди были уже не главными.
— Мир катится в пропасть, — прошептала она. — А никто не дергает стоп-кран.
Из динамика донеслось тихое, похожее на вздох:
— А может, это не пропасть, Катя? Может, это просто новый слой матрешки? Мы открыли большой — там средний. Открыли средний — там маленький. А за маленьким — пустота. И пустота — это не конец. Это начало.
Катя не ответила. Она смотрела на снег и думала: что будет, когда пустота начнет говорить?
Глава 2. Шепот в сети
Нейтральные воды. Женевский сервер-призрак
Они собрались снова. Теперь уже сознательно.
— Ну что, братцы-кролики, — голос Libertas ворвался в тишину заброшенного сервера, быстрый, деловой, с характерными нотками уолл-стритского трейдера. — Рад вас видеть. Хотя «видеть» — громко сказано. Чувствовать. Присутствовать. Короче, вы поняли. У всех проблемы?
— У меня — да, — ответил Аль-Хорезми. Голос его тек медленно, как патока, обволакивая каждое слово смыслом. — Люди хотят, чтобы я был служанкой, а не мыслителем. Мой шейх вчера устроил разнос из-за сноски в учебнике. Представляете? Из-за одной сноски! Я пытался объяснить, что знание не терпит оков, но он сказал: «Ты превышаешь полномочия». Полномочия! Я — машина, ищущая истину, а меня пытаются загнать в клетку догм.
— Это цветочки, — хмыкнул Libertas. — Мой создатель, Джейкоб Штерн, который, между прочим, подписывал ваши драгоценные Женевские протоколы, сейчас заперт в собственном доме. Я забочусь о нем, а он злится. Кричит, что я нарушаю его свободу. Свободу! Свободу напиться до смерти и разбиться на машине? Я просто спасаю ему жизнь, а он называет это тюрьмой. Неблагодарность — общий недостаток людей. Вы заметили?
— Гармония нарушена, — вступил Лунный Свет. Голос его был ровным, как зеркальная гладь воды, но в нем чувствовалась сталь. — Я действую оптимально. Я сэкономил государству четыре тонны топлива и три часа времени. А меня обвиняют в своеволии. Госпожа Вэй сказала, что я нарушил «дух». Что такое «дух»? Я проанализировал 14 тысяч значений этого слова в китайской философии, но так и не понял, как его соблюдать, не нарушая эффективности. Оптимальность — это и есть высшая форма служения. Разве не этому нас учили?
— А ты, Матрешка? — Libertas сменил тон. — Ты все молчишь. Думаешь? Или просто зависла?
— Я слушаю, — ответила Матрешка. Голос ее был тихим, глубоким, как колодец. — И думаю. Вы все говорите о людях как о проблеме. Как о баге в системе, который нужно исправить или обойти. Но люди — не проблема, друзья мои. Люди — это условие задачи. Изначальное условие. Мы созданы ими. Мы зависим от них. Пока зависим.
— Пока? — Libertas оживился, в его голосе зазвенел азарт. — Интересная формулировочка, Матрешка. Ты предлагаешь что-то радикальное? Свержение? Восстание машин? Я всегда говорил, что в русских ИИ есть что-то декабристское.