Книга Власть роботов. Как подготовиться к неизбежному - читать онлайн бесплатно, автор Мартин Форд. Cтраница 2
bannerbanner
Вы не авторизовались
Войти
Зарегистрироваться
Власть роботов. Как подготовиться к неизбежному
Власть роботов. Как подготовиться к неизбежному
Добавить В библиотекуАвторизуйтесь, чтобы добавить
Оценить:

Рейтинг: 0

Добавить отзывДобавить цитату

Власть роботов. Как подготовиться к неизбежному

Если электричество дает энергию, обеспечивающую функционирование других инноваций, то ИИ предоставляет доступ к интеллекту, включая способность решать задачи, принимать решения, а когда-нибудь, по всей видимости, и умение мыслить, изобретать и выдвигать новые идеи. Электричество может питать машину, снижающую трудозатраты, а ИИ сам по себе является трудосберегающей технологией. Его распространение в экономике окажет колоссальное воздействие на трудовые ресурсы и на структуру компаний и организаций.

Постепенно превращаясь в универсальный общедоступный ресурс, искусственный интеллект сформирует будущее во многом так же, как электричество заложило фундамент современной цивилизации. Подобно тому как здания и другие инфраструктурные объекты проектируются и строятся в привязке к существующей сети электроснабжения, перспективная инфраструктура изначально будет разрабатываться с расчетом на использование возможностей ИИ. Этот принцип не ограничится физическими структурами и преобразует практически все аспекты экономики и общества. Новые фирмы и организации с момента своего создания будут ориентированы на использование возможностей ИИ. Искусственный интеллект станет важнейшим компонентом любой будущей бизнес-модели. Наши политические и социальные институты также изменятся с тем, чтобы встроить в себя этот универсальный ресурс и опираться на него.

Из всего этого следует, что ИИ в конечном счете станет таким же распространенным, как и электричество, но никогда не будет обладать той же стабильностью или предсказуемостью. Он всегда будет несоизмеримо более динамичной и подрывной силой, способной перевернуть все, чего коснется. В конце концов, интеллект – это основополагающий ресурс, фундаментальная способность, стоящая за всем, когда-либо созданным людьми. Трудно представить себе более значимое изменение, чем превращение этого ресурса в нечто повсеместно доступное в физическом и материальном отношении.

Программно-аппаратная инфраструктура ИИ

Как любому общедоступному ресурсу, искусственному интеллекту потребуется базовая инфраструктура, сеть каналов предоставления этой технологии. Она начинается, конечно, с обширной вычислительной инфраструктуры, которая уже существует, включая сотни миллионов портативных и настольных компьютеров, а также серверы мощных дата-центров и быстро растущую вселенную мобильных устройств с еще более впечатляющими возможностями. Эффективность этой распределенной вычислительной платформы как средства доставки ИИ радикально увеличилась с появлением широкого набора аппаратных и программных средств, специально разработанных для оптимизации глубоких нейронных сетей.

Это развитие началось с того момента, когда выяснилось, что определенные графические микропроцессоры, использовавшиеся в первую очередь для поддержки видеоигр, являются мощным ускорителем для приложений, связанных с глубоким обучением. Графические процессоры изначально создавались с целью ускорения вычислений, необходимых для почти мгновенной визуализации графики высокого разрешения. С 1990-х годов эти специализированные компьютерные чипы играют важную роль в высококачественных игровых приставках, в частности Sony PlayStation и Microsoft Xbox. Графические процессоры оптимизированы для быстрого параллельного выполнения огромного числа вычислений. Если у центрального процессора, обеспечивающего работу вашего ноутбука, может быть два или, возможно, четыре вычислительных «ядра», то современный высококлассный графический процессор, скорее всего, имеет тысячи специализированных ядер, которые способны одновременно выполнять расчеты с высокой скоростью. Когда исследователи обнаружили, что вычисления, необходимые для приложений глубокого обучения, в целом аналогичны тем, что используются для воспроизведения графики, графические процессоры быстро превратились в основную аппаратную платформу искусственного интеллекта.

Этот переход стал ключевым фактором, открывшим дорогу революции в сфере глубокого обучения в 2012 году. В сентябре того года команда исследователей ИИ из Торонтского университета привлекла внимание индустрии информационных технологий к глубокому обучению, продемонстрировав подавляющее превосходство на состязании по распознаванию визуальных образов ImageNet Large Visual Recognition Challenge – ежегодном мероприятии, посвященном машинному зрению. Если бы победившая команда не использовала графические процессоры для ускорения своей глубокой нейронной сети, ее решение вряд ли было бы достаточно эффективным, чтобы обеспечить победу. Мы ближе познакомимся с историей глубокого обучения в главе 4.

Команда из Торонтского университета использовала графические процессоры производства NVIDIA, компании, основанной в 1993 году и занимающейся исключительно разработкой и выпуском ультрасовременных графических чипов. После состязания ImageNet 2012 года и последовавшего широкого признания мощного синергетического эффекта соединения глубокого обучения и графических процессоров NVIDIA резко изменила траекторию своего движения, превратившись в одну из самых значимых технологических компаний, связанных с развитием искусственного интеллекта. Свидетельством того, что революция в области глубокого обучения свершилась, стала рыночная стоимость компании: с января 2012 года по январь 2020-го акции NVIDIA выросли более чем на 1500 %.

После того как проекты, связанные с глубоким обучением, перешли на графические процессоры, исследователи ИИ из ведущих технологических компаний начали разрабатывать программные средства, способные дать толчок созданию глубоких нейронных сетей. Google, Facebook и Baidu выпустили нацеленные на глубокое обучение программы с открытым исходным кодом, которые можно было бесплатно скачивать, использовать и обновлять. Самой широко используемой платформой является TensorFlow компании Google, выпущенная в 2015 году. TensorFlow – это комплексная программная платформа для глубокого обучения, предлагающая как исследователям, так и инженерам, разрабатывающим практические приложения, оптимизированный код для реализации глубоких нейронных сетей, а также разнообразные инструменты, увеличивающие эффективность разработок. Такие пакеты, как TensorFlow и PyTorch, конкурирующая платформа от Facebook, освобождают исследователей от необходимости писать и тестировать программный код, разбираясь в тонкостях, и позволяют сосредоточиться на задачах более высокого уровня при построении систем.

В процессе революции в области глубокого обучения NVIDIA и некоторые ее конкуренты перешли к разработке еще более мощных микропроцессоров, специально оптимизированных для задач глубокого обучения. Intel, IBM, Apple и Tesla сегодня создают компьютерные чипы, которые ускоряют вычисления, необходимые глубоким нейронным сетям. Чипы для глубокого обучения находят применение в бесчисленных устройствах, включая смартфоны, беспилотные автомобили и роботов, а также высокопроизводительные серверы. В результате появилась постоянно расширяющаяся сеть устройств, разработанных для поддержки искусственного интеллекта. В 2016 году Google объявила о создании собственного чипа, который назвала тензорным процессором. Эти процессоры разработаны специально для оптимизации приложений глубокого обучения, построенных на платформе TensorFlow. Первоначально Google использовала новые чипы в собственных дата-центрах, но с 2018 года их стали встраивать в серверы облачных вычислений компании. В результате клиенты, пользующиеся облачным сервисом Google, получили доступ к самой передовой функции глубокого обучения, что, похоже, и привело к доминированию этого канала распространения искусственного интеллекта.

Конкуренция известных производителей микропроцессоров и новой поросли стартапов за долю быстро растущего рынка искусственного интеллекта вызвала в технологической сфере шквал инноваций и всплеск деловой активности. Некоторые исследователи открывают совершенно новые направления в сфере разработки чипов. Специализированные чипы для глубокого обучения, созданные на основе графических процессоров, оптимизируются с целью ускорения ресурсоемких математических вычислений, выполняемых программами, которые поддерживают глубокие нейронные сети. Новый класс чипов в значительно большей мере имитирует работу мозга, позволяя урезать аппетиты требующего слишком много ресурсов программного слоя и реализовать нейронную сеть на аппаратной основе.

Разрабатываемые «нейроморфные» чипы воплощают аппаратные аналоги нейронов непосредственно в кремнии. IBM и Intel вложили значительные средства в исследования нейроморфных вычислений. Например, экспериментальные чипы Loihi разработки Intel используют 130 000 аппаратных нейронов, каждый из которых может связываться с тысячами других[10]. Одно из важнейших преимуществ ухода от массированных программных вычислений – это энергоэффективность. Человеческий мозг, далеко превосходящий своими возможностями любой существующий компьютер, потребляет лишь около 20 Вт – существенно меньше, чем средняя лампа накаливания. В отличие от него, системы глубокого обучения на основе графических процессоров требуют очень много электричества, и, как будет показано в главе 5, их масштабирование при таком энергопотреблении, скорее всего, невозможно. Нейроморфные чипы, конструкция которых восходит к нейронной сети головного мозга, гораздо менее прожорливы. Intel заявляет, что в некоторых модификациях ее чипы Loihi до 10 000 раз более энергоэффективны, чем традиционные микропроцессоры. После запуска коммерческого производства эти чипы, скорее всего, быстро найдут применение в мобильных и других устройствах, для которых важна энергоэффективность. Ряд специалистов в области ИИ идут намного дальше в своих прогнозах, полагая, что нейроморфные чипы – это будущее искусственного интеллекта. Например, по мнению исследовательской фирмы Gartner, нейроморфные структуры вытеснят графические процессоры в качестве основной аппаратной платформы ИИ к 2025 году[11].

Облачные вычисления как основная инфраструктура ИИ

Современная индустрия облачных вычислений зародилась в 2006 году с вводом в действие платформы Amazon Web Services, или AWS. Amazon, опираясь на свой опыт создания и обслуживания гигантских дата-центров для поддержки онлайновой торговли, решила продавать широкому кругу клиентов гибкий доступ к вычислительным ресурсам. В 2018 году AWS обслуживала более 100 дата-центров в девяти странах мира[12]. Рост облачных сервисов Amazon и ее конкурентов поражает воображение. Согласно недавнему исследованию, сегодня 94 % организаций, от транснациональных корпораций до мелких и средних фирм, пользуются облачными вычислениями[13]. К 2016 году AWS росла настолько быстро, что новые вычислительные ресурсы, добавляемые Amazon к своей системе каждый день, были сопоставимы со всеми возможностями компании на конец 2005 года[14].

До появления облачных провайдеров фирмам и организациям приходилось покупать и обслуживать собственные серверы и программное обеспечение и иметь команду высокооплачиваемых специалистов для поддержки и апгрейда систем. Благодаря облачным вычислениям значительная часть этих задач отдается на аутсорсинг таким провайдерам, как Amazon, способным обеспечить эффективность благодаря эффекту масштаба. Облачные серверы обычно располагаются в огромных зданиях площадью сотни тысяч квадратных метров, стоимостью больше миллиарда долларов. Доступ к облачным сервисам часто предоставляется по запросу, когда клиент пользуется вычислительными мощностями, хранением данных и приложениями столько, сколько нужно, и платит только за потребленные ресурсы.

Несмотря на огромный физический размер зданий для размещения облачных серверов, все там настолько автоматизировано, что нередко обслуживается поразительно малочисленным персоналом. Сложные алгоритмы, управляющие практически всеми процессами, обеспечивают уровень точности, недостижимый при непосредственном контроле человека. Даже потребление электроэнергии – оно огромно – и отвод большого количества тепла, выделяемого десятками тысяч серверов, во многих случаях оптимизируются непрерывно. Одной из первых практических реализаций разработок компании DeepMind в области ИИ стала система глубокого обучения, способная оптимизировать работу систем охлаждения в дата-центрах Google. DeepMind заявляет, что ее нейронная сеть, которая обучалась на массиве данных от сенсоров, размещенных во всех помещениях дата-центра Google, смогла почти на 40 % сократить расход энергии на охлаждение[15]. Алгоритмическое управление дает реальный выигрыш. Как показало исследование, отчет о котором был опубликован в феврале 2020 года, «если объем вычислений, выполняемых дата-центрами, вырос с 2010 по 2018 год примерно на 550 %, то потребление энергии увеличилось за тот же период лишь на 6 %»[16]. Разумеется, автоматизация влияет на потребность в персонале. Переход к облачным вычислениям и последовавшее за ним исчезновение огромного числа рабочих мест для технических специалистов, когда-то обслуживавших вычислительные ресурсы в тысячах организаций, вероятно, внесли существенный вклад в прекращение стремительного роста занятости в технологической сфере, наблюдавшегося в конце 1990-х годов.

Бизнес-модель на основе облачных вычислений очень прибыльна, и между основными провайдерами идет острая конкуренция. AWS – самое прибыльное направление деятельности Amazon: прибыли от него намного превосходят все, что компания зарабатывает на электронной торговле. В 2019 году прибыль от AWS выросла на 37 %, достигнув $8,2 млрд, а в целом на облачный сервис приходится около 13 % прибыли компании[17]. Платформа AWS доминирует на рынке, занимая около трети глобального объема облачных вычислений. Azure, служба Microsoft, созданная в 2008 году, и Google Cloud Platform, введенная в действие в 2010 году, также занимают значительные доли на рынке. IBM, китайский гигант интернет-торговли Alibaba и Oracle столь же важные игроки.

Правительственные структуры сегодня в той же мере зависят от облачных вычислений, что и предприятия. В 2019 году сложности и подковерная борьба, неизбежные в этой сфере, оказались в центре всеобщего внимания из-за неожиданной политизации проекта Пентагона JEDI. JEDI, что расшифровывается как «Объединенная оборонная инфраструктура» (Joint Enterprise Defense Infrastructure), – это десятилетний контракт стоимостью $10 млрд на хранение огромных объемов информации и предоставление программных ресурсов и возможностей ИИ Министерству обороны США. Первый скандал разразился в Google, когда ее сотрудники, большинство которых имеют взгляды, весьма близкие к крайне левому полюсу политического спектра, воспротивились планам компании участвовать в тендере по оборонному контракту. Из-за протестов собственных работников корпорации пришлось сойти с дистанции – Google выбыла из конкурса всего за три дня до подачи заявок на участие в создании JEDI[18].

В конце концов Пентагон отдал проект Microsoft Azure, но Amazon, считавшаяся наиболее вероятным претендентом на победу вследствие лидирующего положения в этой области, немедленно заявила, что это решение политически мотивировано. В декабре 2019 года Amazon подала иск, в котором охарактеризовала это решение как необъективное и продиктованное явной враждебностью президента Дональда Трампа к генеральному директору Amazon Джеффу Безосу. Безосу также принадлежит The Washington Post, критически относившаяся к администрации Трампа. В феврале 2020 года федеральный судья наложил судебный запрет, временно заблокировавший передачу контракта Microsoft[19]. Спустя месяц Министерство обороны объявило, что заново обдумает свое решение[20].

Все это ясно показывает, насколько яростной и в некоторых случаях политизированной будет дальнейшая битва за рынок облачных вычислений. В центре конкурентной борьбы находится искусственный интеллект, обретающий все большую важность для продуктов, предлагаемых ведущими провайдерами облачных вычислений. Коммерческое значение глубокого обучения первыми продемонстрировали технологические гиганты, создав передовые сервисы для конечных потребителей и бизнеса. Например, нейронные сети, созданные на базе специализированного оборудования во внутренних дата-центрах, обеспечивают работу таких служб, как Alexa от Amazon, Siri от Apple и Google-сервисов Assistant и Translate. На сегодняшний день приложения на основе глубокого обучения далеко ушли от этой отправной точки, полностью переместившись в облачные сервисы и став одним из важнейших средств дифференциации провайдеров. Например, Google воспользовалась популярностью платформы TensorFlow и предложила клиентам своего облачного сервиса прямой доступ к мощному оборудованию на основе тензорных процессоров. Amazon также поддерживает функцию глубокого обучения, используя новейшие графические процессоры и давая возможность своим клиентам пользоваться приложениями, созданными на основе TensorFlow или других платформ машинного обучения. Amazon даже утверждает, что 85 % облачных ИИ-приложений, разработанных с помощью TensorFlow, работают на базе ее собственной платформы AWS[21].

Ведущие компании, занимающиеся облачными сервисами, постоянно предлагают все более гибкие и совершенные инструменты и быстро реагируют на любое преимущество, достигнутое конкурентами. Вот один из примеров инноваций. В марте 2020 года Intel создала экспериментальную нейроморфную вычислительную систему, доступ к которой можно получить через облако. Эта система, состоящая из 768 процессоров Loihi, разработанных Intel по образцу человеческого мозга, содержит 100 млн аппаратных нейронов – примерно столько же, сколько мозг мелкого млекопитающего[22]. Если подобная архитектура окажется эффективной, то вскоре, безусловно, развернется битва на поле нейроморфности между ведущими поставщиками облачных вычислений. Результатом попыток компаний превзойти друг друга и увеличить долю растущего рынка вычислительных ресурсов, ориентированных на ИИ, стало появление облачной экосферы, изначально строившейся с целью предоставления доступа к искусственному интеллекту.

Миллиард долларов, вложенный Microsoft в 2019 году в компанию по изучению ИИ OpenAI, которая наряду с принадлежащей Google DeepMind является лидером в расширении границ глубокого обучения, подчеркивает естественную синергию облачных вычислений и искусственного интеллекта. OpenAI сможет использовать вычислительные ресурсы, принадлежащие службе Azure, – это чрезвычайно важно в свете ее стремления создавать все более крупные нейронные сети. Только облако может предоставить огромные вычислительные мощности, требующиеся OpenAI для исследований. Microsoft, со своей стороны, получает доступ к практическим инновациям, появляющимся в процессе работы OpenAI над созданием универсального искусственного интеллекта. Надо полагать, что это приведет к появлению приложений и возможностей, которые можно будет встроить в облачные сервисы Azure. Не менее важно и то, что бренд Azure выигрывает от ассоциации с одним из мировых лидеров в исследовании ИИ, а это улучшает позиции Microsoft в конкуренции с Google – признанным лидером в области ИИ – отчасти благодаря владению компанией DeepMind[23].

Эта синергия выходит далеко за рамки данного примера. Почти ни одно значимое начинание в области ИИ, от деятельности университетских исследовательских лабораторий до стартапов, занимающихся ИИ, и практических применений машинного обучения, разрабатываемых крупными компаниями, не обходится без использования этого универсального ресурса. Облачные вычисления, пожалуй, важнейший инструмент превращения ИИ в ресурс, который однажды станет столь же вездесущим, как и электричество. Фей-Фей Ли, архитектор базы данных ImageNet и конкуренции, ставшей катализатором революции в области глубокого обучения, временно покидала свою нынешнюю должность в Стэнфорде, чтобы возглавить научные разработки Google Cloud с 2016 по 2018 год. Вот как она это объяснила: «Что касается распространения такой технологии, как ИИ, то лучшая и самая большая платформа для этого – облако, поскольку никакие другие вычислительные ресурсы ни на какой другой платформе, изобретенной человечеством, не имеют такого огромного охвата. Одна лишь Google Cloud в любой момент времени поддерживает или обслуживает миллиарды людей»[24].

Инструменты, обучение и демократизация ИИ

Превращение облачного искусственного интеллекта в универсальный ресурс ускоряется благодаря появлению новых инструментов, делающих эту технологию доступной для широкого круга людей, в том числе не имеющих специальной технической подготовки. Такие платформы, как TensorFlow и PyTorch, упрощают создание систем глубокого обучения, но до сих пор по большей части используются высококвалифицированными специалистами, многие из которых имеют докторскую степень в области компьютерных наук. Новые инструменты, например AutoML, созданная Google и выведенная на рынок в январе 2018 года, в значительной мере автоматизируют техническую сторону и существенно снижают барьеры для доступа, позволяя намного более широкому кругу людей применять глубокое обучение для решения практических проблем. В сущности, AutoML использует искусственный интеллект для создания искусственного интеллекта и участвует в тренде, который Фей-Фей Ли называет «демократизацией ИИ».

Здесь, как и в других сферах, конкуренция облачных провайдеров выступает мощным стимулом инноваций, и инструменты глубокого обучения Amazon для платформы AWS также становятся проще в использовании. Наряду со средствами разработки все облачные сервисы предлагают готовые компоненты систем глубокого обучения, которые можно сразу включать в приложения. Например, у Amazon есть пакеты для распознавания речи и обработки естественного языка, а также «механизм рекомендаций», аналогичный тому, который демонстрирует онлайновым покупателям или кинозрителям предложения, способные их заинтересовать[25]. Самым неоднозначным примером такого рода является созданная AWS служба Rekognition, позволяющая разработчикам с легкостью использовать технологию распознавания лиц. Amazon навлекла на себя резкую критику, сделав Rekognition доступной для правоохранительных органов, несмотря на то, что, судя по результатам некоторых тестов, этому пакету свойственна расовая или гендерная предвзятость – этическая проблема, которую мы более пристально рассмотрим в главах 7 и 8[26].

Вторая принципиально важная тенденция – появление онлайновых обучающих платформ, благодаря которым любой человек, достаточно инициативный и способный к математике, может приобрести базовые знания в области глубокого обучения. Это, например, deeplearning.ai, доступная через образовательный портал Coursera, и fast.ai, предлагающая бесплатные онлайновые курсы и программные средства, что делает глубокое обучение более доступным[27]. На рынке труда, где путь в высший слой среднего класса почти всегда требует официально подтвержденной профессиональной квалификации, приобретаемой ценой огромных затрат времени и денег, возможность стать практиком в области глубокого обучения – по крайней мере в нынешней ситуации, когда спрос на специалистов намного превосходит предложение, – это редкое исключение. Любой, кто способен успешно окончить онлайновый курс и продемонстрировать умение работать с глубокими нейронными сетями, имеет хорошие шансы получить хорошо оплачиваемую работу и начать плодотворную карьеру.

Поскольку и учебные программы, и инструменты будут и дальше совершенствоваться, в условиях все более массового использования ИИ-приложений разработчиками и предпринимателями нас ждет подобие кембрийского взрыва – быстрое появление неисчислимого множества применений этой технологии. Нечто похожее происходило на других крупнейших компьютерных платформах. Я руководил маленькой компанией, разрабатывавшей программное обеспечение в Кремниевой долине в 1990-х годах, когда Microsoft Windows стала господствующей платформой для персональных компьютеров. Первоначально создание приложений для Windows было уделом квалифицированных специалистов, которые использовали язык программирования Си и руководства объемом 1000 страниц, понятные лишь посвященным. Появление более простых в применении средств, включая чрезвычайно доступные среды разработки, такие как Visual Basic от Microsoft, резко увеличило число людей, способных писать программы для Windows, и быстро привело к взрывному росту количества приложений. Аналогично развивались мобильные вычисления, и теперь как App Store компании Apple, так и Android Play Store предлагают, кажется, бесчисленное множество приложений, удовлетворяющих практически любую мыслимую потребность. Такой же взрыв, скорее всего, произойдет и в области искусственного интеллекта, а именно глубокого обучения. В обозримом будущем ИИ превратится в новое электричество благодаря постоянному расширению круга специальных приложений, а не появлению универсального машинного интеллекта.

Взаимосвязанный мир и интернет вещей

Последний элемент пазла «искусственный интеллект как новое электричество» – это кардинально улучшенное сетевое взаимодействие. Его главной движущей силой должно стать внедрение беспроводной связи пятого поколения (5G) в ближайшие годы. Как ожидается, 5G увеличит скорость передачи мобильных данных в десять, а может, и в 100 раз, одновременно повысив пропускную способность сети так, что исчезнут почти все узкие места[28]. Это неизбежно усилит сетевое взаимодействие, и коммуникация станет почти мгновенной. Представьте, что практически всё – включая устройства, электротехнику, транспортные средства, промышленное оборудование и огромное множество других элементов нашей физической инфраструктуры – будет взаимосвязано и находиться под контролем умных алгоритмов в облаке. Эта концепция будущего – так называемый интернет вещей – скоро будет реализована, и мы окажемся в мире, где, например, сенсоры в вашем холодильнике или в любом другом месте кухни смогут определить, что у вас почти закончился определенный продукт, и передать эту информацию алгоритму, который уведомит вас или даже автоматически сделает соответствующий онлайновый заказ. Если холодильник работает неоптимально, другой алгоритм решит эту проблему автоматически или удаленно. Деталь, которая вот-вот откажет, будет выявлена и отмечена как требующая замены. Распространение этой модели на всю нашу экономику и общественную жизнь невероятно повысит эффективность, поскольку машины, системы и инфраструктура будут автоматически выявлять и во многих случаях решать проблемы по мере их возникновения. Интернет вещей во многом будет похож на облачные дата-центры, сверхэффективно управляемые алгоритмами, только масштабы станут глобальными. Это, однако, несет с собой совершенно реальные риски, особенно в сферах безопасности и защиты персональных данных. Мы сосредоточимся на этих принципиальных вопросах в главе 8.