Книга Искусственный интеллект. С неба на землю - читать онлайн бесплатно, автор Джимшер Бухутьевич Челидзе. Cтраница 3
bannerbanner
Вы не авторизовались
Войти
Зарегистрироваться
Искусственный интеллект. С неба на землю
Искусственный интеллект. С неба на землю
Добавить В библиотекуАвторизуйтесь, чтобы добавить
Оценить:

Рейтинг: 4

Добавить отзывДобавить цитату

Искусственный интеллект. С неба на землю

Глава 4. Генеративный ИИ

Что такое генеративный искусственный интеллект?

Ранее мы рассмотрели ключевые направления для применения ИИ:

– прогнозирование и принятие решений;

– анализ сложных данных без четких взаимосвязей, в том числе для прогнозирования;

– оптимизация процессов;

– распознавание образов, в том числе изображений и голосовых записей;

– генерация контента.

Направления ИИ, которые сейчас на пике популярности, – распознавание образов (аудио, видео, числа) и на их основе генерация нового контента на базе запроса пользователя: аудио, текст, код, видео, изображения и так далее. В том числе к генеративному ИИ можно отнести и цифровых советников.

Проблемы генеративного ИИ

По состоянию на середину 2025 года направление генеративного ИИ нельзя назвать успешным. Так, например, в 2022 году компания OpenAI понесла убытки в размере $540 млн из-за разработки ChatGPT. А для дальнейшего развития и создания сильного ИИ потребуется еще около 100 млрд долларов. Такую сумму озвучил сам глава OpenAI. Такой же неблагоприятный прогноз на 2024 год дает и американская компания CCS Insight.

Для справки: операционные затраты Open AI составляют $700 000 в день на поддержание работоспособности чат-бота ChatGPT.

Общий тренд поддерживает и Алексей Водясов, технический директор компании SEQ: «ИИ не достигает тех маркетинговых результатов, о каких говорили ранее. Их использование ограничено моделью обучения, при этом затраты и объем данных для обучения растет. В целом же за хайпом и бумом неизбежно следует спад интереса. ИИ выйдет из фокуса всеобщего внимания так же быстро, как и вошел, и это как раз нормальное течение процесса. Возможно, спад переживут не все, но ИИ – это действительно „игрушка для богатых“, и таковой на ближайшее время и останется». И я согласен с Алексеем – после шумихи в начале 2023 года уже к осени наступило затишье.

Дополняет картину расследование Wall Street Journal, согласно которому, большинство ИТ-гигантов пока не научилось зарабатывать на возможностях генеративного ИИ. Microsoft, Google, Adobe и другие компании, которые вкладываются в искусственный интеллект, ищут способы заработать на своих продуктах. Несколько примеров:

– Google планирует повысить стоимость подписки на программное обеспечение с поддержкой ИИ;

– Adobe устанавливает ограничения на количество обращений к сервисам с ИИ в течение месяца;

– Microsoft хочет взимать с бизнес-клиентов дополнительные $30 в месяц за возможность создавать презентации силами нейросети.

Ну, и вишенка на торте – расчеты Дэвида Кана (David Cahn), аналитика Sequoia Capital, показывающая, что компаниям ИИ-индустрии придется зарабатывать около $600 млрд в год, чтобы компенсировать расходы на свою ИИ-инфраструктуру, включая ЦОД. Единственный, кто сейчас хорошо зарабатывает на ИИ, – разработчик ускорителей Nvidia.

Подробно статью можно прочитать по QR-коду и гиперссылке ниже.


AI industry needs to earn $600 billion per year to pay for massive hardware spend – fears of an AI bubble intensify in wake of Sequoia report


Вычислительные мощности – одна из главных статей расходов при работе с ГИИ: чем больше запросов к серверам, тем больше счета за инфраструктуру и электроэнергию. В выигрыше только поставщики «железа» и электроэнергии. Так, Nvidia в августе 2023 года заработала около $5 млрд благодаря продажам своих ускорителей для ИИ A100 и H100 только китайскому ИТ-сектору.

На практике это можно увидеть на двух примерах.

Первый – Zoom пытается снизить затраты, используя более простой чат-бот, разработанный своими силами и требующий меньших вычислительных мощностей по сравнению с последней версией ChatGPT.

Второй – наиболее известные разработчики ИИ (Microsoft, Google, Apple, Mistral, Anthropic и Cohere) стали делать фокус на создании компактных ИИ-моделей, так как они дешевле и экономичнее.

Большие модели, например, GPT-4 от OpenAI, у которых более 1 трлн параметров и стоимость создания оценивается в более 100 миллионов долларов, не имеют радикального преимущества перед более простыми решениями в прикладных задачах. Компактные модели обучаются на более узких наборах данных и могут стоить менее 10 миллионов долларов. При этом они решают целевые задачи, используя менее 10 миллиардов параметров.

Например, Microsoft представила семейство небольших моделей под названием Phi. По словам СЕО компании Сатьи Наделлы, решения модели в 100 раз меньше бесплатной версии ChatGPT, однако они справляются со многими задачами почти так же эффективно. Юсуф Мехди, коммерческий директор Microsoft, отметил, что компания быстро осознала, что эксплуатация крупных моделей ИИ обходится дороже, чем предполагалось изначально. Поэтому Microsoft начала искать более экономически целесообразные решения.

Также и Apple планирует использовать такие модели для запуска ИИ непосредственно на смартфонах, что должно повысить скорость работы и безопасность. При этом потребление ресурсов на смартфонах будет минимальным.

Сами эксперты считают, что для многих задач, например, обобщения документов или создания изображений, большие модели вообще могут оказаться избыточными. Илья Полосухин, один из авторов основополагающей статьи Google в 2017 году, касающейся искусственного интеллекта, образно сравнил использование больших моделей для простых задач с поездкой в магазин за продуктами на танке. «Для вычисления 2 +2 не должны требоваться квадриллионы операций», – подчеркнул он.

Но давайте разберем все по порядку, почему так сложилось и какие ограничения угрожают ИИ, а главное, что будет дальше? Закат генеративного ИИ с очередной ИИ-зимой или трансформация?

Ограничения ИИ, которые приводят к проблемам

Ранее я привел «базовые» проблемы ИИ. Теперь же давайте немного уйдем в специфику именно генеративного ИИ.

– Беспокойство компаний о своих данных

Любой бизнес стремится охранять свои корпоративные данные и любыми способами старается исключить их утечку. Это приводит к двум проблемам.

Во-первых, компании запрещают использование онлайн-инструментов, которые располагаются за периметром защищенной сети, в то время как любой запрос к онлайн-боту – это обращение во внешний мир. Вопросов к тому, как хранятся, как защищены и как используются данные, много.

Во-вторых, это ограничивает развитие вообще любого ИИ. Все компании от поставщиков хотят ИТ-решений с ИИ-рекомендациями от обученных моделей, которые, например, предскажут поломку оборудования. Но своими данными делится не готовы. Получается замкнутый круг.

Однако тут надо сделать оговорку. Некоторые ребята уже научились размещать языковые модели уровня ChatGPT3—3,5 внутри контура компаний. Но эти модели все равно надо обучать, это не готовые решения. И внутренние службы безопасности найдут риски и будут против.

– Сложность и дороговизна разработки и последующего содержания

Разработка любого «общего» генеративного ИИ – это огромные затраты – десятки миллионов долларов. Кроме того, вам нужно много данных, очень много данных. Нейросети пока обладают низким КПД. Там, где человеку достаточно 10 примеров, искусственной нейросети нужны тысячи, а то и сотни тысяч примеров. Хотя да, он может найти такие взаимосвязи, и обрабатывать такие массивы данных, которые человеку и не снились.

Но вернемся к теме. Именно из-за ограничения по данным тот же ChatGPT лучше «соображает», если с ним общаться на английском языке, а не на русском. Ведь англоязычный сегмент Интернета гораздо больше, чем наш с вами.

Добавим к этому затраты на электроэнергию, инженеров, обслуживание, ремонт и модернизацию оборудования и получим те самые 700 000 $ в день только на содержание ChatGPT. Много ли компаний могут потратить такие суммы с неясными перспективами монетизации (но об этом ниже)?

Можно снизить затраты, если разработать модель, а затем убрать все лишнее, но тогда это будет очень узкоспециализированный ИИ.

Поэтому большинство решений на рынке по факту являются GPT-фантиками – надстройками к ChatGPT.

– Беспокойство общества и ограничения регуляторов

Общество крайне обеспокоено развитием ИИ-решений. Государственные органы во всем мире не понимают, чего ожидать от них, как они повлияют на экономику и общество, насколько масштабна технология по своему влиянию. При этом его важность отрицать нельзя. Генеративные ИИ в 2023 году наделали больше шуму, чем когда-либо. Они доказали, что могут создавать новый контент, который можно спутать с человеческими творениями: тексы, изображения, научные работы. И доходит до того, что ИИ способен за считанные секунды разработать концептуальный дизайн для микросхем и шагающих роботов.

Второй фактор – безопасность. ИИ активно используют злоумышленники для атак на компании и людей. Так, с момента запуска ChatGPT число фишинговых атак возросло на 1265%. Или, например, с помощью ИИ можно получить рецепт изготовления взрывчатки. Люди придумывают оригинальные схемы и обходят встроенные системы защиты.

Третий фактор – непрозрачность. Как работает ИИ, не понимают порой даже сами создатели. А для столь масштабной технологии непонимание того, что и почему может быть сгенерировано, создает опасную ситуацию.

Четвертый фактор – зависимость от «учителей». ИИ-модели строят люди, и обучают его тоже люди. Да, есть самообучаемые модели, но будут развиваться и узкоспециализированные, а материал для их обучения будут отбирать люди.

Все это означает, что отрасль начнут регулировать и ограничивать. Как именно – пока никто не понимает. Дополним это известным письмом в марте 2023 года, в рамках которого известные эксперты по всему миру потребовали ограничить развитие ИИ.

– Недостаток модели взаимодействия с чат-ботами

Полагаю, вы уже пробовали взаимодействовать с чат-ботами и остались, мягко говоря, разочарованными. Да, классная игрушка, но что с ней делать?

Надо понимать, что чат-бот – это не эксперт, а система, которая пытается угадать, что вы хотите увидеть или услышать, и дает вам именно это.

И чтобы получить практическую пользу, вы сами должны быть экспертом в предметной области. А если вы эксперт в своей теме, нужен ли вам ГИИ? А если вы не эксперт, то вы и не получите решения своего вопроса, а значит, не будет ценности, лишь общие ответы.

В итоге мы получаем замкнутый круг – экспертам это не нужно, а любителям не поможет. Кто тогда будет платить за такого помощника? А значит, на выходе имеем дорогу игрушку.

Кроме того, помимо экспертности в теме, нужно еще знать, как правильно формулировать запрос. А таких людей вообще считанные единицы. В итоге даже появилась новая профессия – промпт-инженер. Это человек, который понимает, как думает машина, и может правильно составить запрос к ней. А стоимость такого инженера на рынке – около 6000 рублей в час. И поверьте, он с первого раза не подберет правильный запрос для вашей ситуации. Правда, тут есть лайфхак: можно попросить ИИ задать наводящие вопросы, на основе которых он сам сформулирует идеальный запрос. Об этом поговорим отдельно в главе по языковым моделям.

Нужен ли такой инструмент бизнесу? Захочет ли бизнес стать зависимым от очень редких специалистов, которые еще и стоят даже дороже программистов, ведь обычные сотрудники не извлекут из него пользы?

Вот и получается, что рынок для обычного чат-бота не просто узкий, он исчезающе мал. Здесь я вижу два исключения. Первый – использование чат-ботов как вспомогательный функционал к основному. Например, подготовки рекомендаций или аналитических дашбордов. В этой ситуации вы уже можете четко сформулировать требования. Второе исключение – использование ИИ в определенных бизнес-процессах или задачах: консультирование новых сотрудников по вопросам HR, консультант техподдержки, анализ данных.

– Тенденция к производству некачественного контента, галлюцинации

Ранее я отметил, что нейросети просто собирают данные и не анализируют факты, их связанность. То есть чего больше в Интернете / базе, на то они и ориентируются. Они не оценивают написанное критически. В тоге ГИИ легко генерирует ложный или некорректный контент.

А ИИ-галлюцинации – уже давно известная особенность. Что это такое и как они возникают, можно также прочитать по QR-коду и ссылке.


Галлюцинации нейросетей: что это такое, почему они возникают и что с ними делать


И это хорошо, когда случаи безобидные. Но бывают и опасные ошибки. Так, один пользователь спросил у Gemini, как сделать заправку для салата. По рецепту надо было добавить чеснок в оливковое масло и оставить настаиваться при комнатной температуре.

Пока чеснок настаивался, пользователь заметил странные пузырьки и решил перепроверить рецепт. Выяснилось, что в его банке размножались бактерии, вызывающие ботулизм. Отравление токсином этих бактерий протекает тяжело, вплоть до смести.

Я и сам периодически использую ГИИ, и чаще он дает, скажем так, не совсем корректный результат. А порой и откровенно ошибочный. Нужно провести 10—20 запросов с совершенно безумной детализацией, чтобы получить что-то вменяемое, что потом все равно надо переделывать / докручивать.

То есть за ним нужно перепроверять. Поэтому невозможно полностью делегировать задачу ИИ. Он – скорее твой ассистент, чем заменитель. И даже на простых задачах он спотыкается. И снова мы приходим к тому, что нужно быть экспертом в теме, чтобы оценить корректность контента и использовать его. И порой это занимает даже больше времени, чем сделать все с нуля и самому.

– Эмоции, этика и ответственность

ГИИ без правильного запроса будет склоняться к простому воспроизведению информации или созданию контента, не обращая внимания на эмоции, контекст и тон коммуникации. А в своем цикле статей о коммуникации я подчеркиваю, что сбой в коммуникации может произойти очень легко. Так что мы дополнительно ко всем проблемам выше можем получить еще и огромное количество конфликтов.


Управление коммуникацией. Часть 1: Основа


Еще возникают вопросы относительно возможности определения авторства созданного контента и прав собственности на созданный контент. Кто несет ответственность за недостоверные или вредоносные действия, совершенные с помощью ГИИ? А как доказать, что авторство лежит именно за вами или вашей организацией? Возникает потребность в разработке этических стандартов и законодательства, регулирующих использование ГИИ.

– Экономическая целесообразность

Как мы уже поняли, самим разработать генеративный ИИ высокого класса может оказаться неподъемной задачей. И у многих возникнет идея: «А почему бы не купить „коробку“ и не разместить у себя?» Но как вы думаете, сколько будет стоить такое решение? Сколько запросят разработчики?

А главное, каких масштабов должен быть бизнес, чтобы это все окупилось?

Что же делать?

Компании не собираются полностью отказываться от больших моделей. Например, Apple будет использовать ChatGPT в Siri для выполнения сложных задач. Microsoft планирует использовать последнюю модель OpenAI в новой версии Windows в качестве ассистента. При этом, тот же Experian из Ирландии и Salesforce из США, уже перешли на использование компактных моделей ИИ для чат-ботов и обнаружили, что они обеспечивают такую же производительность, как и большие модели, но при значительно меньших затратах и с меньшими задержками обработки данных.

Ключевым преимуществом малых моделей является возможность их тонкой настройки под конкретные задачи и наборы данных. Это позволяет им эффективно работать в специализированных областях при меньших затратах и проще решать вопросы безопасности. По словам Йоава Шохама (Yoav Shoham), соучредителя ИИ-компании AI21 Labs из Тель-Авива, небольшие модели могут отвечать на вопросы и решать задачи всего за одну шестую стоимости больших моделей.

– Не спешить

Ожидать заката ИИ не стоит. Слишком много в эту технологию было вложено за последние 10 лет, и слишком большим потенциалом она обладает.

Я рекомендую вспомнить о 8 принципе из ДАО Тойота, основы бережливого производства и одного из инструментов моего системного подхода: «Используй только надежную, испытанную технологию». В нем можно встретить целый ряд рекомендаций.

– Технологии призваны помогать людям, а не заменять их. Часто стоит сначала выполнять процесс вручную, прежде чем вводить дополнительное оборудование.

– Новые технологии часто ненадежны и с трудом поддаются стандартизации, а это ставит под угрозу поток. Вместо непроверенной технологии лучше использовать известный, отработанный процесс.

– Прежде чем вводить новую технологию и оборудование, следует провести испытания в реальных условиях.

– Отклони или измени технологию, которая идет вразрез с твоей культурой, может нарушить стабильность, надежность или предсказуемость.

– И все же поощряй своих людей не забывать о новых технологиях, если речь идет о поисках новых путей. Оперативно внедряй зарекомендовавшие себя технологии, которые прошли испытания и делают поток более совершенным.

Да, через 5—10 лет генеративные модели станут массовыми и доступными, достаточно умными, подешевеют и в итоге придут к плато продуктивности по хайп-циклу. И скорее всего, каждый из нас будет использовать результаты от ГИИ: написание статей, подготовка презентаций и так до бесконечности. Но уповать сейчас на ИИ и сокращать людей будет явно избыточным.

– Повышать эффективность и безопасность

Практически все разработчики сейчас сфокусированы на том, чтобы ИИ-модели стали менее требовательными к количеству и качеству исходных данных, а также на повышении уровня безопасности – ИИ должен генерировать безопасный контент и быть устойчивым к провокациям.

– Осваивать ИИ в формате экспериментов, проведения пилотных проектов

Чтобы быть готовым к приходу действительно полезных решений, нужно следить за развитием технологии, пробовать ее, формировать компетенции. Это как с цифровизацией: вместо того, чтобы прыгать в омут с головой в дорогие решения, нужно поиграть с бюджетным или бесплатными инструментами. Благодаря этому, к моменту прихода технологии в массы:

– вы и ваша компания будете понимать, какие требования необходимо закладывать к коммерческим и дорогим решениям, и подойдете к этому вопросу осознанно. А хорошее техническое задание – 50% успеха;

– сможете уже получить эффекты в краткосрочной перспективе, а значит, будет и мотивация идти дальше;

– команда повысит свои цифровые компетенции, что снимет ограничения и сопротивление по техническим причинам (наличие опыта и навыков);

– будут исключены неверные ожидания, а значит, будет и меньше бесполезных затрат, разочарований, конфликтов.

– Трансформировать общение пользователя с ИИ

Подобную концепцию я закладываю в своего цифрового советника. Пользователю надо давать готовые формы, где он просто укажет нужные значения или отметит пункты. И уже эту форму с корректной обвязкой (промптом) отдавать ИИ. Либо глубоко интегрировать решения в уже существующие ИТ-инструменты: офисные приложения, браузеры, автоответчики в телефоне и т. д.

Но это требует тщательной проработки и понимания поведения, запросов пользователя, или их стандартизации. То есть либо это уже не копеечное решение, которое все равно требует затрат на разработку, либо мы теряем в гибкости.

– Разрабатывать узкоспециализированные модели или решения под конкретные процессы

Как и с людьми, обучать ИИ всему – занятие очень трудозатратное и имеет низкую эффективность. Если же пойти по созданию узкоспециализированных решений на базе движков больших моделей, то и обучение можно свести к минимуму, и сама модель будет не слишком большой, и контент будет менее абстрактным, более понятным, и галлюцинаций будет меньше.

Наглядная демонстрация – люди. Кто добивается больших успехов и может решать сложные задачи? Тот, кто знает все, или тот, кто фокусируется на своем направлении и развивается вглубь, знает различные кейсы, общается с другими экспертами и тратит тысячи часов на анализ своего направления?

Пример узкоспециализированного решения:

– советник для управления проектами;

– налоговый консультант;

– советник по бережливому производству;

– чат-бот по производственной безопасности или помощник специалиста производственной безопасности;

– чат-бот для ИТ-техподдержки.

Так, по прогнозам Gartner организации будут внедрять малые модели искусственного интеллекта, ориентированные на конкретные задачи, в три раза чаще, чем большие языковые модели (LLM) общего назначения. Интересное мнение издания The New Yorker о конце гонки LLM в 2025 году высказал и американский ученый Гэри Маркус: «Я не слышу, чтобы многие компании, использующие ИИ, говорили, что модели 2025 года для них намного полезнее моделей 2024 года, даже несмотря на то, что модели 2025 года показывают лучшие результаты по контрольным показателям». Подробнее можно прочитать по QR-коду и гиперссылке.


Человечество достигло пика развития ИИ

Резюме

Хоть ГИИ пока только на стадии развития, потенциал у технологии большой.

Да, хайп вокруг технологии пройдет, инвестиции от бизнеса снизятся, появятся вопросы к ее целесообразности.

Например, уже 16 июня 2024 года Forbes опубликовали статью: «Зима искусственного интеллекта: стоит ли ждать падения инвестиций в AI». Оригинал статьи доступен по QR-коду и гиперссылке.


Зима искусственного интеллекта: стоит ли ждать падения инвестиций в AI


В ней приводится интересная аналитика о циклах зимы и лета в развитии ИИ. Также приведены мнения Марвина Минского и Роджера Шанка, которые еще в далеком 1984 году на встрече американской ассоциации искусственного интеллекта (AAAI) описали механизм, состоящий из нескольких этапов и напоминающий цепную реакцию, которая приведет к новой зиме в ИИ.

Этап 1. Завышенные ожидания бизнеса и публики от методов искусственного интеллекта не оправдывают себя.

Этап 2. СМИ начинают выпускать скептические статьи.

Этап 3. Федеральные агентства и бизнес снижают финансирование научных и продуктовых исследований.

Этап 4. Ученые теряют интерес к AI, и темп развития технологии замедляется.

И мнение экспертов сбылось. В течение пары лет наступила ИИ-зима, а потеплело лишь в 2010-х годах. Прямо как в «Игре Престолов».

Сейчас же мы находимся на очередном пике. Он наступил в 2023-м после выхода ChatGPT. Даже в этой книге для понимания читателя я часто привожу и буду приводить примеры из области данной LLM, хотя это и частный случай ИИ, но очень понятный.

Далее в статье приводится анализ по циклу Минского и Шанка к текущей ситуации.

«Этап 1. Ожидания бизнеса и публики.

Всем очевидно, что ожидания революции от AI в повседневной жизни пока не оправдались:

– Google так и не смог полноценно трансформировать свой поиск. После года тестирования технология AI-supercharged Search Generative Experience получает смешанные отзывы пользователей.

– Голосовые ассистенты («Алиса», «Маруся» и др.), возможно, стали немного лучше, но их вряд ли можно назвать полноценными ассистентами, которым мы доверяем хоть сколько-нибудь ответственные решения.

– Чат-боты служб поддержки продолжают испытывать сложности в понимании запроса пользователя и раздражают ответами невпопад и общими фразами.

Этап 2. Реакция СМИ.

По запросу AI bubble «старый» поиск Google выдает статьи авторитетных изданий с пессимистичными заголовками:

– Пузырь хайпа вокруг искусственного интеллекта сдувается. Наступают сложные времена (The Washington Post).

– От бума до взрыва пузырь AI движется только в одном направлении (The Guardian).

– Крах фондового рынка: известный экономист предупреждает, что пузырь AI рушится (Business Insider).

Мое личное мнение: эти статьи недалеки от истины. Ситуация на рынке очень похожа на то, что было перед крахом доткомов (любых Интернет-проектов) в 2000-х. Рынок явно перегрет, тем более что 9 из 10 ИИ-проектов провальные. Сейчас бизнес-модель и экономическая модель почти всех ИИ-решений и проектов нежизнеспособна.