
Этап 3. Финансирование.
Несмотря на нарастающий пессимизм, пока нельзя сказать, что финансирование разработок в сфере AI снижается. Крупнейшие IT-компании продолжают инвестировать миллиарды долларов в технологии, а ведущие научные конференции в области искусственного интеллекта получают рекордное число заявок на публикацию статей.
Таким образом, в классификации Минского и Шанка мы сейчас находимся между вторым и третьим этапом перехода к зиме искусственного интеллекта. Означает ли это, что «зима» неизбежна и скоро AI снова отойдет на второй план? На самом деле нет».
В заключении статьи приводится ключевой аргумент – ИИ слишком глубоко проникли в нашу жизнь, чтобы началась новая ИИ-зима:
– системы распознавания лиц в телефонах и метро используют нейросети для точной идентификации пользователя;
– переводчики типа Google Translate сильно выросли в качестве, перейдя от методов классической лингвистики к нейросетям;
– современные системы рекомендаций используют нейросети для точного моделирования предпочтений пользователя.
Особенно интересно мнение, что потенциал слабого ИИ не исчерпан, и несмотря на все проблемы сильного ИИ, он может приносить пользу. И я полностью согласен с этим тезисом.
Следующий шаг в развитии ГИИ – создание более новых и легких моделей, которым требуется меньше данных для обучения. Нужно только набраться терпения и постепенно изучать инструмент, формируя компетенции, чтобы потом использовать его потенциал в полной мере.
Глава 5. Большие языковые модели (LLM)
Сейчас, в середине 2025 года, 9 из 10 ИИ-проектов базируются на больших или средних языковых моделях. Давайте разберемся в этом направлении.
Феномен LLM
2023 год в истории развития ИИ можно назвать эпохальным. Это тот год, когда на рынке появились LLM, которые уже были коммерческого качества и доступны всем. Их особенность в том, что они обучались изначально на базе материалов, которые написаны обычным человеческим языком. В рамках обработки больших массивов данных у моделей формировались смысловые ассоциации без участия человека (хотя человек все равно проектировал то, какие данные пойдут на обучение, был неким цензором) и эти модели понимают запросы на обычном языке. Причем, как показывают исследования, у каждой ИИ-модели может быть свой «характер», который формировался на основе тех данных, которые ей давали для обучения. И это тоже надо учитывать.
Таким образом порог входа в мир ИИ снизился – если раньше требовались команды, обученные люди, то сейчас любой из нас может взаимодействовать с ИИ-моделями: запрашивать аналитику, строить графики, автоматизировать процессы, подбирать модели наиболее подходящими под задачи.
Их главный бонус – предобученность. То есть это уже готовые модели, и в них можно загружать массивы данных, работать с ними. Их можно подключать к базам данных компании (ниже поговорим про RAG) и запросами искать корреляции между разными факторами. Например, случился неурожай, есть мнение, что это из-за погодных условий. А пользуясь ИИ как аналитиком данных, можно запросить отчет по годам с данными об урожайности, температуре и количестве осадков. Но тут мы сталкиваемся, как и во всей цифровизации, с вопросом качества данных. Поэтому я всегда говорю, что будущее – за связкой Интернета вещей, сбора больших данных и ИИ, а одна из наиболее потенциально востребованных услуг – проектирование хранилищ данных и выстраиваивание процессов и инфраструктуры для обеспечения качественных данных (данных без ошибок).
То есть ИИ меняет подход к аналитике. Можно в ряде задач уйти от построения сложных и дорогих моделей в пользу использования LLM конкретно для аналитики и подготовки отчетов с графиками или консультаций по базам знаний.
Что такое RAG?
Одна из технологий, которая внесла огромные изменения в мир больших языковых моделей – RAG. RAG – это «внутренний «факт-чекер» для ИИ.
Пример: Когда мы спрашиваем модель о курсе валют или текущей дате, она, разумеется сама по себе не знает, какое сегодня число и курс валют, но может обратиться к внешним источникам и получить актуальные данные.
Основные компоненты RAG:
– Retrieval (Поиск): ИИ ищет данные в надежных источниках (базы данных, документы, к которому он подключен);
– Augmentation (Обогащение): ИИ добавляет найденную информацию к запросу;
– Generation (Генерация): ИИ формирует конечный ответ.
То есть сначала ИИ сканирует источники информации, описывает для себя, о чем каждый из них. А затем использует эти источники для подготовки ответов.
Один из ярких примеров – использование RAG в банке для заполнения кредитной заявки: менеджер обращается к ИИ, далее идет запрос в кредитное бюро для изучения кредитного рейтинга, параллельно проверяются паспортные данные, и в конце принимается решение о выдаче и сумме кредита.
Также и в любом направлении бизнеса – подключение к базам данных 1С, внутренней системе электронного документооборота и т. д. Самый простой пример – это загрузка документов в условный ChatGPT, DeepSeek или Гигачат и работа с этимими документами (вопросы по документу).
Тут надо еще отметить, что использование RAG и включение в ответ ИИ ссылок на инструкции и источники является одной из тех механик, позволяющих «проверять» ИИ и снижать уровень его галлюцинаций.
FineTuning
Еще один из инструментов современных моделей – донастройка или finetuning. Например, ИИ можно «скормить» ваши письма и документы. Это позволит научить модель отвечать в том же стиле, в каком принято в вашей компании. Также это даст «специализацию» для ИИ-модели, что позволит использовать ее и решать прикладные задачи с высокой точностью. Так вы снизите требования к ИТ-инфраструктуре и обеспечите простое исполнение требований информационной безопасности, что снизит бюджеты и сроки.
Если интересно погрузиться в предметную область глубже, то рекомендую отличную статью по QR-коду и ссылке.

Retrieval-Augmented Generation (RAG): глубокий технический обзор
Как работает LLM?
Вся работа современных LLM систем строится на простом алгоритме.
– Получение запроса
Представим, что вы хотите начать работу с ИИ. С чего начать? С отправки запроса. Это называется промпт-запрос.
– Токенизация
Далее модель разбивает его на большое количество отдельных «токенов». Например, запрос «Привет!» модель может разделить на «привет» и»!». Все модели разбивают эти запросы по-разному и во многом качество их работы зависит именно от этого.
– Обработка
Модель начинает обрабатывать эти токены в сложной математической модели, искать смысловые сочетания (вероятности). Также тут может использоваться RAG для получения актуальных данных.
– Подготовка ответа
На этом этапе идет подготовка ответа и конструирование предложений. ИИ-модель строит ответ последовательно, пытаясь предсказать каждое следующее слово.

Упрощенная схема работы LLM
Проблема тут в том, что если ИИ-модель ошиблась в одном месте, то дальше вся логика пойдёт по неверному пути. Поэтому нет смысла переубеждать ИИ, лучше начать работу заново.
Правила общения и формулирования запросов
Для того, чтобы общаться с ИИ, нужно правильно формулировать запросы. Раньше даже были отдельные правила и приёмы, где надо было расставлять специальные символы. Сейчас это устарело. Важно соблюдать пунктуацию, разделять текст на абзацы, а также использовать ролевую модель. То есть формулировать запрос к ИИ через:
– Контекст, который описывает поведение модели.
Например: «Ты переводчик с русского на английский и переводишь художественную книгу о викторианской эпохе в Англии»
– Задание или вопрос, в соответствии с которым будет готовится ответ.
Например: «Подготовь план презентации по теме «Продуктовая аналитика».
– Формат ответа
Например: «Ответ подготовь в виде списка действий».
– Требования к ответу
Например: «Список должен содержать не менее 10 действий с разделением на 3 логических блока и содержать данные, которые появились после 2020 года».
Также я в своём общении с ИИ иногда указываю ещё свою цель и задачи или международный стандарт, по которому необходимо подготовить ответ. Например: «Подготовь анализ гипотезы по модели Canvas».
Подобную логику можно встретить и в библиотеке промтов от OpenAI Academy. Ниже приведу несколько примеров.
Пример 1: «Проанализируй рабочую проблему: [описание проблемы]. Учти, что ситуация повторялась несколько раз. Определи возможные причины и предложи вопросы, которые можно задать сотрудникам, чтобы их подтвердить.»
Пример 2: «Я руководитель в [компания/отрасль]. Проведи глубокое исследование трёх-пяти новых тенденций в [отрасли] на ближайшие три года. Включи примеры из конкретной отрасли, цитаты экспертов и потенциальные возможности для стратегии и подбора кадров. Представь результаты в виде сводки со ссылками на источники.»
Пример 3: «Сравни следующие варианты решений: [список вариантов]. Решение нужно принять в течение [срок]. Оцени преимущества, недостатки и потенциальные риски каждого варианта.»
Пример 4: «Я анализирую показатели за [квартал]. Проанализируй этот набор данных [документ], выдели ключевые тенденции по выручке, оттоку клиентов и привлечению новых. Укажи три вывода для отчёта перед советом директоров и предложи дополнительные вопросы, которые я могу задать.»
Полный список для высшего руководства, финансистов, управления персоналом, менеджеров по продуктам, ИТ, маркетинга, продаж и так далее можно изучить по QR-коду и гиперссылке ниже (на английском языке).

ChatGPT Prompt Packs
А можно использовать сам ИИ, чтобы он наводящими вопросами помог создать промпт. Вот небольшой набор универсальных добавок к промптам для ИИ:
– Спроси уточняющие вопросы перед началом работы.
– Если информации недостаточно для качественного результата, запроси детали.
– Объясни, как ты понял задачу и план выполнения задачи перед началом.
– Предложи альтернативные варианты подхода.
Большую популярность приобретает и так называемый Лира-промпт, который появился экспериментальным путем. Система работает по методологии 4D:
– Деконструкция (Deconstruction). Извлекает суть из твоего хаоса
– Диагностика (Diagnostic). Находит пробелы и неточности
– Разработка (Developmen). Выбирает техники под тип задачи
– Предоставление (Demonstration). Выдает готовый промпт
Как это работает на практике:
– Копируем промпт целиком в ИИ (QR-код и гиперссылка ниже).
– Лира представляется и просит уточнить нейросеть и режим работы
– Говорим задачу в любом формате
– Отвечаем на вопросы, если выбрали детальный режим
– Получаем готовый промпт для работы с ИИ в другом окне / чате.

Этот вирусный промт заставляет ChatGPT писать промты «как консультант за 38 тысяч рублей в час». Я проверил этот промт, и он работает
Резюме
В качестве резюме к этой главе приведу несколько простых рекомендаций по работе с языковыми моделями
1. Определите цель
Что именно вы хотите получить? (информацию, идею, текст, решение задачи и т.д.)
Плохо: «Расскажи про космос»
Хорошо: «Объясни, как черные дыры влияют на галактики, простым языком».
2. Добавьте контекст
Укажите свою роль, аудиторию или условия задачи.
Плохо: «Напиши текст про экологию»
Хорошо: «Я учитель, мне нужен план урока для
8 класса на тему «Загрязнение океана». Включи примеры и интерактивные задания».
3. Будьте конкретнее
Чётко сформулируй требования: стиль, тон, длину, структуру.
Плохо: «Помоги с рецептом»
Хорошо: «Дай рецепт веганского шоколадного торта без глютена, с пошаговыми инструкциями на 5 минут чтения»
4. Задайте формат ответа
Уточните, как должен выглядеть результат: список, таблица, эссе, код и т. д. Пример: «Перечисли 5 причин учить Python маркированным списком».
5. Уточняйте итеративно
Если ответ не идеален – дополняйте промт:
«Сократи этот текст до 3 абзацев», «Объясни проще»,
«Дай больше примеров».
Также важно помнить, что ИИ не читает мысли, но отлично следует инструкциям, подобно сотруднику-новичку. Чем больше деталей, тем ближе ответ к вашим ожидания. Поэтому:
– Используйте ключевые слова-триггеры: «Действуй как эксперт по маркетингу…», «Представь, что ты историк…» и т. д.
– Задавайте открытые вопросы: «Какие могут быть последствия…», «Предложи неочевидные решения…» и т. д.
– Ограничивайте или расширяй рамки: «Ответь в двух предложениях…», «Распиши все возможные варианты…» и т. д.
– Просите о помощи ИИ с формулированием промтов: «Спроси уточняющие вопросы перед началом работы»
– «Если информации недостаточно для качественного результата, запроси детали».
– Если что-то пошло не так, просто уточните запрос.
– Обязательно проверяйте факты, источники выводов. В некоторых ИИ есть специальная опция, показывающая «ход рассуждения» (R1 – у «DeepSeek»), а также можно просить выводить ссылки на источники.
– Обязательно используйте несколько различных ИИ-чатов / сервисов и сравнивайте результаты.
– Всегда имейте в виду, что ИИ-чаты, как правило, используют устаревшие источники знаний, поэтому их ответы могут (и будут) «отставать от» реальности. Поэтому в современных решениях есть опция поиска ответа в сети. По сути, это RAG. В корпоративных решениях через RAG идёт подключение к внутренним базам документов и знаний.
– Помните, что ИИ-чат может сгенерировать факт, которого нет, если он не найдёт ничего подходящего в реальности. Этот выдуманный факт будет использован наравне с реальными. Поэтому нельзя доверять ИИ-сервисам из Интернета на 100%.
– ИИ-чат – всего лишь инструмент, не нужно воспринимать его как-то иначе.
Глава 6. Регулирование ИИ
Активное развитие искусственного интеллекта (ИИ, AI) приводит к тому, что общество и государства становятся обеспокоенными и думают о том, как его обезопасить. А значит, ИИ будет регулироваться. Но давайте разберемся в этом вопросе детальнее, что происходит сейчас и чего ожидать в будущем.
Почему развитие ИИ вызывает беспокойство?
Какие факторы вызывают бурное беспокойство у государств и регуляторов?
– Возможности
Самый главный пункт, на который будут опираться все следующие – возможности. ИИ демонстрирует огромный потенциал: принятие решений, написание материалов, генерация иллюстраций, создание поддельных видео – список можно перечислять бесконечно. Мы еще не осознаем всего, что может ИИ. А ведь мы пока владеем слабым ИИ. На что будет способен общий ИИ (AGI) или суперсильный ИИ?
– Механизмы работы
У ИИ есть ключевая особенность – он способен строить взаимосвязи, которые не понимает человек. И благодаря этому он способен как совершать открытия, так и пугать людей. Даже создатели ИИ-моделей не знают, как именно принимает решения нейросеть, какой логике она подчиняется. Отсутствие предсказуемости делает чрезвычайно трудным устранение и исправление ошибок в алгоритмах работы нейросетей, что становится огромным барьером на пути внедрения ИИ. Например, в медицине ИИ не скоро доверят ставить диагнозы. Да, он будет готовить рекомендации врачу, но итоговое решение будет оставаться за человеком. То же самое и в управлении атомными станциями или любым другим оборудованием.
Главное, о чем переживают ученые при моделировании будущего – не посчитает ли нас сильный ИИ пережитком прошлого?
– Этическая составляющая
Для искусственного интеллекта нет этики, добра и зла. Также для ИИ нет понятия «здравый смысл». Он руководствуется только одним фактором – успешность выполнения задачи. Если для военных целей это благо, то в обычной жизни людей это будет пугать. Общество не готово жить в такой парадигме. Готовы ли мы принять решение ИИ, который скажет, что не нужно лечить ребенка или нужно уничтожить целый город, чтобы не допустить распространение болезни?
– Нейросети не могут оценить данные на реальность и логичность
Нейросети просто собирают данные и не анализируют факты, их связанность. А значит, ИИ можно манипулировать. Он полностью зависит от тех данных, которыми его обучают создатели. Могут ли люди доверять полностью корпорациям или стартапам? И даже если мы доверяем людям и уверены в интересах компании, можем ли мы быть знать наверняка, что не произошло сбоя или данные не были «отравлены» злоумышленниками? Например, с помощью создания огромного количества сайтов-клонов с недостоверной информацией или «вбросами».
– Недостоверные контент / обман / галюцинации
Иногда это просто ошибки из-за ограничения моделей, иногда галлюцинации (додумывания), а иногда это похоже и на вполне настоящий обман.
Так, исследователи из компании Anthropic обнаружили, что модели искусственного интеллекта можно научить обманывать людей вместо того, чтобы давать правильные ответы на их вопросы
Исследователи из Anthropic в рамках одного из проектов поставили перед собой задачу установить, можно ли обучить модель ИИ обману пользователя или выполнению таких действий, как, например, внедрение эксплойта в изначально безопасный компьютерный код. Для этого специалисты обучили ИИ как этичному поведению, так и неэтичному – привили ему склонность к обману.
Исследователям не просто удалось заставить чат-бот плохо себя вести – они обнаружили, что устранить такую манеру поведения постфактум чрезвычайно сложно. В какой-то момент они предприняли попытку состязательного обучения, и бот просто начал скрывать свою склонность к обману на период обучения и оценки, а при работе продолжал преднамеренно давать пользователям недостоверную информацию. «В нашей работе не оценивается вероятность (появления) указанных вредоносных моделей, а подчеркиваются их последствия. Если модель демонстрирует склонность к обману из-за выравнивания инструментария или отравления модели, современные методы обучения средствам безопасности не будут гарантировать безопасности и даже могут создать ложное впечатление о нее наличии», – заключают исследователи. При этом они отмечают, что им неизвестно о преднамеренном внедрении механизмов неэтичного поведения в какую-либо из существующих систем ИИ.
– Социальная напряженность, расслоение общества и нагрузка на государство
ИИ создает не только благоприятные возможности для повышения эффективности и результативности, но и риски.
Развитие ИИ неизбежно приведет к автоматизации рабочих мест и изменению рынка. И да, часть людей примет этот вызов и станет еще образованнее, выйдет на новый уровень. Когда-то умение писать и считать было уделом элиты, а теперь рядовой сотрудник должен уметь делать сводные таблицы в excel и проводить простую аналитику.
Но часть людей не примет этого вызова и потеряет рабочие места. А это приведет к дальнейшему расслоению общества и увеличению социальной напряженности, что в свою очередь беспокоит и государства, ведь помимо политических рисков, это будет и ударом по экономике. Люди, которые потеряют рабочие места, будут обращаться за пособиями.
Так, 15 января 2024 Bloomberg опубликовали статью, в которой управляющий директор Международного Валютного Фонда Кристана Георгиева предполагает, что бурное развитие систем искусственного интеллекта в большей степени отразится на высокоразвитых экономиках мира, чем на странах с растущей экономикой и низким доходом на душу населения. В любом случае, искусственный интеллект затронет почти 40% рабочих мест в масштабах всей планеты. «В большинстве сценариев искусственный интеллект с высокой вероятностью ухудшит всеобщее неравенство, и это тревожная тенденция, которую регуляторы не должны упускать из виду, чтобы предотвратить усиление социальной напряженности из-за развития технологий», – отметила глава МВФ в корпоративном блоге.
– Безопасность
Проблемы безопасности ИИ на слуху у всех. И если на уровне небольших локальных моделей решение есть (обучение на выверенных данных), то что делать с большими моделями (ChatGPT и т.п.) – непонятно. Злоумышленники постоянно находят способы, как взломать защиту ИИ, и заставить его, например, написать рецепт взрывчатки. И ведь мы пока даже не говорим про AGI.
Какие инициативы есть в 2023—2024 годах?
Этот блок я раскрою кратко. Подробнее и с ссылками на новости можно ознакомиться в статье по QR-коду и гиперссылке. Постепенно статья будет дополняться.

Регулирование ИИ (AI)
Призыв разработчиков ИИ весной 2023 года
Начало 2023 года было не только взлетом ChatGPT, но и началом борьбы за безопасность. Тогда вышло открытое письмо от Илона Маска, Стива Возняка и еще более тысячи экспертов и руководителей отрасли ИИ с призывом приостановить разработку продвинутого ИИ.
Организация Объединенных Наций
В июле 2023 года генеральный секретарь ООН Антониу Гутерриш поддержал идею создать на базе ООН орган, который бы сформулировал глобальные стандарты по регулированию сферы ИИ.
Такая площадка могла бы действовать по аналогии с Международным агентством по атомной энергии (МАГАТЭ), Международной организацией гражданской авиации (ИКАО) или Международной группой экспертов по изменению климата (МГЭИК). Также он обозначил пять целей и задач такого органа:
– помощь странам в получении максимальной пользы от ИИ;
– устранение существующих и будущих угроз;
– выработка и реализация международных механизмов мониторинга и контроля;
– сбор экспертных данных и их передача мировому сообществу;
– изучение ИИ для «ускорения устойчивого развития».
В июне 2023 года он также обращал внимание на то, что «ученые и эксперты призвали мир к действию, объявив искусственный интеллект экзистенциальной угрозой человечеству наравне с риском ядерной войны».
А еще раньше, 15 сентября 2021 года, верховный комиссар ООН по правам человека Мишель Бачелет призвала наложить мораторий на использование нескольких систем, использующих алгоритмы искусственного интеллекта.
Open AI
В конце 2023 года OpenAI (разработчик ChatGPT) объявила о создании стратегии по превентивному устранению потенциальных опасностей ИИ. Особое внимание уделяется предотвращению рисков, связанных с развитием технологий.
Эта группа будет работать вместе с командами:
– систем безопасности, которая занимается решением существующих проблем, таких как предотвращение расовых предубеждений в ИИ;
– Superalignment, которая изучает работу сильного ИИ и как он будет работать, когда превзойдет человеческий интеллект.
Концепция безопасности OpenAI также включает оценку рисков по следующим категориям: кибербезопасность, ядерная, химическая, биологическая угроза, убеждение и автономия модели.
Евросоюз
Весной 2023 года Европарламент предварительно согласовал закон под названием AI Act, который устанавливает правила и требования для разработчиков моделей искусственного интеллекта.
В основе лежит риск-ориентированный подход к ИИ, а сам закон определяет обязательства разработчиков и пользователей ИИ в зависимости от уровня риска, используемого ИИ.
Всего выделяют четыре категории систем ИИ: с минимальным, ограниченным, высоким и неприемлемым риском.
Минимальный риск – результаты работы ИИ прогнозируемы и никак не могут навредить пользователям. Компании и пользователи смогут использовать их бесплатно. Например, спам-фильтры и видеоигры.
Ограниченный риск – различные чат-боты. Например, ChatGPT и Midjourney. Их алгоритмы для доступа в ЕС должны будут пройти проверку на безопасность. Также они будут подчиняться конкретным обязательствам по обеспечению прозрачности, чтобы пользователи могли принимать осознанные решения, знать, что они взаимодействуют с машиной, и отключаться по желанию.