Этот материал подготовлен на основе вопросов, предоставленных редакцией Astana Plus.
14 февраля 2026 года — Астана, Казахстан — После недавних вопросов о модели KazLLM Институт умных систем и искусственного интеллекта (ISSAI) опубликовал новые разъяснения о KazLLM — первой большой языковой модели Казахстана, — объяснив её назначение, происхождение и стратегическую важность для цифрового будущего страны.
Почему страны разрабатывают собственные LLM?
Генеративный ИИ, и особенно большие языковые модели (LLM), сегодня стали одной из наиболее стратегически значимых технологических областей в мире. LLM — это уже не просто исследовательские инструменты; это базовая цифровая инфраструктура. Они используются в поисковых системах, образовательных платформах, корпоративном ПО, государственных услугах, системах национальной безопасности и инструментах нового поколения для повышения продуктивности. Страны, которые разрабатывают и осваивают фундаментальные модели, по сути формируют собственные будущие цифровые экосистемы, инновационный потенциал и долгосрочную экономическую конкурентоспособность.
Масштаб глобальных инвестиций ясно показывает стратегическую значимость этого направления. Крупнейшие технологические компании выделяют беспрецедентные ресурсы на генеративный ИИ: Microsoft инвестировала более 13 млрд долларов в OpenAI; Amazon заявила о намерении вложить до 4 млрд долларов в Anthropic; Google продолжает масштабно инвестировать в модели Gemini и ИИ-инфраструктуру. Сама OpenAI объявляла планы потратить десятки миллиардов долларов на вычислительную инфраструктуру, дата-центры и обучение моделей в ближайшие годы. Эти инвестиции отражают инфраструктурные и исследовательские обязательства глобального уровня.
Однако LLM – это не только про технологический прогресс, но и про технологический суверенитет. Страны всё чаще понимают, что опора исключительно на зарубежные ИИ-системы создаёт стратегическую зависимость – в управлении данными, вопросах безопасности, удержании экономической ценности внутри страны и согласованности с локальным регулированием.
Как видно из Таблицы 1, многие государства поэтому развивают собственные суверенные или национально ориентированные модели:
| Модель | Страна | Институт | Ключевая суверенная особенность |
| Falcon | ОАЭ | Technology Innovation Institute (TII) | Государственное финансирование; одна из первых открытых моделей, сопоставимых с ведущими американскими системами. |
| WuDao 2.0 | Китай | Beijing Academy of AI (BAAI) | 1,75 трлн параметров; поддерживает стратегию технологической самодостаточности. |
| Fugaku-LLM | Япония | RIKEN / Tokyo Tech / Fujitsu | Обучена на национальном суперкомпьютере Fugaku, чтобы снизить зависимость от зарубежных облачных решений. |
| TAIDE | Тайвань | National Science & Technology Council | Ориентирована на безопасность локальных данных и снижение внешней политической предвзятости. |
| SEA-LION | Сингапур | AI Singapore | Спроектирована под языки Юго-Восточной Азии (тайский, индонезийский, Singlish и др.). |
| GPT-NL | Нидерланды | TNO / SURF / NFI | Прозрачная модель, соответствующая GDPR, для нидерландского языка. |
| OpenGPT-X | Германия | Fraunhofer IAIS / Jülich | Часть экосистемы Gaia-X, продвигающей суверенитет данных в ЕС. |
| GPT-SW3 | Швеция | AI Sweden / RISE / WASP | Первая крупномасштабная генеративная модель для скандинавских языков. |
| Poro | Финляндия | TurkuNLP / Silo AI / LUMI | Обучена на суперкомпьютере ЕС LUMI; поддерживает низкоресурсные языки. |
| MarIA | Испания | Barcelona Supercomputing Center | Создана на основе веб-архивов Национальной библиотеки для поддержания культурной точности. |
| ALLaM | Саудовская Аравия | SDAIA | Native Arabic model, согласованная с целями Vision 2030. |
| GigaChat | Россия | Sber | Внутренний аналог ChatGPT; соответствует местному интернет-регулированию |
| BharatGPT | Индия | Консорциум IIT Bombay | Voice-first система, поддерживающая 14+ индийских языков и диалектов. |
Таблица 1. Примеры национальных больших языковых моделей и их ключевых суверенных особенностей
Закономерность очевидна: ведущие экономики рассматривают LLM как критическую инфраструктуру. Разработка собственных моделей ИИ позволяет странам сохранять языковую и культурную представленность, обеспечивать безопасность данных и соответствие требованиям регулирования, удерживать экономическую ценность внутри национальной экосистемы, снижать технологическую зависимость от внешних геополитических факторов, а также развивать местные кадры в сфере ИИ и наращивать вычислительные мощности.
Иными словами, создание национальных или суверенных LLM – это стратегическое решение о цифровой независимости, экономической устойчивости и глобальной конкурентоспособности в эпоху ИИ.
Что такое KazLLM и зачем она была создана?
Большая языковая модель – это ИИ-технология, обученная на огромных объёмах текстовых данных, чтобы предсказывать каждое следующее слово в определенной последовательности. Когда человек задаёт вопрос, модель генерирует контекстно правдоподобный ответ. Такие системы, как ChatGPT, построены вокруг подобного типа моделей.
Полезная аналогия: представить большую языковую модель как двигатель. Сам двигатель не является готовым транспортным средством, но это ключевой механизм, который обеспечивает работу всего остального. Один и тот же двигатель может приводить в движение разные виды транспорта, например, внедорожник, легковой автомобиль, трактор или микроавтобус, в зависимости от того, как он интегрирован и развернут. Аналогично, KazLLM — это базовый технологический компонент ИИ-ассистентов и чат-ботов. Вокруг него можно создавать приложения: государственные ассистенты, корпоративные чат-боты или образовательные платформы. В этом смысле сама модель — это «двигатель», а практические сервисы требуют дополнительной разработки, дообучения, интеграции с базами данных и инструментами, а также инфраструктуры для масштабного развертывания. ISSAI получил задачу создать именно этот «двигатель». Мы не участвовали в разработке и/или эксплуатации пользовательских приложений или сервисов на его основе.
Кто стоит за созданием KazLLM? Что это за команда и почему она взялась за такой проект?
KazLLM была разработана Институтом умных систем и искусственного интеллекта (ISSAI) при Назарбаев Университете в период с апреля 2024 года по декабрь 2024 года. Команда состоит из молодых казахстанских исследователей, специализирующихся в машинном обучении, data science и компьютерной инженерии. Проект реализовывался в сотрудничестве с ключевыми национальными партнёрами, включая Министерство ИИ и Цифрового развития, Министерство науки и высшего образования, АО «Национальные информационные технологии», Национальный научно-практический центр «Тіл-Қазына», QazCode (Beeline), MIND Group (Университет имени М. Нарикбаева), а также ведущие университеты и научные институты.
Одной из ключевых задач ISSAI было не только создать модель, но и сформировать национальную экспертизу. Разработка KazLLM потребовала собрать высококачественные базы данных, настроить полный цикл обучения модели, провести научные исследования и получить практический опыт разработки моделей большого масштаба. Эти компетенции критически важны для долгосрочной технологической независимости.
ISSAI разработал две версии KazLLM: модель на 8 млрд параметров для использования на рабочих станциях и модель на 70 млрд параметров для развёртывания в дата-центрах. В качестве основы была выбрана архитектура Llama 3.1, поскольку на тот момент это была одна из сильнейших открытых архитектур в мире. Например, SEA-LION — крупная модель для Юго-Восточной Азии, выпущенная AI Singapore в декабре 2024 года, также основывалась на архитектурах семейства Llama. Проект SEA-LION является программой большого масштаба: Сингапур выделил на него около 52 млн долларов США.
Во многих странах разработку генеративных моделей ведут крупные технологические компании (OpenAI — ChatGPT, Alibaba — Qwen, Meta — Llama, Anthropic — Claude, DeepseekAI — DeepSeek). Однако в Казахстане доля затрат частного сектора на R&D в процентах от ВВП относительно низкая, и такие работы обычно не выполняются бизнесом. Именно поэтому государство обратилось к академическому исследовательскому институту.
Для разработки KazLLM частная телекоммуникационная компания щедро предоставила нам доступ к 8 узлам NVIDIA DGX H100 для обучения, а частный фонд обеспечил часть бюджета на работу команды. Для сравнения: Meta использовала более 16 тысяч DGX H100 и привлекла свыше 400 исследователей для создания LLaMA, что демонстрирует: KazLLM создавалась при существенно более ограниченных ресурсах.
Какова производительность KazLLM?
Международная практика предполагает бенчмаркинг подобных моделей. Модель ISSAI KazLLM оценивалась по стандартным, широко используемым тестам, которые комплексно измеряют понимание языка, навыки решения задач, фактологические знания и общее качество рассуждений. Часть бенчмарков была адаптирована под казахский язык. Выпущенные модели KazLLM превзошли соответствующие исходные версии модели Llama по агрегированному показателю. На момент релиза (декабрь 2024 года) KazLLM 70B почти достигла метрик, демонстрируемых GPT-4o (см. Таблицу 2 ниже).

Таблица 2. Бенчмарки производительности LLM на казахском языке
Однако ИИ — это гонка. Новые модели появляются примерно каждые шесть месяцев, и KazLLM необходимо развивать дальше. После передачи модели в Astana Hub в декабре 2024 года нас не просили продолжать её разработку.
KazLLM была создана, чтобы Казахстан сформировал компетенции в генеративном ИИ, укрепил исследовательский потенциал и развил интеллектуальный капитал, необходимый для участия в этой глобальной технологической трансформации.
Кроме того, международные лидеры и эксперты отметили усилия Казахстана по созданию собственной национальной модели. Пионер ИИ-исследований Янн ЛеКун упомянул результаты KazLLM на Paris Summit 2025. А на престижной церемонии GSMA Foundry Excellence Awards 2025 KazLLM получила награду.
Почему Казахстану нужна собственная языковая модель?
ISSAI последовательно выступал за создание локальных решений для ИИ-потребностей Казахстана. Однако формальный запрос на разработку KazLLM поступил от Государства. По мере того как ИИ всё сильнее влияет на госуслуги, бизнес-процессы и доступ к информации, стало ясно: опора исключительно на иностранные решения создаёт стратегическую зависимость. Разработка локальной модели гарантирует, что Казахстан понимает базовую технологию и может адаптировать её при необходимости.
Многие сравнивают KazLLM с ChatGPT. В чём принципиальная разница?
ChatGPT — это законченный продукт и сервисная экосистема. Он объединяет несколько версий больших языковых моделей, интеллектуальные системы маршрутизации, веб-поиск, базы данных, слои безопасности и модерации и разворачивается на масштабной глобальной инфраструктуре дата-центров. Он постоянно обновляется на основе пользовательской обратной связи и прогресса в исследованиях. Важно и то, что за ним стоят крайне крупные финансовые инвестиции. Например, ежегодные операционные и инфраструктурные расходы OpenAI, как ожидается, достигнут порядка 1,4 трлн долларов, что отражает масштаб ресурсов, необходимых для обучения и поддержки подобных систем. Такой уровень финансирования позволяет непрерывно улучшать модели и обеспечивать глобальное развертывание.
KazLLM, в отличие от этого, является фундаментальной моделью. Это «ядро» — ИИ-двигатель, а не готовый глобальный продукт. Чтобы стать системой, сопоставимой с ChatGPT, потребовались бы интеграция с поиском и базами данных, разработка пользовательской платформы, непрерывное дообучение, системы безопасности и развертывание в крупных дата-центрах.
Соответственно, все перечисленные выше разработки требуют существенных и долгосрочных финансовых вложений. Простая аналогия: KazLLM — это двигатель, а ChatGPT — полностью собранный и отточенный автомобиль, работающий по всему миру и постоянно обновляемый и обслуживаемый.
Кто может использовать KazLLM?
KazLLM широко используется в исследовательских целях, что подтверждается загрузками из открытых репозиториев (https://huggingface.co/issai). Исследователи и разработчики применяют её как основу для дальнейших инноваций. Поскольку в декабре 2024 года Astana Hub была передана неисключительная лицензия, нам неизвестны текущие операционные или коммерческие сценарии развертывания.
Примеры того, как такие модели могут упростить жизнь
Практический пример — взаимодействие с государственными сервисами. Вместо поиска нужного раздела на сложных сайтах гражданин мог бы описать запрос на естественном языке и получить структурированную подсказку (например, через ИИ-чат-бота). В образовании студенты могли бы получать объяснения научных концепций на казахском языке, адаптированные под их уровень. В бизнесе компании могли бы автоматизировать подготовку документов или управление внутренними знаниями. Эти примеры показывают, как генеративный ИИ повышает доступность и эффективность.
Почему важно, чтобы ИИ понимал казахский язык и локальный контекст?
Большинство глобальных моделей обучаются преимущественно на англоязычных данных. В результате казахский язык и культурный контекст представлены недостаточно. Это может приводить к неточностям или поверхностному пониманию местных реалий. Кроме того, исключительная зависимость от зарубежных ИИ-систем создаёт техническую и стратегическую зависимость. Цифровой суверенитет требует способности понимать, адаптировать и, при необходимости, самостоятельно разрабатывать технологические системы; также важно, чтобы модели могли давать надёжную и корректную информацию о местных традициях, истории и культуре.
Какое самое распространённое заблуждение о KazLLM и языковых моделях?
Чтобы оставаться конкурентоспособными, необходимы постоянные инвестиции и исследования. Именно поэтому технологически развитые страны выделяют высокий процент ВВП на R&D (научно-исследовательские и опытно-конструкторские работы) (Израиль, Южная Корея, Швеция, США и др.), а быстро развивающиеся страны со средним уровнем дохода также тратят более 1% ВВП на R&D (в то время как в Казахстане — около 0,2%).
Распространённое заблуждение состоит в том, что выпуск модели — это финальное или долговечное достижение. В действительности генеративный ИИ развивается очень быстро: регулярно появляются новые архитектуры и методы обучения. С момента появления KazLLM произошёл целый ряд значимых прорывов (архитектуры Mixture-of-Experts, «reasoning-модели», мультимодальные LLM, предсказание нескольких токенов и т. п.). За последние 13 месяцев OpenAI выпустила около 5 крупных версий GPT (включая GPT-4.1, 4.5 и обновления серии GPT-5), а Alibaba представила примерно 7 крупных вариантов/семейств моделей (включая серии Qwen2.5 и Qwen3). Команде R&D необходимо постоянно обновлять данные, дообучать модель с учётом новых архитектур и выпускать новые версии. Это похоже на автомобильную индустрию — но с намного более быстрым темпом.
Одним из наиболее заметных примеров инвестиций частного сектора в генеративный ИИ в нашем регионе является Сбербанк (Российская Федерация), который разрабатывает и внедряет собственную линейку ИИ-моделей и инструментов. Его решения, такие как GigaChat, создаются как конкуренты глобальным LLM и интегрируются в различные отрасли, с планами расширять возможности и доступность, включая открытые релизы продвинутых моделей — например, GigaChat 3 Ultra Preview и других флагманских систем.
Сбербанк также публично заявлял о внушительных инвестиционных планах в ИИ, намереваясь существенно увеличить расходы в этой области, чтобы трансформировать технологический контур и получить значимую отдачу от этих технологий.
С учётом такого прецедента, а также сильных финансовых результатов банковского сектора Казахстана, существует очевидная возможность для казахстанских финансовых институтов инвестировать в развитие отечественного генеративного ИИ — особенно в открытые модели, которые можно адаптировать и развивать локально. Такое стратегическое инвестирование могло бы не только поддержать технологический суверенитет, но и усилить конкурентоспособность и инновационность цифровой экономики страны.
Могут ли обычные пользователи встречать KazLLM в повседневной жизни?
Да, но большие модели требуют значительной вычислительной инфраструктуры. Обучение и масштабное развертывание зависят от высокопроизводительных дата-центров, и в мире идёт интенсивная конкуренция за создание такой инфраструктуры. Без масштабного развертывания фундаментальная модель не сможет эффективно обслуживать массовую аудиторию. Потенциально ИИ-агенты или чат-боты, построенные вокруг этой модели, могут быть размещены на новых суперкомпьютерах в Казахстане (AlemCloud, кластеры Al-Farabium). Если новые суперкомпьютеры не будут полностью загружены другими важными сервисами и моделями, то, возможно, модели вроде KazLLM удастся развернуть и открыть для широкой аудитории — чтобы собирать пользовательскую обратную связь.
Можно ли увидеть KazLLM в действии сегодня?
Назарбаев Университет передал неисключительную лицензию Astana Hub в конце декабря 2024 года. Развертывание зависит от инфраструктуры и операционных решений обладателя лицензии. Актуальных деталей реализации у нас нет.
Как решать проблемы с “галлюцинациями” и ошибками?
Все генеративные модели могут выдавать неточные ответы. Снижение рисков требует интеграции механизмов верификации, например, обращения к базам данных (retrieval), веб-поиска, защитных «ограждений» (guardrails) и систем пользовательской обратной связи. Одна модель сама по себе не гарантирует надёжность; ответственное развертывание требует создания полноценного продукта вокруг неё.
После развертывания генеративных моделей взаимодействие с пользователями становится критически важным источником инсайтов. Каждый вопрос, каждая попытка выполнить задачу или оценка ответа дают ценные данные о том, как модель ведёт себя в реальных сценариях. Эти взаимодействия постоянно мониторятся, анализируются и возвращаются в цикл разработки продукта, чтобы выявлять типовые ошибки, пробелы в знаниях или ситуации, где рассуждения модели недостаточно качественны.
Коммерческие сервисы, построенные на таких моделях, опираются на этот цикл обратной связи, чтобы обновлять и улучшать поведение модели, повышать точность и улучшать пользовательский опыт. Например, улучшения могут включать дообучение отдельных компонентов, настройку параметров, совершенствование промптов или добавление механизмов проверки таких как retrieval и веб-поиск.
Однако этот процесс трудоёмок и требует человеческих, вычислительных и финансовых ресурсов. Команды инженеров, аналитиков данных, модераторов данных и менеджеров продукта должны просматривать взаимодействия, классифицировать ошибки, расставлять приоритеты и внедрять улучшения. Кроме того, человеческий контроль обеспечивает этичное и безопасное использование, соблюдение требований регулирования и соответствие корпоративным и общественным стандартам. Без такой системной работы модели не могут надёжно эволюционировать до уровня, необходимого для практического использования и коммерческого качества.
Как эти технологии повлияют на образование и рынок труда?
Генеративный ИИ изменит многие профессии, автоматизируя рутинные когнитивные задачи. Страны, которые развивают собственную экспертизу, с большей вероятностью получат экономические преимущества. Те, кто полностью зависит от внешних систем, могут столкнуться с более сильными негативными эффектами и дисбалансами.
Есть ли сферы, где использование языковых моделей опасно?
Существуют риски как долгосрочного, так и среднесрочного характера. Известные эксперты, включая лауреата премии Тьюринга Джеффри Хинтона, предупреждали о потенциальных экзистенциальных рисках от продвинутых ИИ-систем. Историк Юваль Ной Харари также отмечал, что ИИ может быть опаснее ядерного оружия: в отличие от атомной бомбы продвинутый ИИ способен действовать автономно и принимать решения без человеческого контроля. Хотя долгосрочные экзистенциальные и общественные риски требуют серьёзного управления и надзора, существуют значимые среднесрочные риски — дипфейки, дезинформация, киберпреступность и, что особенно важно, технологическая стагнация. Страны и институты, которые не смогут ответственно развивать и осваивать ИИ-технологии, рискуют потерять конкурентоспособность, технологический суверенитет и стратегическое влияние в мире, всё более управляемом ИИ.
Как обычные граждане могут помочь?
Текущая парадигма ИИ — это машинное обучение: в этой парадигме модели учатся на данных. Если гражданин Казахстана создаёт публичные данные на казахском языке (например, статью в Википедии), локальные и глобальные ИИ-модели смогут использовать этот контент в обучении и «будут знать» больше о Казахстане и казахском языке. Поэтому человек, который хочет помочь, может создавать релевантный Казахстану контент на казахском языке.Во-вторых, многие технологические гиганты предоставляют модели по низкой цене или бесплатно не из филантропии, а потому что хотят собирать обратную связь и реальные кейсы использования. Поэтому использование локальных моделей (Oylan, MangiSoz) и предоставление отзывов — это очень ценный вклад.