Как DeepSeek изменил ландшафт проектов на основе искусственного интеллекта: примеры, перспективы и ограничения

Снизив стоимость доступа на 98%, DeepSeek помог AI моделям стать ближе к пользователю.
Открытый код позволяет стартапам применять технологии искусственного интеллекта для решения частных задач в изолированном облаке.
С появлением китайской лаборатории DeepSeek в 2025 году индустрия искусственного интеллекта (ИИ) столкнулась с революционными изменениями. Открытые, высокопроизводительные и дешёвые модели DeepSeek, такие как R1 и V3, бросили вызов гигантам вроде OpenAI и Google, переписав правила игры в разработке и внедрении ИИ. Рассмотрим, как изменились проекты до и после DeepSeek, какие перспективы открываются для перехода на глубокие языковые модели (LLM) и какие ограничения остаются

Как было до DeepSeek?

Высокие затраты на разработку

Обучение моделей, таких как GPT-4 от OpenAI, требовало миллиардов долларов на вычислительные ресурсы и инфраструктуру. Например, OpenAI тратила $17.9 млрд на обучение GPT-4, что делало ИИ доступным только для крупных корпораций.
Китайские компании, такие как Baidu (Ernie Bot) и Alibaba, тратили до $100 млн на создание собственных LLM, что замедляло инновации для стартапов.

Ограниченная доступность LLM

Проприетарные модели (например, ChatGPT) предоставлялись через платные API. Стоимость OpenAI GPT-4 Turbo достигала $60 за миллион токенов, что ограничивало их применение в малом бизнесе..
Открытые альтернативы, такие как Llama от Meta, отставали по производительности на 12–18 месяцев.

Зависимость от западных технологий

Китайские (и Российские) разработчики сталкивались с дефицитом GPU из-за экспортных ограничений США. Например, Huawei использовала чипы SMIC 7 нм, которые уступали NVIDIA H100 в производительности.
Российские разработчики уже активно используют LLM модели для реализации бизнес проектов. Хотите узнать - подходит ли вам новая технология?

Как стало с появлением DeepSeek?

Резкое снижение стоимости

DeepSeek-R1 предлагает аналогичную GPT-4o производительность при стоимости $0.55 за миллион токенов — на 98% дешевле OpenAI.
Обучение модели V3 обошлось в 5.6млн USD (по утверждению разработчика) против5.6млнпротив 17.9 млрд USD у OpenAI, что позволило стартапам внедрять ИИ без огромных инвестиций.

Примеры проектов на моделях DeepSeek

Xiaomi и Meituan разработали собственные LLM для электронной коммерции и логистики, используя открытый код DeepSeek. Это сократило сроки разработки с 12 до 3 месяцев.
Криптопроекты (например, SingularityNET) интегрировали DeepSeek-V3 для анализа рынка, снизив затраты на инфраструктуру на 40%.
Платформа DigitalOcean внедрила DeepSeek-R1 для автоматизации кодирования, что сократило время разработки ПО на 30%.

Повышение точности LLM и требовательности к оборудованию

DeepSeek использует архитектуру Mixture of Experts (MoE), активируя только 37 млрд параметров из 671 млрд для каждой задачи. Это снижает энергопотребление на 50% по сравнению с традиционными моделями 5.
Пример: В здравоохранении алгоритмы на базе DeepSeek анализируют медицинские изображения с точностью 95%, тогда как предыдущие решения показывали 82%.

Перспективы перехода на глубокие языковые модели

Ускорение внедрения ИИ в малом бизнесе

Низкая стоимость и открытый код DeepSeek позволяют даже стартапам создавать чат-боты, аналитические системы и инструменты автоматизации. Например, сервис AutoKeras от Rice University использует DeepSeek для оптимизации deep learning

Специализация моделей

Отраслевые решения, такие как DeepSeek Coder для программирования, уже превосходят GitHub Copilot в задачах генерации кода.

Глобальная конкуренция

Китайские компании (например, ByteDance и iFlytek) выпустили собственные reasoning-модели, вдохновлённые DeepSeek, что усилило давление на США.
Цена разработки в России гораздо ниже чем обычные цены разработчиков за рубежом, однако есть ограничения доступности вычислительных ресурсов. В прочем, наши научились их эффективно обходить.
Узнайте, что именно вашему предприятию может дать внедрение искусственного интеллекта и во сколько это обойдется?

Ограничения на пути внедрения больших языковых моделей

Аппаратные требования

Модели размером 70B+ параметров требуют дорогих GPU. Например, запуск DeepSeek-R1 на DigitalOcean стоит от $1.2 тыс./мес., что всё ещё недоступно для некоторых стартапов.

Безопасность данных

Открытый код DeepSeek не включает встроенные защиты. Компании должны самостоятельно шифровать данные, что увеличивает аппаратные и программные затраты на 15–20%.

Политические риски

Австралия, Тайвань и некоторые другие страны запретили DeepSeek на государственных устройствах из-за опасений утечек данных.

Техническая сложность

Для кастомизации моделей нужны ML-инженеры. Например, ThirdAI потратила 6 месяцев на адаптацию DeepSeek для кибербезопасности.

Что дальше?

DeepSeek стал катализатором для демократизации ИИ, но его успех также выявил новые вызовы. Снижение стоимости и рост производительности открывают путь для массового внедрения, однако ограничения в безопасности, аппаратных ресурсах и регуляторике требуют комплексных решений. Для бизнеса переход на LLM — это не только экономия, но и необходимость инвестировать в инфраструктуру и кадры. В ближайшие годы конкуренция между открытыми и проприетарными моделями определит, кто станет лидером в гонке ИИ.

В России уже несколько команд работают с большими языковыми моделями.

Хотите с ними связаться?

Изображения к статье сгенерированы искусственным интеллектом Kandinsky