23 November 2025

ИТ-инфраструктура в 2026 году

infra 2026.png

Текст расшифрован и отредактирован с помощью Claude Opus 4.1

За 3 года программисты массово перешли на Cursor AI — код там пишется в разы быстрее. Аналитики генерируют презентации в Microsoft Copilot за минуты вместо часов. DataLens получил YandexGPT для построения графиков — вы пишете «покажите динамику продаж по регионам» и получаете готовую визуализацию. В n8n люди без знаний программирования строят AI-агентов. Они просто соединяют блоки, а система генерирует готовый код.

Но есть проблема — корпоративные системы не готовы к AI-трансформации. Работайте над этими темами в 2026 году, и вы опередите рынок:

Главный принцип: JSON повсюду

JSON — это язык, который AI понимает лучше всего. Это не просто формат данных, это протокол общения между человеком и машиной через AI.

Возьмём Azure Data Factory. Любой ETL-пайплайн там можно описать в JSON:

{ "name": "CopyPipeline", "properties": { "activities": [{ "type": "Copy", "inputs": [{"referenceName": "SourceDataset"}], "outputs": [{"referenceName": "DestinationDataset"}] }] } }

Вы подаёте этот JSON вместе с описанием задачи в AI — и получаете рабочий пайплайн. AI знает синтаксис Azure, понимает зависимости между компонентами и пишет код без ошибок.

То же самое работает в Grafana для мониторинга. Любой

dashboard — это JSON-конфигурация. AI может сгенерировать сложную систему мониторинга с алертами, получив только описание того, что вы хотите отслеживать.

В n8n каждый узел автоматизации описан через JSON. AI видит структуру, понимает связи и может изменить поток под новые требования.

Где JSON пока не работает: реальный пример

Возьмите Bitrix24 — один из самых популярных CRM в России. У них есть API, но попробуйте экспортировать конфигурацию воронки продаж или структуру карточки клиента в JSON. Не получится.

Вся конфигурация вшита в проприетарный формат. Чтобы AI работал с вашей воронкой, нужно вручную описать каждый этап, каждое поле, каждое правило автоматизации. И при любом изменении в CRM — обновлять это описание.

Сравните с HubSpot или Pipedrive. Там вся структура CRM доступна через API в JSON:

  • стадии сделок
  • пользовательские поля
  • правила автоматизации
  • шаблоны писем

AI может прочитать эту структуру, понять бизнес-логику и предложить улучшения. Или автоматически создать интеграцию с другими системами.

Правило на 2026 год: каждый компонент вашей системы должен иметь JSON-представление. Дашборды, пайплайны, конфигурации, схемы данных — всё должно экспортироваться и импортироваться через JSON. Внимание!!! Это не касается хранения данных — реляционные таблицы останутся с нами навсегда.

Архитектура баз данных для AI

Данные должны жить в одной-двух базах с понятной структурой. Но структура — только начало. AI нужен контекст.

Добавьте описание к каждой таблице:

COMMENT ON TABLE transactions IS 'Transactions from marketplaces. Updated every hour. Contains only confirmed sales. For returns see the returns table.';

Добавьте пояснение к каждому неочевидному столбцу:

COMMENT ON COLUMN transactions.fee_type IS 'Commission type: FBS – Ozon fulfillment, FBO – shipment from Ozon warehouse, realFBS – seller-managed delivery.';

Реальный пример: вы тянете транзакции с Ozon. Есть три разных API:

  • Seller API — для продавцов FBO
  • Performance API — для рекламных кампаний
  • Analytics API — для аналитики

Каждое возвращает разные данные в разных форматах. Без документации AI выберет неправильный эндпоинт и перепутает рекламные расходы с выручкой. С документацией — сразу поймёт, какой метод использовать для конкретной задачи.

Токены — это деньги: оптимизация имеет значение

Каждый запрос в Claude или GPT стоит денег. При работе с базами через MCP (Model Context Protocol) один запрос может сжечь тысячи токенов.

Плохой подход: AI делает 50 запросов к базе, чтобы понять структуру данных.

Хороший подход:

  1. Вся метадата собрана в одном месте
  2. Есть индекс, описывающий таблицы
  3. AI делает 1–2 целевых запроса

Экономия может достигать 90% на токенах. При объёме 1000 запросов в день это $500 против $50.

CRM без API — выбрасывайте

Если ваша CRM не имеет полноценного API для AI — смените CRM. Это не преувеличение.

При корректном доступе AI сможет:

Автоматически вносить данные после звонков AI слушает запись звонка, извлекает ключевые моменты, обновляет статус сделки, добавляет задачи менеджеру.

Писать персонализированные письма Не шаблоны с {CLIENT_NAME}, а реальные письма. AI анализирует историю коммуникаций, понимает контекст, учитывает особенности клиента.

Отслеживать статус клиента Подключается к MPStats, видит, что у конкурента клиента цены упали на 30%, и сразу предлагает менеджеру связаться с клиентом с предложением помощи.

Проверять компании по внешним источникам С помощью Selenium и RPA проверяет сайты клиентов, их активность на маркетплейсах, упоминания в новостях.

Без API вы вручную экспортируете Excel, загружаете в ChatGPT, копируете результаты обратно. Это как использовать Ferrari для доставки пиццы — возможно, но зачем?

Векторизуйте весь контент

Аналитические данные находятся везде:

  • PostgreSQL — транзакционные данные
  • ClickHouse — логи и события
  • S3 Data Lake — сырые файлы

AI должен понимать, что в каждом файле, не открывая его.

Как это работает

  1. Индексация документов AI читает каждый PDF, Excel, презентацию. Создаёт векторное представление — математический отпечаток содержимого.

  2. Хранение в pgVector

CREATE TABLE document_vectors ( id SERIAL PRIMARY KEY, file_path TEXT, content_summary TEXT, embedding vector(1536) );
  1. Семантический поиск Вы спрашиваете: «где наш анализ оттока за Q3?» — AI находит нужный документ за секунду, даже если имя файла не содержит слов «отток» или «Q3».

Важные нюансы

Разные форматы — разные подходы

  • PDF требует OCR
  • Excel требует понимания структуры таблицы
  • Презентации индексируются по слайдам

Храните векторы локально Не отправляйте документы напрямую в ChatGPT или Claude. Сохраняйте векторные представления в собственной базе. Вы остаётесь владельцем данных, контролируете доступ и обеспечиваете соответствие требованиям.

Практические советы по выбору технологий

Используйте популярное open source

AI обучен на публичном коде с GitHub. Он знает, как это работает:

  • Airflow (30k stars) — оркестрация пайплайнов
  • Grafana (60k stars) — мониторинг
  • PostgreSQL — база данных
  • n8n (40k stars) — автоматизация

О вашей собственной системе управления задачами AI ничего не знает. Придётся писать документацию размером с «Войну и мир».

Не гонитесь за последними версиями

AI обучен на данных примерно за последние шесть месяцев.

Плохо: Airflow 3.0 с breaking changes, выпущенный месяц назад Хорошо: Airflow 2.8, стабильный уже год

Разница в функциональности минимальна, но AI точно знает все методы и не будет галлюцинировать.

Документируйте нестандартные решения

Если вы используете что-то специфическое, создайте README с примерами:

## Our wrapper around RabbitMQ Sending a message: ```python from our_queue import send_message send_message('orders', {'order_id': 123, 'status': 'paid'})

Receiving messages:

from our_queue import consume for message in consume('orders'): process_order(message)

AI прочитает документацию и сможет работать с вашим кодом.

План внедрения: что делать прямо сейчас

Неделя 1: Аудит

  • Составьте список всех систем хранения данных
  • Проверьте, есть ли у каждой системы API
  • Оцените возможность экспорта в JSON

Неделя 2: Быстрые победы

  • Добавьте описания к 10 самым важным таблицам
  • Настройте экспорт одного дашборда в JSON
  • Создайте тестовый пайплайн в n8n с помощью AI

Месяц 1: Пилот

  • Выберите одну рутинную задачу (например, еженедельный отчёт)
  • Автоматизируйте её через AI
  • Измерьте экономию времени

Квартал 1: Масштабирование

  • Расширьте автоматизацию на отдел
  • Обучите сотрудников работе с AI-инструментами
  • Создайте внутреннюю базу знаний по AI-ready архитектуре

Экономика

Компания с 50 сотрудниками может сэкономить:

На рутине: 30% времени аналитиков и разработчиков = 15 FTE = ₽18M/год

На ошибках: AI не путает колонки в Excel и не забывает обновить дашборды = -70% инцидентов

На скорости: новый отчёт за час вместо недели = x7 скорость принятия решений

Инвестиции в AI-ready инфраструктуру окупаются за 3–6 месяцев. После этого — чистая экономия и конкурентное преимущество.

Главное

AI — не магия, которая сделает всё сама по себе. Это инструмент, который работает настолько хорошо, насколько подготовлены данные.

Дайте AI беспрепятственный доступ к данным, научите его понимать вашу архитектуру, используйте проверенные технологии — и получите кратное ускорение всех процессов.

Компании, сделавшие это в 2026, получат такое же преимущество, как те, кто первыми перешёл в облако в 2010-х. Остальные будут догонять следующие 10 лет.

Daniil Kovekh
Daniil Kovekh
Data & Full Stack Engineer