Logo

Tengri Data: как бизнес монетизирует данные и зарабатывает на них

Tengri Data, 3 февраля 2026 г.

Tengri Data: как бизнес монетизирует данные и зарабатывает на них

В своей колонке Николай Голов, директор по продукту Tengri Data, рассуждает о данных как о ценном активе, который при грамотном подходе приносит реальные деньги, но предостерегает от иллюзий: монетизация — это не продажа персональных данных (это незаконно и бессмысленно), а внутренние решения бизнеса, основанные на анализе информации.

Он объясняет, что монетизация данных — это, по сути, умные решения: кому дать скидку, какой товар закупить, как изменить цену в реальном времени. Компании из разных отраслей уже давно этим занимаются: банки и страховщики экономят на скоринге, ретейл прогнозирует спрос, чтобы не замораживать деньги в складских остатках, а маркетплейсы подталкивают пользователя к покупке персонализированными рекомендациями в нужный момент.

Эффект от таких решений может быть огромным. Голов приводит пример российской компании с объявлениями, которая за счет автоматизации службы поддержки (сокращения найма модераторов) увеличила выручку на 15%. Для крупных игроков даже несколько процентов от оборота — это колоссальные суммы. Но при этом он честно говорит: многие разочаровались в данных, потому что ждали быстрых денег, а не вложились в долгий процесс очистки, поиска гипотез и их проверки.

Почему попытки проваливаются? По словам Николая, проблема не только в технологиях (хотя скорость обработки до сих пор вызывает сложности), но и в организации. Компании часто не могут четко сформулировать, чего именно хотят от данных и какую метрику собираются улучшить. Машинное обучение — не магия, а инструмент, который без внятной цели и понимания контекста не работает.

Именно здесь появляется Tengri Data. Голов рассказывает, что создавал платформу, наблюдая за рынком: запад ушел в облака, но многим компаниям (особенно в банках, телекоме, да и просто осторожному бизнесу) нужны решения on-premise, под собственным контролем. Tengri Data построена на Open Lakehouse с разделением Compute и Storage, что позволяет масштабироваться без взрывного роста стоимости и сложности.

Главное, что он подчеркивает: платформа объединяет все этапы работы аналитика в одном окне. Раньше нужно было собирать конструктор из десяти инструментов, тратя месяцы на интеграцию. Теперь аналитик в единой среде забирает данные, чистит их, строит модели, визуализирует и даже общается с ИИ-агентами, которые помогают писать код и исправлять ошибки. Кстати, название «Tengri Data» (отсылка к духам в шаманизме) как раз отражает идею, что в платформе «живут» эти цифровые помощники.

Отдельный акцент — на безопасности. В условиях участившихся утечек важно, что все компоненты собраны в единый дистрибутив, а доступ строго контролируется централизованно. Если сотрудник уходит, его права отзываются мгновенно.

В планах развития — усиление ИИ-агентов и создание дата-сервисов: легких микросервисов (например, рекомендательных систем), которые можно запускать прямо внутри платформы, превращая её из чисто аналитической в базу реального времени, способную поддерживать внешние приложения.

 

С полной версией материала можно ознакомиться по ссылке 

К материалам