«Начинать не с технологий, а с конкретной бизнес-проблемы»: глава Data Science Insight AI Михаил Евдокимов об ИИ в сфере банкинга и HR
На первый план выходит не алгоритм как таковой, а способность довести решение до промышленного внедрения с учетом ограничений данных, инфраструктуры и человеческого фактора.
Мы поговорили с Михаилом Евдокимовым, руководителем направления Data Science в Insight AI, о том, как меняются требования к ИИ-решениям в разных индустриях, почему классические подходы перестают работать и что на самом деле стоит за успешными кейсами внедрения — от рекомендательных систем до корпоративных ИИ-агентов.
В интервью Михаил делится, почему главный вызов Data Science сегодня лежит за пределами самих моделей и рассказывает, какие проекты помогли ему стать ведущим специалистом в области виртуализации в России.
За его плечами окончание Высшей Школы Экономики, учеба в университете Тилбург в Нидерландах, работа над высоконагруженными продуктами с миллионами пользователей, включая рекомендательные системы в ВКонтакте, а также проекты в банковском секторе с высокой стоимостью ошибки.
Его экспертиза сформировалась на пересечении разных индустрий и задач, а сейчас Михаил стоит за передовыми разработками в сфере промышленности и строительства.
— Михаил, вы прошли путь от позиции Data Scientist в ВК до руководителя направления Data Science в Insight AI. Какие ключевые этапы или проекты больше всего повлияли на ваш профессиональный рост?
— На мой взгляд, сильнее всего развивают проекты, где есть масштаб и ответственность за результат. Для меня такими этапами стали работа с продуктами на миллионы пользователей — в частности, рекомендательные системы, где любая ошибка мгновенно масштабируется. А также проекты в корпоративной среде, где цена ошибки всегда измеряется в деньгах — иногда мгновенно и в крупных объёмах. Работая с моделями процентных ставок и хеджирования в банке, я на практике увидел, что даже небольшое отклонение или некорректное предположение в модели может привести к существенным потерям, поэтому ключевой задачей становится не только точность, но и постоянная валидация, контроль рисков и устойчивость решений к сбоям. Несмотря на риски, мне удалось повысить эффективность хеджирования на 38%.
Переход в управленческую роль добавил еще один важный этап, необходимость не только строить модели, но и выстраивать систему: процессы, команды, взаимодействие с бизнесом. Именно это, как мне кажется, стало сильным драйвером роста.
— За годы работы вы занимались как рекомендательными системами в сфере медиа, так и проектами в банковском секторе (Райффайзенбанк), управляли разработкой продуктами с миллионами пользователей (ВК Музыка). Насколько отличаются подходы к Data Science в этих сферах?
— Различия довольно существенные. В медийных продуктах ключевой фокус на пользовательском опыте и метриках вовлеченности, там допустимы быстрые эксперименты и итерации. При этом ошибки все равно мгновенно влияют на большую аудиторию, поэтому любой шаг хорошо обдумывается. Сами технологии тоже отличаются — я использовал преимущественно коллаборативную фильтрацию, внедрил гибридные и нейросетевые подходы (ALS, LightFM, NN). И результат считался в метриках вовлеченности — например, я достиг +9% к уникальным прослушиваниям и повысил на 7% удержание пользователей.
В банковском секторе все иначе: там важны стабильность, объяснимость моделей и контроль рисков. Цена ошибки значительно выше, поэтому подход становится более консервативным. Больше внимания к валидации, документации и процессам.
В РайффайзенБанке мы также много занимались данными — в результате оптимизировали расходы на их покупку 78% в некоторые периоды. В финансовых моделях совсем другие метрики эффективности, нежели в сфере медиа.
Но есть и общее, в обоих случаях успех определяется не только качеством модели, но и тем, насколько она встроена в бизнес-процессы.
— В одном из проектов для известного девелопера вы создавали ИИ-агента, который работает с документацией и эксплуатационными данными. В чем была основная бизнес-задача, которую вы решали, и почему классические подходы не справлялись?
— Основная задача была в ускорении реакции на инциденты и повышении качества эксплуатации. У компании был большой объем документации, логов, регламентов, но доступ к этим знаниям был фрагментирован. До внедрения решения среднее время анализа инцидента занимало от 30 до 60 минут, а в сложных случаях — до нескольких часов, поскольку инженерам приходилось вручную искать информацию в десятках источников: документации, логах, регламентах.
Классические инструменты поиска и мониторинга не справлялись, потому что они работают либо по ключевым словам, либо в рамках отдельных систем. В реальности же проблема часто требует собрать контекст из разных источников и интерпретировать его.
Именно эту задачу, объединение знаний и помощь в принятии решений, мы и решали. В результате внедрения ИИ-агента удалось сократить время первичного анализа инцидентов в среднем в 4-6 раз, снизить количество ошибок при диагностике на 55% и повысить скорость реакции команд эксплуатации.
— В этом проекте вы использовали комбинацию семантического поиска, LLM и интеграций с системами мониторинга. Насколько сложно было объединить эти компоненты в единое решение, и где возникали основные технические или продуктовые компромиссы?
— Основная сложность не в самих технологиях, а в их согласовании. Каждая часть по отдельности работает хорошо, но при объединении возникает много вопросов: как обеспечить точность, как контролировать ответы модели, как встроить это в реальные процессы. Компромиссы чаще всего возникают между скоростью, точностью и стоимостью. Например, более сложные модели дают лучший результат, но требуют больше ресурсов. Я разработал голосового AI-ассистента, который автоматизировал 47% обращений первой линии и сэкономил компании свыше 12 млн руб/год. Но потребовалось несколько месяцев на разработку и постепенное внедрение в операционные процессы заказчика.
Плюс есть продуктовый слой — важно, чтобы решение было не просто умным, а удобным и понятным для пользователей.
— Вы получили ощутимый эффект, ускорение анализа и реакции до нескольких раз, рост CSI и NPS. За счет чего в первую очередь достигается такой результат: качества модели, интеграции в процессы или изменений в работе команды?
— Это всегда комбинация факторов, но в нашем случае мы можем достаточно точно разложить вклад. Качество модели дало порядка 20–30% эффекта за счет более точного поиска и релевантных рекомендаций. Основной вклад, около 50–60%, обеспечила интеграция в процессы: решение было встроено в ежедневную работу инженеров и операторов, что позволило сократить время на поиск информации с 15–20 минут до 3–5 минут в типовых сценариях.
И третий фактор — изменения в работе команды, которые дали еще около 20% эффекта. Когда у сотрудников появился быстрый доступ к знаниям и готовые рекомендации, снизилось количество эскалаций и повторных обращений примерно на 25–30%, что напрямую повлияло на рост CSI и NPS.
— В кейсе для FMCG-компании вы внедряли систему парсинга резюме с ML-скорингом кандидатов. Какие сложности возникают при автоматизации HR-процессов?
— Главная сложность — это доверие. HR-специалисты должны понимать, как работает модель и почему она принимает те или иные решения. Многие в этой сфере остаются довольно консервативными и приходится работать с возражениями разного характера.
Вторая проблема — качество данных. Резюме и анкеты часто не структурированы, и их нужно привести к единому виду. На практике до 60–70% данных требуют предварительной обработки, иначе точность скоринга существенно падает.
И третье, баланс между автоматизацией и контролем. Важно не заменить человека, а дать ему инструмент, который ускоряет работу и делает её более прозрачной. Когда, например, я автоматизировал обработку путевых листов для логистической компании — время снизилось с 3 дней до 4 минут, экономия более 4 500 часов ручной работы в квартал. Человека здесь не заменить, но у него появляется ресурс на другие задачи.
— В результате вам удалось сократить время первичного отбора и увеличить пропускную способность без роста команды. Как вы измеряли эффект и какие метрики были ключевыми?
— Мы смотрели на несколько уровней метрик. Во-первых, операционные — время на первичный отбор, скорость обработки кандидатов. Во-вторых, пропускную способность воронки, сколько кандидатов проходит через систему.
И третий уровень — качество: насколько отобранные кандидаты соответствуют требованиям.
Ключевой результат был в том, что удалось увеличить объем обработки без роста команды, при этом сохранив или улучшив качество отбора. Нам удалось снизить период первичного отбора более чем в 2 раза. Например, мы отслеживали долю кандидатов, прошедших первичный отбор и дошедших до следующего этапа — она выросла примерно на 16%, а точность скоринга по внутренним метрикам увеличилась на 10–12%.
— Если смотреть на ваш опыт — какой один совет вы бы дали компаниям, которые хотят внедрять ИИ-решения, но не знают, с чего начать?
— Начинать не с технологий, а с конкретной бизнес-проблемы. Лучше выбрать один понятный процесс с измеримым эффектом и довести его до результата, чем запускать сразу несколько инициатив без четкой цели.
И очень важно с самого начала думать о внедрении — о том, как решение будет использоваться в реальной работе.
— Вас часто приглашают в качестве судьи на отраслевые конкурсы и предлагают оценить стартапы в области ИИ: недавно вы были жюри на всероссийском конкурсе Бизнес Прорыв 2026. На что в первую очередь опирались при оценке лауреатов?
— В первую очередь, на практическую ценность. Насколько понятно, какую проблему решает проект и есть ли у него реальный эффект. Второй момент — реализуемость. Есть ли у команды понимание, как довести идею до рабочего решения.
И конечно обращаю внимание на зрелость подхода: использование данных, понимание ограничений технологий и готовность работать с ними.