или авторизуйтесь, если у вас он уже есть
Как построить архитектуру, которая не мешает быстро запускать AI-сервисы, но при этом остаётся устойчивой, понятной и масштабируемой?
В докладе я расскажу, как мы, используя простые и привычные инструменты, смогли построить архитектуру, которая позволяет запускать и развивать AI-сервисы без лишней сложности. Оказалось, что даже на «обычном стеке» можно строить надёжные и масштабируемые системы.
На конкретных примерах покажу, как эта архитектура и набор AI-инструментов помогают нам создавать и поддерживать сервисы вокруг внутренних LLM-моделей: от пользовательских ассистентов в нашей GPT-like платформе до масштабируемого банковского чат-бота.
Мы заглянем в исходный код, обсудим библиотеки, приёмы и инфраструктурные решения, которые позволяют стабильно и быстро доставлять новую AI-функциональность в продакшн. Всё основано на реальном опыте — без маркетинга и без «магии».