Мы : Interexy
Какие задачи вас ждут
— Проектирование и внедрение LLM-агентов для enterprise-сценариев
Вы будете создавать агентов, которые умеют маршрутизировать задачи, вызывать внешние API, работать с памятью, планировать цепочки действий и принимать решения в multi-turn-диалогах.
— Построение RAG-систем следующего поколения
Гибридный поиск (BM25 + векторы), reranking, кэширование, мониторинг groundedness — чтобы ответы были точными как швейцарские часы, а галлюцинации ушли на ноль.
— Дообучение и оптимизация моделей
Fine-tuning с LoRA/QLoRA, квантизация (GPTQ/AWQ), ускорение inference (vLLM, TensorRT). Запускаем open-source модели (Llama, Mistral, Phi) и адаптируем их под железо клиента.
— Построение автоматической оценки качества
Без «мамой клянусь, работает» — только метрики: Recall@k, faithfulness, answer correctness. Внедрите eval-лупы, которые отлавливают регрессии до того, как они увидят продакшен.
— Работа напрямую с основателями и заказчиками
Никакого многослойного бюрократического ада. Вы переводите бизнес-идеи в рабочие прототипы, а потом в продакшен — и видите результат своей работы.
Мы ждём, что вы
— Глубоко понимаете LLM (устройство transformer-ов, attention, KV-cache)
— Имеете коммерческий опыт с LangChain/LlamaIndex и хотя бы одной векторной БД (Pinecone, Weaviate, Qdrant)
— Писали production-код на Python с FastAPI, PyTorch, работали с Redis и Postgres
— Умеете дообучать модели через Hugging Face (LoRA/QLoRA)
— Дружите с Docker и Kubernetes (Helm, GPU-воркеры)
— Готовы настраивать автоматические проверки на галлюцинации и достоверность
Будет мощным плюсом
— Опыт с IoT, реальным временем или defence-tech (там свои жёсткие требования к latency и надёжности)
— Работа в стартапах на стадии 0→1
— Диплом топового вуза по CS/ML — но это только при прочих равных, мы смотрим на код и результат
CV отправлять на почту yuliya.nebova@interexy