Этот проект представляет собой комплексное решение для автоматизации HR-процессов с использованием искусственного интеллекта. Он включает в себя модели для распознавания речи, генерации ответов на вопросы и синтеза речи, а также фронтенд-приложение для взаимодействия с пользователем.
Команда:
- Альберт Хазипов
- Никита Зорин
- Искандер Ишкинеев
Для запуска проекта вам понадобится conda для управления окружением.
-
Установка и запуск Ollama
Для работы с языковой моделью используется Ollama. Установите ее с помощью следующей команды в вашем терминале:
curl -fsSL https://ollama.com/install.sh | shПосле установки запустите сервер Ollama:
ollama serve
-
Загрузка языковой модели
Далее необходимо скачать модель
qwen3:8b. Выполните следующую команду:ollama run qwen3:8b
-
Настройка окружения для ML-сервисов
Перейдите в папку
mlпроекта. Здесь находятся три сервиса и файлrequirements.txtс необходимыми зависимостями.Создайте и активируйте окружение conda:
conda create -n ai_hr python=3.13.3 conda activate ai_hr
Установите зависимости:
pip install -r requirements.txt
-
Настройка фронтенд-приложения
Перейдите в папку
frontendи установите зависимости с помощьюnpm:npm install
Необходимо запустить три сервиса в отдельных терминалах из папки ml.
-
Сервис для работы с LLM (Language Learning Model)
uvicorn chat:app --host 0.0.0.0 --port 8080
-
Сервис для работы с Speech-to-Text
uvicorn stt:app --host 0.0.0.0 --port 8081
-
Сервис для работы с Text-to-Speech
uvicorn tts:app --host 0.0.0.0 --port 8082
После запуска всех ML-сервисов, перейдите в папку frontend и запустите приложение для разработки:
npm run devПосле этого фронтенд-приложение будет доступно в вашем браузере по адресу, указанному в выводе команды.