Диаграмма развертывания Sherpa AI Server в связке с Роботами
Last updated
Last updated
В хорошем качестве можно скачать .
Расширение схемы развертывания платформы Sherpa RPA описывает использование компонента Sherpa AI Server в составе платформы роботизации для реализации сценариев с использованием искусственного интеллекта и больших языковых моделей.
Все компоненты Sherpa AI Server устанавливаются локально в сети Заказчика, без связи с внешними серверами или службами SaaS. Развертывание Sherpa AI Server осуществляется с помощью Docker-контейнера.
Веб-интерфейс пользователя для непосредственного общения с большой языковой моделью
Векторно-семантическое хранилище
Инференс-сервер большой языковой модели
Эмбеддинг-сервер большой языковой модели
Конфигурация портов и сетевые протоколы Sherpa Sherpa AI Server могут быть настроены для поддержки всех общих требований брандмауэра. Для взаимодействия с веб сервером используется https, опционально возможно http. При установке с помощью TLS клиент должен предоставить необходимые сертификаты, разместив их по пути /opt/app/config/certs/, переименовав их в aiserver.crt и aiserver.key.
Аутентификация веб-пользователей в Sherpa AI Server производится с помощью логина и пароля. Аутентификация внешних приложений, включая роботов платформы Sherpa RPA, производится с помощью API токена.