Запрос к GPT модели (ChatGPTRequest)
Этот блок позволяет отправлять запросы к классическим генеративным моделям Open AI до ChatGPT. С его помощью вы можете создавать новые тексты по запросу, выполнять разнообразные задачи:
классификации,
суммаризации,
перевода и рерайтинга текстов,
написание прототипов кода на разных языках программирования,
парсить полуструктурированные и неструктурированные данные,
извлекать и обрабатывать факты,
поддерживать диалог на разнообразные темы, и многое другое.
Оплата за использование данного функционала списывается с лицевого счета клиента на платформе. Для тестовых целей каждому новому Пользователю даётся возможность протестировать данный функционал без оплаты. При использовании данного функционала после окончания разработки Робота необходима оплата.
Запрос
[Текст] Введите запрос на естественном языке.
Модель
Выберите модель для генерации текста. Модель "text-davinci-003" предлагает наибольшее качество генерации, однако её использование наиболее дорогое и медленное. Другие модели могут предлагать более дешевые и более быстрые результаты, за счет некоторой потери качества генерации. Методом проб и ошибок подберите модель, которая лучше всего подходит для решения ваших задач.
Свое название модели
[Текст] Укажите свое название модели, которую поддерживает Sherpa AI Server.
Стоп-слова
[Текст/Список] Строка или список, содержащий не более 4 строк, которые остановят дальнейшую генерацию. Возвращаемый текст не будет содержать эти слова.
Температура
[Число] Десятичное дробное число от 0 до 1, показывающее степень "случайности" или "креативности" результата, где:
0 - наименее креативный результат,
1 - максимально случайный.
Для большинства творческих задач лучше подходит значение 0.7, а если вы хотите на один и тот же запрос каждый раз получать одинаковый ответ - установите значение 0.
Максимальная длина
[Число] Максимальная длина результата, выраженная в условных токенах.
Для английского языка 1 токен - это 4 символа, для большинства других языков 1 токен - это 1 символ.
Уменьшите это число, если хотите получать в среднем более короткие запросы, увеличьте для получения более длинных запросов. Учтите, что данное число ограничивает длину ответа, однако не обязательно полученный ответ будет указанной вами длины - в зависимости от содержимого запроса он может быть короче.
Автоограничение длины
При включении указанная максимальная длина будет автоматически скорректирована.
Для этого вычисляется количество токенов в запросе и учитывается максимально возможное количество токенов для выбранной модели.
Таймаут
[Число] Максимальное время ожидания ответа в секундах. Реальное время ожидания зависит от выбранной модели, длины вашего запроса и прогнозируемой длины ответа, а также от текущей загруженности серверов.
В случае превышения установленного предела ожидания возникает ошибка.
Количество попыток
[Число] Количество попыток при возникновении ошибки связи с сервером.
Ответ
[Текст] Ответ генеративной модели на запрос.
Итоговая длина
[Число] Итоговая длина запроса и результата (объединенных вместе), выраженная в условных токенах.
Уровень обработки
Выбор уровня обработки ошибок. Возможные значения:
"Default" - по умолчанию;
"Ignore" - ошибки игнорируются;
"Handle" - ошибки обрабатываются.
Если выбрано значение "Default", то будет использоваться значение блока "Старт" данной диаграммы.
Уровень сообщений
Выбор уровня сообщений, который будут выводить блоки при работе. Возможные значения:
"Default" - по умолчанию;
"Release" - вывод отключен;
"Debug" - вывод основной информации;
"Detailed" - вывод подробной информации.
Если выбрано значение "Default", то будет использоваться значение блока "Старт" данной диаграммы.
Текст ошибки
[Текст] Возвращает подробную информацию об ошибке в случае некорректного выполнения работы блока.
Last updated