'O Bing pode usar até 7 mil tokens para "contexto", que pode ser referenciado na conversa. O limite específico não é conhecido, mas erros podem ocorrer ao exceder 7 mil tokens.',
com_endpoint_bing_system_message_placeholder:
'ATENÇÃO: O uso indevido deste recurso pode resultar em BANIMENTO do uso do Bing! Clique em "Mensagem do Sistema" para obter instruções completas e a mensagem padrão se omitida, que é a configuração "Sydney" considerada segura.',
com_endpoint_system_message:'Mensagem do Sistema',
com_endpoint_default_blank:'padrão: em branco',
com_endpoint_default_false:'padrão: falso',
com_endpoint_default_creative:'padrão: criativo',
com_endpoint_default_empty:'padrão: vazio',
com_endpoint_default_with_num:'padrão: {0}',
com_endpoint_context:'Contexto',
com_endpoint_tone_style:'Estilo de Tom',
com_endpoint_token_count:'Contagem de Tokens',
com_endpoint_output:'Saída',
com_endpoint_google_temp:
'Valores mais altos = mais aleatório, enquanto valores mais baixos = mais focado e determinístico. Recomendamos alterar isso ou Top P, mas não ambos.',
com_endpoint_google_topp:
'Top P altera como o modelo seleciona tokens para a saída. Os tokens são selecionados dos mais K (veja o parâmetro topK) prováveis aos menos até a soma de suas probabilidades igualar ao valor top-p.',
com_endpoint_google_topk:
'Top K altera como o modelo seleciona os tokens para a saída. Um top-k de 1 significa que o token selecionado é o mais provável entre todos os tokens no vocabulário do modelo (também chamado de decodificação gananciosa), enquanto um top-k de 3 significa que o próximo token é selecionado entre os 3 tokens mais prováveis (usando temperatura).',
com_endpoint_google_maxoutputtokens:
'Número máximo de tokens que podem ser gerados na resposta. Especifique um valor menor para respostas mais curtas e um valor maior para respostas mais longas.',
com_endpoint_google_custom_name_placeholder:'Defina um nome personalizado para PaLM2',
com_endpoint_google_prompt_prefix_placeholder:
'Defina instruções ou contexto personalizados. Ignorado se estiver vazio.',
com_endpoint_custom_name:'Nome Personalizado',
com_endpoint_prompt_prefix:'Prefixo do Prompt',
com_endpoint_temperature:'Temperatura',
com_endpoint_default:'padrão',
com_endpoint_top_p:'Top P',
com_endpoint_top_k:'Top K',
com_endpoint_max_output_tokens:'Tokens de Saída Máximos',
com_endpoint_openai_temp:
'Valores mais altos = mais aleatório, enquanto valores mais baixos = mais focado e determinístico. Recomendamos alterar isso ou Top P, mas não ambos.',
com_endpoint_openai_max:
'Máximo de tokens a serem gerados. O comprimento total de tokens de entrada e tokens gerados é limitado pelo comprimento do contexto do modelo.',
com_endpoint_openai_topp:
'Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, em que o modelo considera os resultados dos tokens com massa de probabilidade de top_p. Portanto, 0,1 significa que apenas os tokens que compreendem os 10% principais de massa de probabilidade são considerados. Recomendamos alterar isso ou temperatura, mas não ambos.',
com_endpoint_openai_freq:
'Número entre -2.0 e 2.0. Valores positivos penalizam os novos tokens com base em sua frequência existente no texto até agora, diminuindo a probabilidade do modelo repetir a mesma linha textualmente.',
com_endpoint_openai_pres:
'Número entre -2.0 e 2.0. Valores positivos penalizam os novos tokens com base em se eles aparecem ou não no texto até agora, aumentando a probabilidade do modelo falar sobre novos tópicos.',
com_endpoint_openai_custom_name_placeholder:'Defina um nome personalizado para o ChatGPT',
com_endpoint_openai_prompt_prefix_placeholder:
'Defina instruções personalizadas para incluir na Mensagem do Sistema. Padrão: nenhum',
com_endpoint_frequency_penalty:'Frequência de Penalização',
com_endpoint_presence_penalty:'Penalidade de Presença',