'O Bing pode usar até 7 mil tokens para "contexto", que pode ser referenciado na conversa. O limite específico não é conhecido, mas erros podem ocorrer ao exceder 7 mil tokens.',
com_endpoint_bing_system_message_placeholder:
'ATENÇÃO: O uso indevido deste recurso pode resultar em BANIMENTO do uso do Bing! Clique em "Mensagem do Sistema" para obter instruções completas e a mensagem padrão se omitida, que é a configuração "Sydney" considerada segura.',
com_endpoint_system_message:'Mensagem do Sistema',
com_endpoint_default_blank:'padrão: em branco',
com_endpoint_default_false:'padrão: falso',
com_endpoint_default_creative:'padrão: criativo',
com_endpoint_default_empty:'padrão: vazio',
com_endpoint_default_with_num:'padrão: {0}',
com_endpoint_context:'Contexto',
com_endpoint_tone_style:'Estilo de Tom',
com_endpoint_token_count:'Contagem de Tokens',
com_endpoint_output:'Saída',
com_endpoint_google_temp:
'Valores mais altos = mais aleatório, enquanto valores mais baixos = mais focado e determinístico. Recomendamos alterar isso ou Top P, mas não ambos.',
com_endpoint_google_topp:
'Top P altera como o modelo seleciona tokens para a saída. Os tokens são selecionados dos mais K (veja o parâmetro topK) prováveis aos menos até a soma de suas probabilidades igualar ao valor top-p.',
com_endpoint_google_topk:
'Top K altera como o modelo seleciona os tokens para a saída. Um top-k de 1 significa que o token selecionado é o mais provável entre todos os tokens no vocabulário do modelo (também chamado de decodificação gananciosa), enquanto um top-k de 3 significa que o próximo token é selecionado entre os 3 tokens mais prováveis (usando temperatura).',
com_endpoint_google_maxoutputtokens:
'Número máximo de tokens que podem ser gerados na resposta. Especifique um valor menor para respostas mais curtas e um valor maior para respostas mais longas.',
com_endpoint_google_custom_name_placeholder:'Defina um nome personalizado para PaLM2',
com_endpoint_google_prompt_prefix_placeholder:
'Defina instruções ou contexto personalizados. Ignorado se estiver vazio.',
com_endpoint_custom_name:'Nome Personalizado',
com_endpoint_prompt_prefix:'Prefixo do Prompt',
com_endpoint_temperature:'Temperatura',
com_endpoint_default:'padrão',
com_endpoint_top_p:'Top P',
com_endpoint_top_k:'Top K',
com_endpoint_max_output_tokens:'Tokens de Saída Máximos',
com_endpoint_openai_temp:
'Valores mais altos = mais aleatório, enquanto valores mais baixos = mais focado e determinístico. Recomendamos alterar isso ou Top P, mas não ambos.',
com_endpoint_openai_max:
'Máximo de tokens a serem gerados. O comprimento total de tokens de entrada e tokens gerados é limitado pelo comprimento do contexto do modelo.',
com_endpoint_openai_topp:
'Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, em que o modelo considera os resultados dos tokens com massa de probabilidade de top_p. Portanto, 0,1 significa que apenas os tokens que compreendem os 10% principais de massa de probabilidade são considerados. Recomendamos alterar isso ou temperatura, mas não ambos.',
com_endpoint_openai_freq:
'Número entre -2.0 e 2.0. Valores positivos penalizam os novos tokens com base em sua frequência existente no texto até agora, diminuindo a probabilidade do modelo repetir a mesma linha textualmente.',
com_endpoint_openai_pres:
'Número entre -2.0 e 2.0. Valores positivos penalizam os novos tokens com base em se eles aparecem ou não no texto até agora, aumentando a probabilidade do modelo falar sobre novos tópicos.',
com_endpoint_openai_custom_name_placeholder:'Defina um nome personalizado para o ChatGPT',
com_endpoint_openai_prompt_prefix_placeholder:
'Defina instruções personalizadas para incluir na Mensagem do Sistema. Padrão: nenhum',
'Varia de 0 a 1. Use uma temperatura mais próxima de 0 para tarefas analíticas ou de múltipla escolha e mais próxima de 1 para tarefas criativas e gerativas. Recomendamos alterar isso ou o Top P, mas não ambos.',
com_endpoint_anthropic_topp:
'Top-p altera a forma como o modelo seleciona os tokens para a saída. Os tokens são selecionados dos mais prováveis aos menos prováveis até que a soma de suas probabilidades seja igual ao valor de top-p.',
com_endpoint_anthropic_topk:
'Top-k altera a forma como o modelo seleciona os tokens de saída. Um top-k de 1 significa que o token selecionado é o mais provável entre todos os tokens no vocabulário do modelo (também chamado de decodificação gananciosa), enquanto um top-k de 3 significa que o próximo token é selecionado entre os 3 tokens mais prováveis (usando temperatura).',
com_endpoint_anthropic_maxoutputtokens:
'Número máximo de tokens que podem ser gerados na resposta. Especifique um valor mais baixo para respostas mais curtas e um valor mais alto para respostas mais longas.',
com_endpoint_anthropic_custom_name_placeholder:'Defina um nome personalizado para o Anthropic',
com_endpoint_config_key_for:'Definir uma Chave de API para',
com_endpoint_config_key_name:'Chave',
com_endpoint_config_value:'Inserir valor para',
com_endpoint_config_key_name_placeholder:'Defina primeiro uma Chave de API',
com_endpoint_config_key_encryption:'Sua chave será criptografada e excluída em',
com_endpoint_config_key_expiry:'Tempo de expiração',
com_endpoint_config_key_import_json_key:'Importar Chave JSON de Conta de Serviço.',
com_endpoint_config_key_import_json_key_success:'Chave JSON de Conta de Serviço Importada com Sucesso',
com_endpoint_config_key_import_json_key_invalid:'Chave JSON de Conta de Serviço Inválida. Você importou o arquivo correto?',
com_endpoint_config_key_get_edge_key:'Para obter seu token de acesso para o Bing, faça login em',
com_endpoint_config_key_get_edge_key_dev_tool:'Use ferramentas de desenvolvimento ou uma extensão enquanto estiver conectado ao site para copiar o conteúdo do cookie _U. Se isso falhar, siga estas',
com_endpoint_config_key_google_vertex_api:'API no Google Cloud, em seguida,',
com_endpoint_config_key_google_service_account:'Criar uma Conta de Serviço',
com_endpoint_config_key_google_vertex_api_role:'Certifique-se de clicar em \'Criar e Continuar\' para atribuir pelo menos a função de \'Usuário Vertex AI\'. Por fim, crie uma chave JSON para importar aqui.',