'Hubo un problema al restablecer tu contraseña. No se encontró ningún usuario con la dirección de correo electrónico proporcionada. Por favor, inténtalo de nuevo.',
com_auth_reset_password_success:'Contraseña restablecida con éxito',
'Bing puede usar hasta 7k tokens para el "contexto", al que puede hacer referencia para la conversación. El límite específico no se conoce, pero puede dar errores al superar los 7k tokens',
'ADVERTENCIA: ¡El uso indebido de esta función puede hacer que te BANEEN de usar Bing! Haz clic en "Mensaje del sistema" para ver las instrucciones completas y el mensaje predeterminado si se omite, que es el preajuste de "Sydney" que se considera seguro.',
com_endpoint_system_message:'Mensaje del sistema',
'Valores más altos = más aleatorios, mientras que valores más bajos = más enfocados y deterministas. Recomendamos alterar esto o Top P pero no ambos.',
'Top-p cambia cómo el modelo selecciona tokens para la salida. Los tokens se seleccionan desde el más K (ver parámetro topK) probable al menos hasta que la suma de sus probabilidades sea igual al valor de top-p.',
'Top K cambia cómo el modelo selecciona los tokens para la salida. Un top-k de 1 significa que el token seleccionado es el más probable entre todos los tokens en el vocabulario del modelo (también conocido como decodificación codiciosa), mientras que un top-k de 3 significa que el siguiente token se selecciona entre los 3 tokens más probables (usando temperatura).',
com_endpoint_google_maxoutputtokens:
'Número máximo de tokens que pueden generarse en la respuesta. Especifique un valor menor para respuestas más cortas y un valor mayor para respuestas más largas.',
com_endpoint_google_custom_name_placeholder:'Establece un nombre personalizado para PaLM2',
com_endpoint_google_prompt_prefix_placeholder:
'Establece instrucciones o contexto personalizado. Ignorado si está vacío.',
com_endpoint_custom_name:'Nombre Personalizado',
com_endpoint_prompt_prefix:'Prefijo de Indicación',
'Top-k cambia cómo el modelo selecciona tokens para la salida. Un top-k de 1 significa que el token seleccionado es el más probable entre todos los tokens del vocabulario del modelo (también llamado decodificación codiciosa), mientras que un top-k de 3 significa que el siguiente token se selecciona entre los 3 tokens más probables (usando la temperatura).',
com_endpoint_google_maxoutputtokens:
'Número máximo de tokens que se pueden generar en la respuesta. Especifica un valor menor para respuestas más cortas y un valor mayor para respuestas más largas.',
com_endpoint_google_custom_name_placeholder:'Establece un nombre personalizado para PaLM2',
com_endpoint_prompt_prefix_placeholder:'Establece instrucciones o contexto personalizados. Se ignora si está vacío.',
com_endpoint_custom_name:'Nombre personalizado',
com_endpoint_prompt_prefix:'Prefijo de indicación',
'Valores más altos = más aleatorios, mientras que valores más bajos = más enfocados y deterministas. Recomendamos alterar esto o Top P pero no ambos.',
'Los tokens máximos a generar. La longitud total de los tokens de entrada y los tokens generados está limitada por la longitud de contexto del modelo.',
'Una alternativa al muestreo con temperatura, llamada muestreo de núcleo, donde el modelo considera los resultados de los tokens con masa de probabilidad top_p. Así que 0.1 significa que solo se consideran los tokens que comprenden la masa de probabilidad del 10% superior. Recomendamos alterar esto o la temperatura pero no ambos.',
'Número entre -2.0 y 2.0. Los valores positivos penalizan los nuevos tokens en función de su frecuencia existente en el texto hasta el momento, disminuyendo la probabilidad del modelo de repetir la misma línea textualmente.',
'Número entre -2.0 y 2.0. Los valores positivos penalizan los nuevos tokens en función de si aparecen en el texto hasta el momento, aumentando la probabilidad del modelo de hablar de nuevos temas.',
'Varía de 0 a 1. Usa una temperatura más cercana a 0 para analítico / opción múltiple, y más cercana a 1 para tareas creativas y generativas. Recomendamos alterar esto o Top P pero no ambos.',
'Top-p cambia cómo el modelo selecciona tokens para la salida. Los tokens se seleccionan desde el más K (ver parámetro topK) probable al menos hasta que la suma de sus probabilidades sea igual al valor de top-p.',
'Top-k cambia cómo el modelo selecciona tokens para la salida. Un top-k de 1 significa que el token seleccionado es el más probable entre todos los tokens del vocabulario del modelo (también llamado decodificación codiciosa), mientras que un top-k de 3 significa que el siguiente token se selecciona entre los 3 tokens más probables (usando la temperatura).',
'Número máximo de tokens que se pueden generar en la respuesta. Especifica un valor menor para respuestas más cortas y un valor mayor para respuestas más largas.',
com_endpoint_anthropic_custom_name_placeholder:'Establece un nombre personalizado para Anthropic',
com_endpoint_frequency_penalty:'Penalización de frecuencia',
com_endpoint_presence_penalty:'Penalización de presencia',
'Usa las herramientas de desarrollo o una extensión mientras estás conectado al sitio para copiar el contenido de la cookie _U. Si esto falla, sigue estas',
'Asegúrate de hacer clic en "Crear y continuar" para dar al menos el rol de "Usuario de Vertex AI". Por último, crea una clave JSON para importarla aquí.',
com_nav_auto_scroll:'Desplazamiento automático al más reciente al abrir',
com_nav_plugin_store:'Tienda de plugins',
com_nav_plugin_search:'Buscar plugins',
com_nav_plugin_auth_error:
'Hubo un error al intentar autenticar este plugin. Por favor, inténtalo de nuevo.',
com_nav_close_menu:'Cerrar barra lateral',
com_nav_open_menu:'Abrir barra lateral',
com_nav_export_filename:'Nombre de archivo',
com_nav_export_filename_placeholder:'Establece el nombre de archivo',
com_nav_export_type:'Tipo',
com_nav_export_include_endpoint_options:'Incluir opciones de punto final',
com_nav_enabled:'Habilitado',
com_nav_not_supported:'No compatible',
com_nav_export_all_message_branches:'Exportar todas las ramas de mensajes',
com_nav_export_recursive_or_sequential:'¿Recursivo o secuencial?',