com_endpoint_bing_enable_sydney:'Schakel Sydney in',
com_endpoint_bing_to_enable_sydney:'Om Sydney in te schakelen',
com_endpoint_bing_jailbreak:'Jailbreak',
com_endpoint_bing_context_placeholder:
'Bing kan maximaal 7k tokens voor \'context\' gebruiken, waarnaar het kan verwijzen voor het gesprek. De specifieke limiet is niet bekend, maar kan fouten opleveren bij meer dan 7k tokens',
com_endpoint_bing_system_message_placeholder:
'WAARSCHUWING: Misbruik van deze functie kan ertoe leiden dat je VERBANNEN wordt van het gebruik van Bing! Klik op \'Systeembericht\' voor volledige instructies en het standaardbericht indien weggelaten, wat de \'Sydney\'-voorinstelling is die veilig wordt geacht.',
'Hogere waarden = meer willekeurig, terwijl lagere waarden = meer gericht en deterministisch. We raden aan dit of Top P te wijzigen, maar niet beide.',
com_endpoint_google_topp:
'Top-p verandert hoe het model tokens selecteert voor uitvoer. Tokens worden geselecteerd van meest K (zie topK-parameter) waarschijnlijk tot minst waarschijnlijk totdat de som van hun kansen gelijk is aan de top-p-waarde.',
com_endpoint_google_topk:
'Top-k verandert hoe het model tokens selecteert voor uitvoer. Een top-k van 1 betekent dat het geselecteerde token het meest waarschijnlijk is van alle tokens in de vocabulaire van het model (ook wel \'greedy decoding\' genoemd), terwijl een top-k van 3 betekent dat het volgende token wordt geselecteerd uit de 3 meest waarschijnlijke tokens (met behulp van temperatuur).',
com_endpoint_google_maxoutputtokens:
' Maximum aantal tokens dat kan worden gegenereerd in de reactie. Geef een lagere waarde op voor kortere reacties en een hogere waarde voor langere reacties.',
'Hogere waarden = meer willekeurig, terwijl lagere waarden = meer gericht en deterministisch. We raden aan dit of Top P te wijzigen, maar niet beide.',
com_endpoint_openai_max:
'Het max. aantal tokens dat kan worden gegenereerd. De totale lengte van invoer-tokens en gegenereerde tokens is beperkt door de contextlengte van het model.',
com_endpoint_openai_topp:
'Een alternatief voor sampling met temperatuur, genaamd nucleus sampling, waarbij het model de resultaten van de tokens met de top_p waarschijnlijkheidsmassa in overweging neemt. Dus 0,1 betekent dat alleen de tokens die de bovenste 10% waarschijnlijkheidsmassa omvatten, in overweging worden genomen. We raden aan dit of temperatuur te wijzigen, maar niet beide.',
com_endpoint_openai_freq:
'Getal tussen -2,0 en 2,0. Positieve waarden straffen nieuwe tokens op basis van hun bestaande frequentie in de tekst tot nu toe, waardoor de kans dat het model dezelfde regel letterlijk herhaalt, afneemt.',
com_endpoint_openai_pres:
'Getal tussen -2,0 en 2,0. Positieve waarden straffen nieuwe tokens op basis van of ze al voorkomen in de tekst tot nu toe, waardoor de kans dat het model over nieuwe onderwerpen praat toeneemt.',
com_endpoint_openai_custom_name_placeholder:'Stel een aangepaste naam in voor ChatGPT',
com_endpoint_openai_prompt_prefix_placeholder:
'Stel aangepaste instructies in om op te nemen in Systeembericht. Standaard: geen',
com_endpoint_anthropic_temp:
'Varieert van 0 tot 1. Gebruik een lagere temp voor analytische / meerkeuze taken en een hogere temp voor creatieve en generatieve taken. We raden aan dit of Top P te wijzigen, maar niet beide.',
com_endpoint_anthropic_topp:
'Top-p verandert hoe het model tokens selecteert voor uitvoer. Tokens worden geselecteerd van meest K (zie topK-parameter) waarschijnlijk tot minst waarschijnlijk totdat de som van hun kansen gelijk is aan de top-p-waarde.',
com_endpoint_anthropic_topk:
'Top-k verandert hoe het model tokens selecteert voor uitvoer. Een top-k van 1 betekent dat het geselecteerde token het meest waarschijnlijk is van alle tokens in de vocabulaire van het model (ook wel \'greedy decoding\' genoemd), terwijl een top-k van 3 betekent dat het volgende token wordt geselecteerd uit de 3 meest waarschijnlijke tokens (met behulp van temperatuur).',
com_endpoint_anthropic_maxoutputtokens:
'Maximum aantal tokens dat kan worden gegenereerd in de reactie. Geef een lagere waarde op voor kortere reacties en een hogere waarde voor langere reacties.',
com_endpoint_anthropic_custom_name_placeholder:'Stel een aangepaste naam in voor Anthropic',
'Ongeldige Serviceaccount-JSON-sleutel, heb je het juiste bestand geïmporteerd?',
com_endpoint_config_key_get_edge_key:'Om uw toegangstoken voor Bing te krijgen, logt u in op',
com_endpoint_config_key_get_edge_key_dev_tool:
'Gebruik ontwikkelhulpmiddelen of een extensie terwijl u bent ingelogd op de site om de inhoud van de _U-cookie te kopiëren. Als dit mislukt, volg dan deze',
com_endpoint_config_key_google_vertex_ai:'Vertex AI inschakelen',
com_endpoint_config_key_google_vertex_api:'API op Google Cloud, dan',
com_endpoint_config_key_google_service_account:'Maak een serviceaccount',
com_endpoint_config_key_google_vertex_api_role:
'Zorg ervoor dat u op \'Maken en doorgaan\' klikt om ten minste de \'Vertex AI-gebruiker\'-rol te geven. Maak ten slotte een JSON-sleutel aan om hier te importeren.',
com_nav_auto_scroll:'Automatisch scrollen naar Nieuwste bij openen',
com_nav_plugin_store:'Plugin-opslag',
com_nav_plugin_search:'Plugins zoeken',
com_nav_plugin_auth_error:
'Er trad een fout op bij het authenticeren van deze plugin. Probeer het opnieuw.',
com_nav_export_filename:'Bestandsnaam',
com_nav_export_filename_placeholder:'Stel de bestandsnaam in',