'Das hat nicht funktioniert! Deine Anmeldedaten stimmen nicht. Hast du dich vielleicht vertippt? Bitte überprüfe deine Anmeldedaten und versuche es erneut.',
com_auth_no_account:'Du hast noch keinen Account?',
'Du hast eine E-Mail mit weiteren Anweisungen zum Zurücksetzen deines Passworts erhalten.',
com_auth_error_reset_password:
'Es gab ein Problem beim Zurücksetzen ihres Passworts. Es wurde kein Benutzer mit der angegebenen E-Mail Adresse gefunden. Bitte überprüfen sie die E-Mail und versuchen sie es erneut.',
com_endpoint_bing_to_enable_sydney:'Um Sydney zu aktivieren',
com_endpoint_bing_jailbreak:'Jailbreak',
com_endpoint_bing_context_placeholder:
'Bing kann bis zu 7k Token für \'context\' verwenden, auf die es in der Konversation Bezug nehmen kann. Der genaue Grenzwert ist nicht bekannt, aber mehr als 7k Token können zu Fehlern führen.',
com_endpoint_bing_system_message_placeholder:
'WARNUNG: Der Missbrauch dieser Funktion kann dazu führen, dass Ihnen die Nutzung von Bing untersagt wird! Klicken Sie auf \'Systemnachricht\', um vollständige Anweisungen und die Standardnachricht zu erhalten, d.h. die als sicher geltende Voreinstellung \'Sydney\'.',
'Höhere Werte = eher freiere Antworten, niedrigere Werte = zielgerichtetere und genauere Antworten. Wir empfehlen, dies oder Top-P zu ändern, aber nicht beides.',
com_endpoint_google_topp:
'Top-P ändert, wie das Modell Token für die Ausgabe auswählt. Die Token werden von der höchsten K-Wahrscheinlichkeit (siehe topK-Parameter) zur niedrigsten ausgewählt, bis die Summe ihrer Wahrscheinlichkeiten dem top-p-Wert entspricht.',
com_endpoint_google_topk:
'Top-k ändert, wie das Modell Token für die Ausgabe auswählt. Ein Top-k von 1 bedeutet, dass das ausgewählte Token das wahrscheinlichste unter allen Token im Vokabular des Modells ist (auch gierige Dekodierung genannt), während ein Top-k von 3 bedeutet, dass das nächste Token aus den drei wahrscheinlichsten Token ausgewählt wird (unter Verwendung der Temperatur).',
com_endpoint_google_maxoutputtokens:
'Maximale Anzahl von Token, die in der Antwort erzeugt werden können. Geben Sie einen niedrigeren Wert für kürzere Antworten und einen höheren Wert für längere Antworten an.',
'Höhere Werte = eher freiere Antworten, niedrigere Werte = zielgerichtetere und genauere Antworten. Wir empfehlen, dies oder Top-P zu ändern, aber nicht beides.',
com_endpoint_openai_max:
'Die maximale Anzahl der zu generierenden Token. Die Gesamtlänge der eingegebenen und der generierten Token wird durch die Kontextlänge des Modells begrenzt.',
com_endpoint_openai_topp:
'Eine Alternative zum Sampling mit Temperatur, das so genannte Nukleus-Sampling, bei dem das Modell die Ergebnisse der Token mit Top-P-Wahrscheinlichkeitsmasse berücksichtigt. Ein Wert von 0,1 bedeutet also, dass nur die Token mit den obersten 10 % der Wahrscheinlichkeitsmenge berücksichtigt werden. Wir empfehlen, dies oder die Temperatur zu ändern, aber nicht beides.',
com_endpoint_openai_freq:
'Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Token auf der Grundlage ihrer bisherigen Häufigkeit im Text und verringern so die Wahrscheinlichkeit, dass das Modell dieselbe Zeile wortwörtlich wiederholt.',
com_endpoint_openai_pres:
'Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Token, je nachdem, ob sie bereits im Text vorkommen, und erhöhen die Wahrscheinlichkeit, dass das Modell über neue Themen spricht.',
com_endpoint_openai_custom_name_placeholder:'Benutzerdefinierter Name für ChatGPT',
com_endpoint_openai_prompt_prefix_placeholder:
'Legen Sie benutzerdefinierte Anweisungen fest, die in die Systemmeldung aufgenommen werden sollen. Standard: leer',
com_endpoint_anthropic_temp:
'Der Bereich reicht von 0 bis 1. Verwenden Sie einen Wert näher an 0 für analytische / Multiple-Choice-Aufgaben und näher an 1 für kreative und generative Aufgaben. Wir empfehlen, dies oder Top P zu ändern, aber nicht beides.',
com_endpoint_anthropic_topp:
'Top-p ändert, wie das Modell Token für die Ausgabe auswählt. Die Token werden von der höchsten K-Wahrscheinlichkeit (siehe topK-Parameter) zur niedrigsten ausgewählt, bis die Summe ihrer Wahrscheinlichkeiten dem top-p-Wert entspricht.',
com_endpoint_anthropic_topk:
'Top-k ändert, wie das Modell Token für die Ausgabe auswählt. Ein Top-k von 1 bedeutet, dass das ausgewählte Token das wahrscheinlichste unter allen Token im Vokabular des Modells ist (auch gierige Dekodierung genannt), während ein Top-k von 3 bedeutet, dass das nächste Token aus den drei wahrscheinlichsten Token ausgewählt wird (unter Verwendung der Temperatur).',
com_endpoint_anthropic_maxoutputtokens:
'Maximale Anzahl von Token, die in der Antwort erzeugt werden können. Geben Sie einen niedrigeren Wert für kürzere Antworten und einen höheren Wert für längere Antworten an.',