'Es gab ein Problem beim Zurücksetzen deines Passworts. Es wurde kein Benutzer mit der angegebenen E-Mail Adresse gefunden. Bitte versuche es erneut.',
'Bing kann bis zu 7k Token für \'context\' verwenden, auf die es in der Konversation Bezug nehmen kann. Der genaue Grenzwert ist nicht bekannt, aber mehr als 7k Token können zu Fehlern führen.',
com_endpoint_bing_system_message_placeholder:
'WARNUNG: Der Missbrauch dieser Funktion kann dazu führen, dass Ihnen die Nutzung von Bing untersagt wird! Klicken Sie auf \'Systemnachricht\', um vollständige Anweisungen und die Standardnachricht zu erhalten, d.h. die als sicher geltende Voreinstellung \'Sydney\'.',
com_endpoint_system_message:'System Nachricht',
com_endpoint_message:'Nachricht an',
com_endpoint_message_not_appendable:'Bearbeite deine Nachricht oder generiere sie neu.',
'Höhere Werte = zufälliger, während niedrigere Werte = gezielter und deterministischer sind. Wir empfehlen, dies oder Top P zu ändern, aber nicht beides.',
'Top-p ändert, wie das Modell die Token für die Ausgabe auswählt. Die Token werden von der höchsten K-Wahrscheinlichkeit (siehe topK-Parameter) zur niedrigsten ausgewählt, bis die Summe ihrer Wahrscheinlichkeiten gleich dem top-p-Wert ist.',
'Top-k ändert, wie das Modell die Token für die Ausgabe auswählt. Ein top-k von 1 bedeutet, dass das ausgewählte Token das wahrscheinlichste unter allen Token im Vokabular des Modells ist (auch gierige Dekodierung genannt), während ein top-k von 3 bedeutet, dass das nächste Token aus den 3 wahrscheinlichsten Token ausgewählt wird (unter Verwendung der Temperatur).',
' Maximale Anzahl von Token, die in der Antwort erzeugt werden können. Gib einen niedrigeren Wert für kürzere Antworten und einen höheren Wert für längere Antworten an.',
com_endpoint_google_custom_name_placeholder:'Setze einen benutzerdefinierten Namen für Google',
com_endpoint_prompt_prefix_placeholder:'Setze benutzerdefinierte Anweisungen oder Kontext. Ignoriert, wenn leer.',
'Höhere Werte = zufälliger und kreativer, während niedrigere Werte = gezielter und deterministischer sind. Werte über 1.0 sind nicht empfohlen. Wir empfehlen, dies oder Top P zu ändern, aber nicht beides.',
'Die maximale Anzahl der zu erzeugenden Token. Die Gesamtlänge der eingegebenen und generierten Token wird durch die Kontextlänge des Modells begrenzt.',
'Eine Alternative zum Sampling mit Temperatur, genannt Nukleus-Sampling, bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse top_p berücksichtigt. 0,1 bedeutet also, dass nur die Token mit den obersten 10% Wahrscheinlichkeitsmasse berücksichtigt werden. Wir empfehlen, dies oder die Temperatur zu ändern, aber nicht beides.',
'Zahl zwischen -2,0 und 2,0. Standard: 0. Positive Werte bestrafen neue Token auf der Grundlage ihrer bisherigen Häufigkeit im Text und verringern so die Wahrscheinlichkeit, dass das Model dieselbe Zeile wortwörtlich wiederholt.',
'Zahl zwischen -2,0 und 2,0. Standard: 0. Positive Werte bestrafen neue Token, je nachdem, ob sie bereits im Text vorkommen, und erhöhen so die Wahrscheinlichkeit, dass das Model über neue Themen spricht.',
com_endpoint_openai_resend:
'Sende alle zuvor angehängten Bilder erneut. Hinweis: Dies kann die Token-Kosten erheblich erhöhen und bei vielen Bildanhängen können Fehler auftreten.',
com_endpoint_openai_detail:
'Die Auflösung für Vision-Anfragen. "Niedrig" ist billiger und schneller, "Hoch" ist detaillierter und teurer und "Auto" wählt automatisch zwischen den beiden, je nach Bildauflösung.',
com_endpoint_openai_custom_name_placeholder:'Setzt einen benutzerdefinierten Namen für ChatGPT',
'Der Bereich reicht von 0 bis 1. Verwende temp näher an 0 für analytische / Multiple Choice Aufgaben und näher an 1 für kreative und generative Aufgaben. Wir empfehlen, dies oder Top P zu ändern, aber nicht beides.',
'Top-p ändert, wie das Modell die Token für die Ausgabe auswählt. Die Token werden von der höchsten K-Wahrscheinlichkeit (siehe top-k-Parameter) zur niedrigsten ausgewählt, bis die Summe ihrer Wahrscheinlichkeiten gleich dem top-p-Wert ist.',
'Top-k ändert, wie das Modell Token für die Ausgabe auswählt. Ein top-k von 1 bedeutet, dass das ausgewählte Token das wahrscheinlichste unter allen Token im Vokabular des Modells ist, während ein top-k von 3 bedeutet, dass das nächste Token aus den 3 wahrscheinlichsten Token ausgewählt wird (unter Verwendung der Temperatur).',
'Maximale Anzahl von Token, die in der Antwort erzeugt werden können. Gib einen niedrigeren Wert für kürzere Antworten und einen höheren Wert für längere Antworten an.',
com_endpoint_anthropic_custom_name_placeholder:'Lege einen eigenen Namen für Anthropic fest',
com_endpoint_config_google_api_info:'Um deinen Generative Language API-Schlüssel (für Gemini) zu erhalten,',
com_endpoint_config_key_import_json_key:'Importiere Service Account JSON Key.',
com_endpoint_config_key_import_json_key_success:'Erfolgreich importierter Service Account JSON Key',
com_endpoint_config_key_import_json_key_invalid:
'Ungültiger Service Account JSON Key, Hast du die richtige Datei importiert?',
com_endpoint_config_key_get_edge_key:'Um dein Access Token für Bing zu erhalten, melde dich an bei',
com_endpoint_config_key_get_edge_key_dev_tool:
'Verwende Dev-Tools oder eine Erweiterung, während du auf der Website angemeldet bist, um den Inhalt des _U-Cookies zu kopieren. Wenn dies fehlschlägt, befolge die folgenden Anweisungen',
'Stelle sicher, dass du auf \'Erstellen und Fortfahren\' klickst, um mindestens die \'Vertex AI User\'-Rolle zu vergeben. Erstelle schließlich einen JSON-Schlüssel, den du hier importieren kannst.',
com_nav_welcome_message:'Wie kann ich dir heute helfen?',
com_nav_auto_scroll:'Beim Öffnen automatisch zum Neuesten scrollen',
com_nav_modular_chat:'Aktiviere das Umschalten von Endpunkten während eines Gesprächs',
com_nav_latex_parsing:'Parsen von LaTeX in Nachrichten (kann die Leistung beeinträchtigen)',