From 3a2f324111e43e2b8be17715690e6ec597b33c30 Mon Sep 17 00:00:00 2001 From: maymage Date: Mon, 21 Aug 2023 11:06:29 +0000 Subject: [PATCH] Translated using Weblate (German) Currently translated at 100.0% (95 of 95 strings) Translation: Bavarder/Bavarder Translate-URL: https://translate.codeberg.org/projects/bavarder/bavarder/de/ --- po/de.po | 53 +++++++++++++++++++++++++++++------------------------ 1 file changed, 29 insertions(+), 24 deletions(-) diff --git a/po/de.po b/po/de.po index 1309e1d..ee1fd63 100644 --- a/po/de.po +++ b/po/de.po @@ -12,8 +12,8 @@ msgstr "" "Project-Id-Version: PACKAGE VERSION\n" "Report-Msgid-Bugs-To: \n" "POT-Creation-Date: 2023-08-20 21:06+0300\n" -"PO-Revision-Date: 2023-08-20 18:05+0000\n" -"Last-Translator: Anonymous \n" +"PO-Revision-Date: 2023-08-22 00:53+0000\n" +"Last-Translator: maymage \n" "Language-Team: German \n" "Language: de\n" @@ -49,7 +49,7 @@ msgstr "" #: src/providers/hfbasechat.py:49 msgid "Sorry, I don't know what to say!" -msgstr "" +msgstr "Entschuldige, ich weiß nicht, was ich sagen soll!" #: src/providers/hfbasechat.py:57 msgid "API Key" @@ -81,7 +81,7 @@ msgstr "Übersetzt" #: src/views/export_dialog.blp:6 msgid "Export Thread ?" -msgstr "Unterhaltung exportieren?" +msgstr "Gespräch exportieren?" #: src/views/export_dialog.blp:51 msgid "Close" @@ -173,7 +173,7 @@ msgstr "Speichern" #: src/views/save_dialog.blp:13 msgid "Export Thread?" -msgstr "Unterhaltung exportieren?" +msgstr "Gespräch exportieren?" #: src/views/save_dialog.blp:26 msgid "File Name" @@ -200,25 +200,19 @@ msgid "Thread successfully saved!" msgstr "Unterhaltung erfolgreich gespeichert!" #: src/views/window.py:173 -#, fuzzy -#| msgid "New Chat" msgid "New chat" msgstr "Neue Unterhaltung" #: src/views/window.py:201 -#, fuzzy -#| msgid "Delete All Threads" msgid "Delete All Chats" msgstr "Alle Unterhaltungen löschen" #: src/views/window.py:202 -#, fuzzy -#| msgid "Are you sure you want to delete all threads? This can't be undone!" msgid "" "Are you sure you want to delete all chats in this thread? This can't be " "undone!" msgstr "" -"Sicher, dass alle Unterhaltungen gelöscht werden sollen? Das kann nicht " +"Sicher, dass die gesamte Unterhaltung gelöscht werden soll? Das kann nicht " "rückgängig gemacht werden!" #: src/views/window.py:259 src/views/window.py:297 @@ -231,7 +225,7 @@ msgstr "Antwort generieren" #: src/views/window.py:373 src/views/window.py:378 msgid "Sorry, I don't know what to say." -msgstr "" +msgstr "Entschuldige, ich weiß nicht, was ich sagen soll." #: src/views/window.py:419 msgid "human" @@ -336,11 +330,11 @@ msgstr "Modell gelöscht" #: src/widgets/model_item.blp:16 msgid "Max Tokens" -msgstr "" +msgstr "Maximale Schlüsselanzahl" #: src/widgets/model_item.blp:17 msgid "The maximum number of tokens to generate." -msgstr "" +msgstr "Maximale Anzahl zu generierender Schlüssel." #: src/widgets/model_item.blp:30 msgid "Temperature" @@ -351,59 +345,70 @@ msgid "" "The model temperature. Larger values increase creativity but decrease " "factuality." msgstr "" +"Die Modelltemperatur. Höhere Werte erhöhen die Kreativität, aber senken die " +"Sachlichkeit." #: src/widgets/model_item.blp:45 msgid "Top K" -msgstr "" +msgstr "Top K" #: src/widgets/model_item.blp:46 msgid "" "Randomly sample from the top_k most likely tokens at each generation step. " "Set this to 1 for greedy decoding." msgstr "" +"Zufällig von den top_k wahrscheinlichsten Schlüsseln bei jedem " +"Generierungsschritt auswählen. Setze dies auf 1 für eine gierige " +"Entschlüsselung." #: src/widgets/model_item.blp:59 msgid "Top P" -msgstr "" +msgstr "Top P" #: src/widgets/model_item.blp:60 msgid "" "Randomly sample at each generation step from the top most likely tokens " "whose probabilities add up to top_p." msgstr "" +"Zufällig bei jedem Generierungsschritt von den wahrscheinlichsten Schlüsseln " +"auswählen, deren Wahrscheinlichkeit sich zu top_p addiert." #: src/widgets/model_item.blp:74 msgid "Repetition Penalty" -msgstr "" +msgstr "Wiederholungsstrafe" #: src/widgets/model_item.blp:75 msgid "" "Penalize the model for repetition. Higher values result in less repetition." msgstr "" +"Strafe das Modell für Wiederholungen. Höhere Werte ergeben weniger " +"Wiederholung." #: src/widgets/model_item.blp:89 msgid "Batch Size" -msgstr "" +msgstr "Losgröße" #: src/widgets/model_item.blp:90 msgid "" "Number of prompt tokens processed in parallel. Larger values decrease " "latency but increase resource requirements." msgstr "" +"Anzahl parallel verarbeiteter Eingabeschlüssel. Höhere Werte verringer die " +"Latenz, erhöhen aber die Ressourcenanforderung." #: src/widgets/model_item.blp:103 msgid "Repeat Last N" -msgstr "" +msgstr "Letzte N wiederholen" #: src/widgets/model_item.blp:104 msgid "How far in the models generation history to apply the repeat penalty. " msgstr "" +"Wie weit in der Modellerzeugungsgeschichte soll die Wiederholungsbestrafung " +"angewendet werden. " #: src/widgets/model_item.blp:117 -#, fuzzy -#| msgid "Prompt" msgid "System Prompt" -msgstr "Eingabeaufforderung" +msgstr "Systemaufforderung" #: src/widgets/model_item.py:64 #, python-format @@ -444,7 +449,7 @@ msgstr "" #: src/main.py:261 msgid "Hello, I am Bavarder, a Chit-Chat AI" -msgstr "" +msgstr "Hallo, ich bin Bavarder, eine Plauder-AI" #: src/main.py:284 msgid "Please enable a provider from the Dot Menu"