diff --git a/po/es.po b/po/es.po index 99219ca..734550d 100644 --- a/po/es.po +++ b/po/es.po @@ -13,8 +13,8 @@ msgstr "" "Project-Id-Version: PACKAGE VERSION\n" "Report-Msgid-Bugs-To: \n" "POT-Creation-Date: 2023-08-20 21:06+0300\n" -"PO-Revision-Date: 2023-08-20 18:05+0000\n" -"Last-Translator: Anonymous \n" +"PO-Revision-Date: 2023-08-22 15:41+0000\n" +"Last-Translator: gallegonovato \n" "Language-Team: Spanish \n" "Language: es\n" @@ -206,20 +206,16 @@ msgid "New chat" msgstr "Chat nuevo" #: src/views/window.py:201 -#, fuzzy -#| msgid "Delete All Threads" msgid "Delete All Chats" -msgstr "Borrar todos los temas" +msgstr "Borrar todos los chats" #: src/views/window.py:202 -#, fuzzy -#| msgid "Are you sure you want to delete all threads? This can't be undone!" msgid "" "Are you sure you want to delete all chats in this thread? This can't be " "undone!" msgstr "" -"¿Estás seguro de que quieres borrar todos los hilos? ¡Esto no se puede " -"deshacer!" +"¿Estás seguro de que quieres borrar todos los chats de este hilo? ¡Esto no " +"se puede deshacer!" #: src/views/window.py:259 src/views/window.py:297 msgid "Clear all" @@ -334,11 +330,11 @@ msgstr "Modelo Borrado" #: src/widgets/model_item.blp:16 msgid "Max Tokens" -msgstr "" +msgstr "Número máximo de claves" #: src/widgets/model_item.blp:17 msgid "The maximum number of tokens to generate." -msgstr "" +msgstr "Número máximo de claves para generar." #: src/widgets/model_item.blp:30 msgid "Temperature" @@ -349,59 +345,69 @@ msgid "" "The model temperature. Larger values increase creativity but decrease " "factuality." msgstr "" +"La temperatura del modelo. Los valores más altos proporcionan más " +"creatividad, pero menos precisión." #: src/widgets/model_item.blp:45 msgid "Top K" -msgstr "" +msgstr "Top K" #: src/widgets/model_item.blp:46 msgid "" "Randomly sample from the top_k most likely tokens at each generation step. " "Set this to 1 for greedy decoding." msgstr "" +"Muestreo aleatorio de las claves top_k más probables en cada paso de " +"generación. Establece esto en 1 para una decodificación codiciosa." #: src/widgets/model_item.blp:59 msgid "Top P" -msgstr "" +msgstr "Top P" #: src/widgets/model_item.blp:60 msgid "" "Randomly sample at each generation step from the top most likely tokens " "whose probabilities add up to top_p." msgstr "" +"Muestreo aleatorio en cada paso de generación de las claves más probables " +"cuyas probabilidades suman top_p." #: src/widgets/model_item.blp:74 msgid "Repetition Penalty" -msgstr "" +msgstr "Penalización por repetición" #: src/widgets/model_item.blp:75 msgid "" "Penalize the model for repetition. Higher values result in less repetition." msgstr "" +"Castigar las repeticiones. Los valores más altos dan como resultado menos " +"repeticiones." #: src/widgets/model_item.blp:89 msgid "Batch Size" -msgstr "" +msgstr "Tamaño del lote" #: src/widgets/model_item.blp:90 msgid "" "Number of prompt tokens processed in parallel. Larger values decrease " "latency but increase resource requirements." msgstr "" +"Número de claves de aviso procesados en paralelo. Los valores más altos " +"disminuyen la latencia pero aumentan los requisitos de los recursos." #: src/widgets/model_item.blp:103 msgid "Repeat Last N" -msgstr "" +msgstr "Repetir la última N" #: src/widgets/model_item.blp:104 msgid "How far in the models generation history to apply the repeat penalty. " msgstr "" +"En qué punto del historial de generación del modelo se aplicará la " +"penalización por repetición. " #: src/widgets/model_item.blp:117 -#, fuzzy -#| msgid "Prompt" msgid "System Prompt" -msgstr "Entrada" +msgstr "Mensaje del sistema" #: src/widgets/model_item.py:64 #, python-format @@ -442,7 +448,7 @@ msgstr "" #: src/main.py:261 msgid "Hello, I am Bavarder, a Chit-Chat AI" -msgstr "" +msgstr "Hola, soy Bavarder, una IA de Chit-Chat" #: src/main.py:284 msgid "Please enable a provider from the Dot Menu"