From 3aa680634195f41c249220f9f6f7b66b6590a6fb Mon Sep 17 00:00:00 2001 From: Jared Van Bortel Date: Wed, 14 Aug 2024 16:28:17 -0400 Subject: [PATCH] LocalDocsSettings: fix embedding device selection after #2690 (#2873) Signed-off-by: Jared Van Bortel --- gpt4all-chat/CHANGELOG.md | 3 + gpt4all-chat/qml/LocalDocsSettings.qml | 16 +- gpt4all-chat/translations/gpt4all_en_US.ts | 520 ++++---- gpt4all-chat/translations/gpt4all_es_MX.ts | 1209 +++++++++---------- gpt4all-chat/translations/gpt4all_it_IT.ts | 430 +++---- gpt4all-chat/translations/gpt4all_pt_BR.ts | 430 +++---- gpt4all-chat/translations/gpt4all_ro_RO.ts | 1261 ++++++++++---------- gpt4all-chat/translations/gpt4all_zh_CN.ts | 430 +++---- gpt4all-chat/translations/gpt4all_zh_TW.ts | 430 +++---- 9 files changed, 2396 insertions(+), 2333 deletions(-) diff --git a/gpt4all-chat/CHANGELOG.md b/gpt4all-chat/CHANGELOG.md index 969669b1..745d972a 100644 --- a/gpt4all-chat/CHANGELOG.md +++ b/gpt4all-chat/CHANGELOG.md @@ -9,6 +9,9 @@ The format is based on [Keep a Changelog](https://keepachangelog.com/en/1.1.0/). ### Added - Use greedy sampling when temperature is set to zero ([#2854](https://github.com/nomic-ai/gpt4all/pull/2854)) +### Fixed +- Bring back "Auto" option for Embeddings Device as "Application default," which went missing in v3.1.0 ([#2873](https://github.com/nomic-ai/gpt4all/pull/2873)) + ## [3.2.1] - 2024-08-13 ### Fixed diff --git a/gpt4all-chat/qml/LocalDocsSettings.qml b/gpt4all-chat/qml/LocalDocsSettings.qml index 47f44090..45df85e3 100644 --- a/gpt4all-chat/qml/LocalDocsSettings.qml +++ b/gpt4all-chat/qml/LocalDocsSettings.qml @@ -163,7 +163,7 @@ MySettingsTab { MySettingsLabel { id: deviceLabel text: qsTr("Embeddings Device") - helpText: qsTr('The compute device used for embeddings. "Auto" uses the CPU. Requires restart.') + helpText: qsTr('The compute device used for embeddings. Requires restart.') } MyComboBox { id: deviceBox @@ -172,11 +172,18 @@ MySettingsTab { Layout.maximumWidth: 400 Layout.fillWidth: false Layout.alignment: Qt.AlignRight - model: MySettings.embeddingsDeviceList + model: ListModel { + ListElement { text: qsTr("Application default") } + Component.onCompleted: { + MySettings.embeddingsDeviceList.forEach(d => append({"text": d})); + } + } Accessible.name: deviceLabel.text Accessible.description: deviceLabel.helpText function updateModel() { - deviceBox.currentIndex = deviceBox.indexOfValue(MySettings.localDocsEmbedDevice); + var device = MySettings.localDocsEmbedDevice; + // This usage of 'Auto' should not be translated + deviceBox.currentIndex = device === "Auto" ? 0 : deviceBox.indexOfValue(device); } Component.onCompleted: { deviceBox.updateModel(); @@ -188,7 +195,8 @@ MySettingsTab { } } onActivated: { - MySettings.localDocsEmbedDevice = deviceBox.currentText; + // This usage of 'Auto' should not be translated + MySettings.localDocsEmbedDevice = deviceBox.currentIndex === 0 ? "Auto" : deviceBox.currentText; } } } diff --git a/gpt4all-chat/translations/gpt4all_en_US.ts b/gpt4all-chat/translations/gpt4all_en_US.ts index 0769d674..b8944c0c 100644 --- a/gpt4all-chat/translations/gpt4all_en_US.ts +++ b/gpt4all-chat/translations/gpt4all_en_US.ts @@ -115,44 +115,44 @@ - - + + Default - - + + Likes - - + + Downloads - - + + Recent - - + + Asc - - + + Desc - - + + None @@ -163,266 +163,266 @@ - - + + Sort by: %1 - - + + Sort dir: %1 - - + + Limit: %1 - - + + Network error: could not retrieve %1 - - - - + + + + Busy indicator - - + + Displayed when the models request is ongoing - - + + Model file - - + + Model file to be downloaded - - + + Description - - + + File description - - + + Cancel - - + + Resume - - + + Download - - + + Stop/restart/start the download - - + + Remove - - + + Remove model from filesystem - - - - + + + + Install - - - - Install online model - - - - - - <strong><font size="2">WARNING: Not recommended for your hardware. Model requires more memory (%1 GB) than your system has available (%2).</strong></font> - - - - - - ERROR: $API_KEY is empty. - - - - - - ERROR: $BASE_URL is empty. - - - - - - enter $BASE_URL - - - - - - ERROR: $MODEL_NAME is empty. - - - - - - enter $MODEL_NAME - - - - - - %1 GB - - - - - - - - ? - - + Install online model + + + + + + <strong><font size="2">WARNING: Not recommended for your hardware. Model requires more memory (%1 GB) than your system has available (%2).</strong></font> + + + + + + ERROR: $API_KEY is empty. + + + + + + ERROR: $BASE_URL is empty. + + + + + + enter $BASE_URL + + + + + + ERROR: $MODEL_NAME is empty. + + + + + + enter $MODEL_NAME + + + + + + %1 GB + + + + + + + + ? + + + + + Describes an error that occurred when downloading - - + + <strong><font size="1"><a href="#error">Error</a></strong></font> - - + + Error for incompatible hardware - - + + Download progressBar - - + + Shows the progress made in the download - - + + Download speed - - + + Download speed in bytes/kilobytes/megabytes per second - - + + Calculating... - - - - - - - - + + + + + + + + Whether the file hash is being calculated - - + + Displayed when the file hash is being calculated - - + + enter $API_KEY - - + + File size - - + + RAM required - - + + Parameters - - + + Quant - - + + Type @@ -490,238 +490,238 @@ - - + + Dark - - + + Light - - + + LegacyDark - - + + Font Size - - + + The size of text in the application. - - + + Small - - + + Medium - - + + Large - - + + Language and Locale - - + + The language and locale you wish to use. - - + + System Locale - - + + Device - - + + The compute device used for text generation. - - - - + + + + Application default - - + + Default Model - - + + The preferred model for new chats. Also used as the local server fallback. - - + + Suggestion Mode - - + + Generate suggested follow-up questions at the end of responses. - - + + When chatting with LocalDocs - - + + Whenever possible - - + + Never - - + + Download Path - - + + Where to store local models and the LocalDocs database. - - + + Browse - - + + Choose where to save model files - - + + Enable Datalake - - + + Send chats and feedback to the GPT4All Open-Source Datalake. - - + + Advanced - - + + CPU Threads - - + + The number of CPU threads used for inference and embedding. - - - - Save Chat Context - - - - - - Save the chat model's state to disk for faster loading. WARNING: Uses ~2GB per chat. - - - - - - Enable Local Server - - - Expose an OpenAI-Compatible server to localhost. WARNING: Results in increased resource usage. + Save Chat Context - - - API Server Port + + + Save the chat model's state to disk for faster loading. WARNING: Uses ~2GB per chat. + Enable Local Server + + + + + + Expose an OpenAI-Compatible server to localhost. WARNING: Results in increased resource usage. + + + + + + API Server Port + + + + + The port to use for the local server. Requires restart. - - + + Check For Updates - - + + Manually check for an update to GPT4All. - - + + Updates @@ -1520,66 +1520,72 @@ model to get started - The compute device used for embeddings. "Auto" uses the CPU. Requires restart. + The compute device used for embeddings. Requires restart. - - + + + Application default + + + + + Display - - + + Show Sources - - + + Display the sources used for each response. - - + + Advanced - - + + Warning: Advanced usage only. - - - - Values too large may cause localdocs failure, extremely slow responses or failure to respond at all. Roughly speaking, the {N chars x N snippets} are added to the model's context window. More info <a href="https://docs.gpt4all.io/gpt4all_desktop/localdocs.html">here</a>. - - + Values too large may cause localdocs failure, extremely slow responses or failure to respond at all. Roughly speaking, the {N chars x N snippets} are added to the model's context window. More info <a href="https://docs.gpt4all.io/gpt4all_desktop/localdocs.html">here</a>. + + + + + Document snippet size (characters) - - + + Number of characters per document snippet. Larger numbers increase likelihood of factual responses, but also result in slower generation. - - + + Max document snippets per prompt - - + + Max best N matches of retrieved document snippets to add to the context for prompt. Larger numbers increase likelihood of factual responses, but also result in slower generation. diff --git a/gpt4all-chat/translations/gpt4all_es_MX.ts b/gpt4all-chat/translations/gpt4all_es_MX.ts index a62f2d6d..433d514a 100644 --- a/gpt4all-chat/translations/gpt4all_es_MX.ts +++ b/gpt4all-chat/translations/gpt4all_es_MX.ts @@ -79,346 +79,350 @@ AddModelView - - + + ← Existing Models ← Modelos existentes - - + + Explore Models Explorar modelos - - + + Discover and download models by keyword search... Descubre y descarga modelos mediante búsqueda por palabras clave... - - + + Text field for discovering and filtering downloadable models Campo de texto para descubrir y filtrar modelos descargables - - + + Initiate model discovery and filtering Iniciar descubrimiento y filtrado de modelos - - + + Triggers discovery and filtering of models Activa el descubrimiento y filtrado de modelos - - + + Default Predeterminado - - + + Likes Me gusta - - + + Downloads Descargas - - + + Recent Reciente - - + + Asc Asc - - + + Desc Desc - - + + None Ninguno - - + + Searching · %1 Buscando · %1 - - + + Sort by: %1 Ordenar por: %1 - - + + Sort dir: %1 Dirección de ordenamiento: %1 - - + + Limit: %1 Límite: %1 - - + + Network error: could not retrieve %1 Error de red: no se pudo recuperar %1 - - - - + + + + Busy indicator Indicador de ocupado - - + + Displayed when the models request is ongoing Se muestra cuando la solicitud de modelos está en curso - - + + Model file Archivo del modelo - - + + Model file to be downloaded Archivo del modelo a descargar - - + + Description Descripción - - + + File description Descripción del archivo - - + + Cancel Cancelar - - + + Resume Reanudar - - + + Download Descargar - - + + Stop/restart/start the download Detener/reiniciar/iniciar la descarga - - + + Remove Eliminar - - + + Remove model from filesystem Eliminar modelo del sistema de archivos - - - - + + + + Install Instalar - - + + Install online model Instalar modelo en línea - - + + <strong><font size="1"><a href="#error">Error</a></strong></font> <strong><font size="1"><a href="#error">Error</a></strong></font> - - + + <strong><font size="2">WARNING: Not recommended for your hardware. Model requires more memory (%1 GB) than your system has available (%2).</strong></font> <strong><font size="2">ADVERTENCIA: No recomendado para tu hardware. El modelo requiere más memoria (%1 GB) de la que tu sistema tiene disponible (%2).</strong></font> - - + + %1 GB %1 GB - - - - + + + + ? ? - - + + Describes an error that occurred when downloading Describe un error que ocurrió durante la descarga - - + + Error for incompatible hardware Error por hardware incompatible - - + + Download progressBar Barra de progreso de descarga - - + + Shows the progress made in the download Muestra el progreso realizado en la descarga - - + + Download speed Velocidad de descarga - - + + Download speed in bytes/kilobytes/megabytes per second Velocidad de descarga en bytes/kilobytes/megabytes por segundo - - + + Calculating... Calculando... - - - - + + + + + + + + Whether the file hash is being calculated Si se está calculando el hash del archivo - - + + Displayed when the file hash is being calculated Se muestra cuando se está calculando el hash del archivo - - + + enter $API_KEY ingrese $API_KEY - - + + File size Tamaño del archivo - - + + RAM required RAM requerida - - + + Parameters Parámetros - - + + Quant Cuantificación - - + + Type Tipo - - + + ERROR: $API_KEY is empty. ERROR: $API_KEY está vacío. - - + + ERROR: $BASE_URL is empty. ERROR: $BASE_URL está vacío. - - + + enter $BASE_URL ingrese $BASE_URL - - + + ERROR: $MODEL_NAME is empty. ERROR: $MODEL_NAME está vacío. - - + + enter $MODEL_NAME ingrese $MODEL_NAME @@ -443,6 +447,18 @@ opt-in to share feedback/conversations optar por compartir comentarios/conversaciones + + + + ERROR: Update system could not find the MaintenanceTool used<br> + to check for updates!<br><br> + Did you install this application using the online installer? If so,<br> + the MaintenanceTool executable should be located one directory<br> + above where this application resides on your filesystem.<br><br> + If you can't start it manually, then I'm afraid you'll have to<br> + reinstall. + + @@ -474,256 +490,252 @@ El esquema de colores de la aplicación. - - + + Dark Oscuro - - + + Light Claro - - + + LegacyDark Oscuro legado - - + + Font Size Tamaño de fuente - - + + The size of text in the application. El tamaño del texto en la aplicación. - - + + Device Dispositivo - The compute device used for text generation. "Auto" uses Vulkan or Metal. - El dispositivo de cómputo utilizado para la generación de texto. "Auto" utiliza Vulkan o Metal. + El dispositivo de cómputo utilizado para la generación de texto. "Auto" utiliza Vulkan o Metal. - - + + Small Pequeño - - + + Medium Mediano - - + + Large Grande - - + + Language and Locale Idioma y configuración regional - - + + The language and locale you wish to use. El idioma y la configuración regional que deseas usar. - - + + Default Model Modelo predeterminado - - + + The preferred model for new chats. Also used as the local server fallback. El modelo preferido para nuevos chats. También se utiliza como respaldo del servidor local. - - + + Suggestion Mode Modo de sugerencia - - + + Generate suggested follow-up questions at the end of responses. Generar preguntas de seguimiento sugeridas al final de las respuestas. - - + + When chatting with LocalDocs Al chatear con LocalDocs - - + + Whenever possible Siempre que sea posible - - + + Never Nunca - - + + Download Path Ruta de descarga - - + + Where to store local models and the LocalDocs database. Dónde almacenar los modelos locales y la base de datos de LocalDocs. - - + + Browse Explorar - - + + Choose where to save model files Elegir dónde guardar los archivos del modelo - - + + Enable Datalake Habilitar Datalake - - + + Send chats and feedback to the GPT4All Open-Source Datalake. Enviar chats y comentarios al Datalake de código abierto de GPT4All. - - + + Advanced Avanzado - - + + CPU Threads Hilos de CPU - - + + The number of CPU threads used for inference and embedding. El número de hilos de CPU utilizados para inferencia e incrustación. - - + + Save Chat Context Guardar contexto del chat - - + + Save the chat model's state to disk for faster loading. WARNING: Uses ~2GB per chat. Guardar el estado del modelo de chat en el disco para una carga más rápida. ADVERTENCIA: Usa ~2GB por chat. - - + + Expose an OpenAI-Compatible server to localhost. WARNING: Results in increased resource usage. Exponer un servidor compatible con OpenAI a localhost. ADVERTENCIA: Resulta en un mayor uso de recursos. - - + + Enable Local Server Habilitar servidor local - Expose an OpenAI-Compatible server to localhost. WARNING: Results in increased resource usage. - Exponer un servidor compatible con OpenAI a localhost. ADVERTENCIA: Resulta + Exponer un servidor compatible con OpenAI a localhost. ADVERTENCIA: Resulta en un mayor uso de recursos. - - + + API Server Port Puerto del servidor API - - + + The port to use for the local server. Requires restart. El puerto a utilizar para el servidor local. Requiere reinicio. - - + + Check For Updates Buscar actualizaciones - - + + Manually check for an update to GPT4All. Buscar manualmente una actualización para GPT4All. - - + + Updates Actualizaciones - - + + System Locale Regional del sistema - - + + The compute device used for text generation. El dispositivo de cómputo utilizado para la generación de texto. - - - - + + + + Application default Predeterminado de la aplicación - - ERROR: Update system could not find the MaintenanceTool used<br> to check for updates!<br><br> Did you install this application using the online installer? If so,<br> @@ -731,7 +743,7 @@ above where this application resides on your filesystem.<br><br> If you can't start it manually, then I'm afraid you'll have to<br> reinstall. - ERROR: El sistema de actualización no pudo encontrar la Herramienta de Mantenimiento utilizada<br> + ERROR: El sistema de actualización no pudo encontrar la Herramienta de Mantenimiento utilizada<br> para buscar actualizaciones.<br><br> ¿Instaló esta aplicación utilizando el instalador en línea? Si es así,<br> el ejecutable de la Herramienta de Mantenimiento debería estar ubicado un directorio<br> @@ -754,6 +766,19 @@ Chat del servidor + + ChatAPIWorker + + + ERROR: Network error occurred while connecting to the API server + ERROR: Ocurrió un error de red al conectar con el servidor API + + + + ChatAPIWorker::handleFinished got HTTP Error %1 %2 + ChatAPIWorker::handleFinished obtuvo Error HTTP %1 %2 + + ChatDrawer @@ -962,9 +987,9 @@ - + - + LocalDocs DocumentosLocales @@ -981,20 +1006,20 @@ agregar colecciones de documentos al chat - - + + Load the default model Cargar el modelo predeterminado - - + + Loads the default model which can be changed in settings Carga el modelo predeterminado que se puede cambiar en la configuración - - + + No Model Installed No hay modelo instalado @@ -1005,174 +1030,172 @@ <h3>Se encontró un error al cargar el modelo:</h3><br><i>"%1"</i><br><br>Los fallos en la carga de modelos pueden ocurrir por varias razones, pero las causas más comunes incluyen un formato de archivo incorrecto, una descarga incompleta o corrupta, un tipo de archivo equivocado, RAM del sistema insuficiente o un tipo de modelo incompatible. Aquí hay algunas sugerencias para resolver el problema:<br><ul><li>Asegúrate de que el archivo del modelo tenga un formato y tipo compatibles<li>Verifica que el archivo del modelo esté completo en la carpeta de descargas<li>Puedes encontrar la carpeta de descargas en el diálogo de configuración<li>Si has cargado el modelo manualmente, asegúrate de que el archivo no esté corrupto verificando el md5sum<li>Lee más sobre qué modelos son compatibles en nuestra <a href="https://docs.gpt4all.io/">documentación</a> para la interfaz gráfica<li>Visita nuestro <a href="https://discord.gg/4M2QFmTt2k">canal de discord</a> para obtener ayuda - - + + Install a Model Instalar un modelo - - + + Shows the add model view Muestra la vista de agregar modelo - - + + Conversation with the model Conversación con el modelo - - + + prompt / response pairs from the conversation pares de pregunta / respuesta de la conversación - - + + GPT4All GPT4All - - + + You - - recalculating context ... - recalculando contexto ... + recalculando contexto ... - - + + response stopped ... respuesta detenida ... - - + + processing ... procesando ... - - + + generating response ... generando respuesta ... - - + + generating questions ... generando preguntas ... - - - - + + + + Copy Copiar - - + + Copy Message Copiar mensaje - - + + Disable markdown Desactivar markdown - - + + Enable markdown Activar markdown - - + + Thumbs up Me gusta - - + + Gives a thumbs up to the response Da un me gusta a la respuesta - - + + Thumbs down No me gusta - - + + Opens thumbs down dialog Abre el diálogo de no me gusta - - + + %1 Sources %1 Fuentes - - + + Suggested follow-ups Seguimientos sugeridos - - + + Erase and reset chat session Borrar y reiniciar sesión de chat - - + + Copy chat session to clipboard Copiar sesión de chat al portapapeles - - + + Redo last chat response Rehacer última respuesta del chat - - + + Stop generating Detener generación - - + + Stop the current response generation Detener la generación de la respuesta actual - - + + Reloads the model Recarga el modelo - + - + Reload · %1 Recargar · %1 @@ -1183,68 +1206,68 @@ Cargando · %1 - - + + Load · %1 (default) → Cargar · %1 (predeterminado) → - - + + retrieving localdocs: %1 ... recuperando documentos locales: %1 ... - - + + searching localdocs: %1 ... buscando en documentos locales: %1 ... - - + + Send a message... Enviar un mensaje... - - + + Load a model to continue... Carga un modelo para continuar... - - + + Send messages/prompts to the model Enviar mensajes/indicaciones al modelo - - + + Cut Cortar - - + + Paste Pegar - - + + Select All Seleccionar todo - - + + Send message Enviar mensaje - - + + Sends the message/prompt contained in textfield to the model Envía el mensaje/indicación contenido en el campo de texto al modelo @@ -1267,14 +1290,14 @@ modelo para comenzar CollectionsDrawer - - + + Warning: searching collections while indexing can return incomplete results Advertencia: buscar en colecciones mientras se indexan puede devolver resultados incompletos - - + + %n file(s) %n archivo @@ -1282,8 +1305,8 @@ modelo para comenzar - - + + %n word(s) %n palabra @@ -1291,24 +1314,62 @@ modelo para comenzar - - + + Updating Actualizando - - + + + Add Docs + Agregar documentos - - + + Select a collection to make it available to the chat model. Seleccione una colección para hacerla disponible al modelo de chat. + + Download + + + Model "%1" is installed successfully. + El modelo "%1" se ha instalado correctamente. + + + + ERROR: $MODEL_NAME is empty. + ERROR: $MODEL_NAME está vacío. + + + + ERROR: $API_KEY is empty. + ERROR: $API_KEY está vacía. + + + + ERROR: $BASE_URL is invalid. + ERROR: $BASE_URL no es válida. + + + + ERROR: Model "%1 (%2)" is conflict. + ERROR: El modelo "%1 (%2)" está en conflicto. + + + + Model "%1 (%2)" is installed successfully. + El modelo "%1 (%2)" se ha instalado correctamente. + + + + Model "%1" is removed. + El modelo "%1" ha sido eliminado. + + HomeView @@ -1449,7 +1510,7 @@ modelo para comenzar Comma-separated list. LocalDocs will only attempt to process files with these extensions. - Lista separada por comas. DocumentosLocales solo intentará procesar + Lista separada por comas. DocumentosLocales solo intentará procesar archivos con estas extensiones. @@ -1467,7 +1528,7 @@ modelo para comenzar Embed documents using the fast Nomic API instead of a private local model. Requires restart. - Incrustar documentos usando la rápida API de Nomic en lugar de un modelo + Incrustar documentos usando la rápida API de Nomic en lugar de un modelo local privado. Requiere reinicio. @@ -1477,6 +1538,8 @@ modelo para comenzar Clave API de Nomic + + API key to use for Nomic Embed. Get one from the Atlas <a href="https://atlas.nomic.ai/cli-login">API keys page</a>. Requires restart. Clave API para usar con Nomic Embed. Obtén una en la <a href="https://atlas.nomic.ai/cli-login">página de claves API</a> de Atlas. Requiere reinicio. @@ -1487,10 +1550,10 @@ modelo para comenzar Dispositivo de incrustaciones - The compute device used for embeddings. "Auto" uses the CPU. Requires - restart. - El dispositivo de cómputo utilizado para las incrustaciones. - "Auto" usa la CPU. Requiere reinicio. + + + The compute device used for embeddings. Requires restart. + El dispositivo de cómputo utilizado para las incrustaciones. Requiere reinicio. @@ -1505,73 +1568,73 @@ modelo para comenzar Incrustar documentos usando la API rápida de Nomic en lugar de un modelo local privado. Requiere reinicio. - - - The compute device used for embeddings. "Auto" uses the CPU. Requires restart. - El dispositivo de cómputo utilizado para las incrustaciones. "Auto" usa la CPU. Requiere reinicio. + + + Application default + Predeterminado de la aplicación - - + + Display Visualización - - + + Show Sources Mostrar fuentes - - + + Display the sources used for each response. Mostrar las fuentes utilizadas para cada respuesta. - - + + Advanced Avanzado - - + + Warning: Advanced usage only. Advertencia: Solo para uso avanzado. - - + + Values too large may cause localdocs failure, extremely slow responses or failure to respond at all. Roughly speaking, the {N chars x N snippets} are added to the model's context window. More info <a href="https://docs.gpt4all.io/gpt4all_desktop/localdocs.html">here</a>. Valores demasiado grandes pueden causar fallos en localdocs, respuestas extremadamente lentas o falta de respuesta. En términos generales, los {N caracteres x N fragmentos} se añaden a la ventana de contexto del modelo. Más información <a href="https://docs.gpt4all.io/gpt4all_desktop/localdocs.html">aquí</a>. - - + + Number of characters per document snippet. Larger numbers increase likelihood of factual responses, but also result in slower generation. Número de caracteres por fragmento de documento. Números más grandes aumentan la probabilidad de respuestas verídicas, pero también resultan en una generación más lenta. - - + + Max best N matches of retrieved document snippets to add to the context for prompt. Larger numbers increase likelihood of factual responses, but also result in slower generation. Máximo de N mejores coincidencias de fragmentos de documentos recuperados para añadir al contexto del prompt. Números más grandes aumentan la probabilidad de respuestas verídicas, pero también resultan en una generación más lenta. Values too large may cause localdocs failure, extremely slow responses or failure to respond at all. Roughly speaking, the {N chars x N snippets} are added to the model's context window. More info <a href="https://docs.gpt4all.io/gpt4all_desktop/localdocs.html">here</a>. - Valores demasiado grandes pueden causar fallos en documentos locales, respuestas extremadamente lentas o falta de respuesta. En términos generales, los {N caracteres x N fragmentos} se agregan a la ventana de contexto del modelo. Más información <a href="https://docs.gpt4all.io/gpt4all_desktop/localdocs.html">aquí</a>. + Valores demasiado grandes pueden causar fallos en documentos locales, respuestas extremadamente lentas o falta de respuesta. En términos generales, los {N caracteres x N fragmentos} se agregan a la ventana de contexto del modelo. Más información <a href="https://docs.gpt4all.io/gpt4all_desktop/localdocs.html">aquí</a>. - - + + Document snippet size (characters) Tamaño del fragmento de documento (caracteres) - - + + Max document snippets per prompt Máximo de fragmentos de documento por indicación @@ -1597,122 +1660,120 @@ modelo para comenzar + Agregar colección - - ERROR: The LocalDocs database is not valid. - ERROR: La base de datos de DocumentosLocales no es válida. + ERROR: La base de datos de DocumentosLocales no es válida. - - + + No Collections Installed No hay colecciones instaladas - - + + Install a collection of local documents to get started using this feature Instala una colección de documentos locales para comenzar a usar esta función - - + + + Add Doc Collection + Agregar colección de documentos - - + + Shows the add model view Muestra la vista de agregar modelo - - + + Indexing progressBar Barra de progreso de indexación - - + + Shows the progress made in the indexing Muestra el progreso realizado en la indexación - - + + ERROR ERROR - - + + INDEXING INDEXANDO - - + + EMBEDDING INCRUSTANDO - - + + REQUIRES UPDATE REQUIERE ACTUALIZACIÓN - - + + READY LISTO - - + + INSTALLING INSTALANDO - - + + Indexing in progress Indexación en progreso - - + + Embedding in progress Incrustación en progreso - - + + This collection requires an update after version change Esta colección requiere una actualización después del cambio de versión - - + + Automatically reindexes upon changes to the folder Reindexación automática al cambiar la carpeta - - + + Installation in progress Instalación en progreso - - + + % % - - + + %n file(s) %n archivo @@ -1720,8 +1781,8 @@ modelo para comenzar - - + + %n word(s) %n palabra @@ -1729,32 +1790,32 @@ modelo para comenzar - - + + Remove Eliminar - - + + Rebuild Reconstruir - - + + Reindex this folder from scratch. This is slow and usually not needed. Reindexar esta carpeta desde cero. Esto es lento y generalmente no es necesario. - - + + Update Actualizar - - + + Update the collection to the new version. This is a slow operation. Actualizar la colección a la nueva versión. Esta es una operación lenta. @@ -1768,54 +1829,53 @@ modelo para comenzar ModelList - + <ul><li>Requires personal OpenAI API key.</li><li>WARNING: Will send your chats to OpenAI!</li><li>Your API key will be stored on disk</li><li>Will only be used to communicate with OpenAI</li><li>You can apply for an API key <a href="https://platform.openai.com/account/api-keys">here.</a></li> <ul><li>Requiere clave API personal de OpenAI.</li><li>ADVERTENCIA: ¡Enviará sus chats a OpenAI!</li><li>Su clave API se almacenará en el disco</li><li>Solo se usará para comunicarse con OpenAI</li><li>Puede solicitar una clave API <a href="https://platform.openai.com/account/api-keys">aquí.</a></li> - <strong>OpenAI's ChatGPT model GPT-3.5 Turbo</strong><br> %1 - <strong>Modelo ChatGPT GPT-3.5 Turbo de + <strong>Modelo ChatGPT GPT-3.5 Turbo de OpenAI</strong><br> %1 - + <strong>OpenAI's ChatGPT model GPT-3.5 Turbo</strong><br> %1 <strong>Modelo ChatGPT GPT-3.5 Turbo de OpenAI</strong><br> %1 - + <br><br><i>* Even if you pay OpenAI for ChatGPT-4 this does not guarantee API key access. Contact OpenAI for more info. <br><br><i>* Aunque pagues a OpenAI por ChatGPT-4, esto no garantiza el acceso a la clave API. Contacta a OpenAI para más información. - + <strong>OpenAI's ChatGPT model GPT-4</strong><br> %1 %2 <strong>Modelo ChatGPT GPT-4 de OpenAI</strong><br> %1 %2 - + <ul><li>Requires personal Mistral API key.</li><li>WARNING: Will send your chats to Mistral!</li><li>Your API key will be stored on disk</li><li>Will only be used to communicate with Mistral</li><li>You can apply for an API key <a href="https://console.mistral.ai/user/api-keys">here</a>.</li> <ul><li>Requiere una clave API personal de Mistral.</li><li>ADVERTENCIA: ¡Enviará tus chats a Mistral!</li><li>Tu clave API se almacenará en el disco</li><li>Solo se usará para comunicarse con Mistral</li><li>Puedes solicitar una clave API <a href="https://console.mistral.ai/user/api-keys">aquí</a>.</li> - + <strong>Mistral Tiny model</strong><br> %1 <strong>Modelo Mistral Tiny</strong><br> %1 - + <strong>Mistral Small model</strong><br> %1 <strong>Modelo Mistral Small</strong><br> %1 - + <strong>Mistral Medium model</strong><br> %1 <strong>Modelo Mistral Medium</strong><br> %1 - + <strong>Created by %1.</strong><br><ul><li>Published on %2.<li>This model has %3 likes.<li>This model has %4 downloads.<li>More info can be found <a href="https://huggingface.co/%5">here.</a></ul> <strong>Creado por %1.</strong><br><ul><li>Publicado el %2.<li>Este modelo tiene %3 me gusta.<li>Este modelo tiene %4 descargas.<li>Más información puede encontrarse <a href="https://huggingface.co/%5">aquí.</a></ul> @@ -1830,12 +1890,12 @@ modelo para comenzar <strong>Modelo de API compatible con OpenAI</strong><br><ul><li>Clave API: %1</li><li>URL base: %2</li><li>Nombre del modelo: %3</li></ul> - + <ul><li>Requires personal API key and the API base URL.</li><li>WARNING: Will send your chats to the OpenAI-compatible API Server you specified!</li><li>Your API key will be stored on disk</li><li>Will only be used to communicate with the OpenAI-compatible API Server</li> <ul><li>Requiere una clave API personal y la URL base de la API.</li><li>ADVERTENCIA: ¡Enviará sus chats al servidor de API compatible con OpenAI que especificó!</li><li>Su clave API se almacenará en el disco</li><li>Solo se utilizará para comunicarse con el servidor de API compatible con OpenAI</li> - + <strong>Connect to OpenAI-compatible API server</strong><br> %1 <strong>Conectar al servidor de API compatible con OpenAI</strong><br> %1 @@ -1885,7 +1945,8 @@ modelo para comenzar Indicación del sistema - + + Prefixed at the beginning of every conversation. Must contain the appropriate framing tokens. Prefijado al inicio de cada conversación. Debe contener los tokens de encuadre apropiados. @@ -1902,7 +1963,8 @@ modelo para comenzar La plantilla que envuelve cada indicación. - + + Must contain the string "%1" to be replaced with the user's input. Debe contener la cadena "%1" para ser reemplazada con la entrada del usuario. @@ -1919,175 +1981,176 @@ modelo para comenzar Indicación utilizada para generar automáticamente nombres de chat. - - + + Suggested FollowUp Prompt Indicación de seguimiento sugerida - - + + Prompt used to generate suggested follow-up questions. Indicación utilizada para generar preguntas de seguimiento sugeridas. - - + + Context Length Longitud del contexto - - + + Number of input and output tokens the model sees. Número de tokens de entrada y salida que el modelo ve. - Maximum combined prompt/response tokens before information is lost. Using more context than the model was trained on will yield poor results. NOTE: Does not take effect until you reload the model. - Máximo de tokens combinados de indicación/respuesta antes de que se pierda información. Usar más contexto del que se utilizó para entrenar el modelo producirá resultados pobres. + Máximo de tokens combinados de indicación/respuesta antes de que se pierda información. Usar más contexto del que se utilizó para entrenar el modelo producirá resultados pobres. NOTA: No tiene efecto hasta que recargues el modelo. - - + + Temperature Temperatura - - + + Randomness of model output. Higher -> more variation. Aleatoriedad de la salida del modelo. Mayor -> más variación. - + + Temperature increases the chances of choosing less likely tokens. NOTE: Higher temperature gives more creative but less predictable outputs. La temperatura aumenta las probabilidades de elegir tokens menos probables. NOTA: Una temperatura más alta da resultados más creativos pero menos predecibles. - - + + Top-P Top-P - - + + Nucleus Sampling factor. Lower -> more predicatable. Factor de muestreo de núcleo. Menor -> más predecible. - + + Only the most likely tokens up to a total probability of top_p can be chosen. NOTE: Prevents choosing highly unlikely tokens. Solo se pueden elegir los tokens más probables hasta una probabilidad total de top_p. NOTA: Evita elegir tokens altamente improbables. - - + + Min-P Min-P - - + + Minimum token probability. Higher -> more predictable. Probabilidad mínima del token. Mayor -> más predecible. - - + + Sets the minimum relative probability for a token to be considered. Establece la probabilidad relativa mínima para que un token sea considerado. - - + + Top-K Top-K - - + + Size of selection pool for tokens. Tamaño del grupo de selección para tokens. - - + + Only the top K most likely tokens will be chosen from. Solo se elegirán los K tokens más probables. - - + + Max Length Longitud máxima - - + + Maximum response length, in tokens. Longitud máxima de respuesta, en tokens. - - + + Prompt Batch Size Tamaño del lote de indicaciones - - + + The batch size used for prompt processing. El tamaño del lote utilizado para el procesamiento de indicaciones. - - + + Amount of prompt tokens to process at once. NOTE: Higher values can speed up reading prompts but will use more RAM. Cantidad de tokens de prompt a procesar de una vez. NOTA: Valores más altos pueden acelerar la lectura de prompts, pero usarán más RAM. - - + + Repeat Penalty Penalización por repetición - - + + Repetition penalty factor. Set to 1 to disable. Factor de penalización por repetición. Establecer a 1 para desactivar. - - + + Repeat Penalty Tokens Tokens de penalización por repetición - - + + Number of previous tokens used for penalty. Número de tokens anteriores utilizados para la penalización. - - + + GPU Layers Capas de GPU - - + + Number of model layers to load into VRAM. Número de capas del modelo a cargar en la VRAM. @@ -2115,228 +2178,234 @@ NOTA: No surte efecto hasta que recargue el modelo. ModelsView - - + + No Models Installed No hay modelos instalados - - + + Install a model to get started using GPT4All Instala un modelo para empezar a usar GPT4All - - - - + + + + + Add Model + Agregar modelo - - + + Shows the add model view Muestra la vista de agregar modelo - - + + Installed Models Modelos instalados - - + + Locally installed chat models Modelos de chat instalados localmente - - + + Model file Archivo del modelo - - + + Model file to be downloaded Archivo del modelo a descargar - - + + Description Descripción - - + + File description Descripción del archivo - - + + Cancel Cancelar - - + + Resume Reanudar - - + + Stop/restart/start the download Detener/reiniciar/iniciar la descarga - - + + Remove Eliminar - - + + Remove model from filesystem Eliminar modelo del sistema de archivos - - - - + + + + Install Instalar - - + + Install online model Instalar modelo en línea - + + <strong><font size="1"><a href="#error">Error</a></strong></font> <strong><font size="1"><a href="#error">Error</a></strong></font> - + + <strong><font size="2">WARNING: Not recommended for your hardware. Model requires more memory (%1 GB) than your system has available (%2).</strong></font> <strong><font size="2">ADVERTENCIA: No recomendado para su hardware. El modelo requiere más memoria (%1 GB) de la que su sistema tiene disponible (%2).</strong></font> - - + + %1 GB %1 GB - - + + ? ? - - + + Describes an error that occurred when downloading Describe un error que ocurrió durante la descarga - - + + Error for incompatible hardware Error por hardware incompatible - - + + Download progressBar Barra de progreso de descarga - - + + Shows the progress made in the download Muestra el progreso realizado en la descarga - - + + Download speed Velocidad de descarga - - + + Download speed in bytes/kilobytes/megabytes per second Velocidad de descarga en bytes/kilobytes/megabytes por segundo - - + + Calculating... Calculando... - - + + + + + + Whether the file hash is being calculated Si se está calculando el hash del archivo - - + + Busy indicator Indicador de ocupado - - + + Displayed when the file hash is being calculated Se muestra cuando se está calculando el hash del archivo - - + + enter $API_KEY ingrese $API_KEY - - + + File size Tamaño del archivo - - + + RAM required RAM requerida - - + + Parameters Parámetros - - + + Quant Cuantificación - - + + Type Tipo @@ -2427,7 +2496,7 @@ response. If you dislike a response, you can suggest an alternative response. Th data will be collected and aggregated in the GPT4All Datalake. NOTE: By turning on this feature, you will be sending your data to the GPT4All Open Source Datalake. You should have no expectation of chat privacy when this feature is enabled. You should; however, have an expectation of an optional attribution if you wish. Your chat data will be openly available for anyone to download and will be used by Nomic AI to improve future GPT4All models. Nomic AI will retain all attribution information attached to your data and you will be credited as a contributor to any GPT4All model release that uses your data! - Al habilitar esta función, podrá participar en el proceso democrático de entrenamiento de un modelo de lenguaje grande contribuyendo con datos para futuras mejoras del modelo. Cuando un modelo GPT4All le responda y usted haya aceptado, su conversación se enviará al Datalake de código abierto de GPT4All. Además, puede dar me gusta/no me gusta a su respuesta. Si no le gusta una respuesta, puede sugerir una alternativa. Estos datos se recopilarán y agregarán en el Datalake de GPT4All. + Al habilitar esta función, podrá participar en el proceso democrático de entrenamiento de un modelo de lenguaje grande contribuyendo con datos para futuras mejoras del modelo. Cuando un modelo GPT4All le responda y usted haya aceptado, su conversación se enviará al Datalake de código abierto de GPT4All. Además, puede dar me gusta/no me gusta a su respuesta. Si no le gusta una respuesta, puede sugerir una alternativa. Estos datos se recopilarán y agregarán en el Datalake de GPT4All. NOTA: Al activar esta función, enviará sus datos al Datalake de código abierto de GPT4All. No debe esperar privacidad en el chat cuando esta función esté habilitada. Sin embargo, puede esperar una atribución opcional si lo desea. Sus datos de chat estarán disponibles abiertamente para que cualquiera los descargue y serán utilizados por Nomic AI para mejorar futuros modelos de GPT4All. Nomic AI conservará toda la información de atribución adjunta a sus datos y se le acreditará como contribuyente en cualquier lanzamiento de modelo GPT4All que utilice sus datos. @@ -2545,9 +2614,8 @@ NOTA: Al activar esta función, estarás enviando tus datos al Datalake de Códi QObject - Default - Predeterminado + Predeterminado @@ -2606,26 +2674,22 @@ NOTA: Al activar esta función, estarás enviando tus datos al Datalake de Códi Notas de la versión para esta versión - - ### Release notes %1### Contributors %2 - ### Notas de la versión + ### Notas de la versión %1### Colaboradores %2 - - ### Opt-ins for anonymous usage analytics and datalake By enabling these features, you will be able to participate in the democratic process of training a large language model by contributing data for future model improvements. When a GPT4All model responds to you and you have opted-in, your conversation will be sent to the GPT4All Open Source Datalake. Additionally, you can like/dislike its response. If you dislike a response, you can suggest an alternative response. This data will be collected and aggregated in the GPT4All Datalake. NOTE: By turning on this feature, you will be sending your data to the GPT4All Open Source Datalake. You should have no expectation of chat privacy when this feature is enabled. You should; however, have an expectation of an optional attribution if you wish. Your chat data will be openly available for anyone to download and will be used by Nomic AI to improve future GPT4All models. Nomic AI will retain all attribution information attached to your data and you will be credited as a contributor to any GPT4All model release that uses your data! - ### Autorización para análisis de uso anónimo y datalake Al habilitar estas funciones, podrás participar en el proceso democrático de entrenar un modelo de lenguaje grande contribuyendo con datos para futuras mejoras del modelo. Cuando un modelo GPT4All te responda y hayas aceptado participar, tu conversación se enviará al Datalake de Código Abierto de GPT4All. Además, podrás indicar si te gusta o no su respuesta. Si no te gusta una respuesta, puedes sugerir una alternativa. Estos datos se recopilarán y agregarán en el Datalake de GPT4All. + ### Autorización para análisis de uso anónimo y datalake Al habilitar estas funciones, podrás participar en el proceso democrático de entrenar un modelo de lenguaje grande contribuyendo con datos para futuras mejoras del modelo. Cuando un modelo GPT4All te responda y hayas aceptado participar, tu conversación se enviará al Datalake de Código Abierto de GPT4All. Además, podrás indicar si te gusta o no su respuesta. Si no te gusta una respuesta, puedes sugerir una alternativa. Estos datos se recopilarán y agregarán en el Datalake de GPT4All. NOTA: Al activar esta función, estarás enviando tus datos al Datalake de Código Abierto de GPT4All. No debes esperar privacidad en el chat cuando esta función esté habilitada. Sin embargo, puedes esperar una atribución opcional si lo deseas. Tus datos de chat estarán disponibles abiertamente para que cualquiera los descargue y serán utilizados por Nomic AI para mejorar futuros modelos de GPT4All. Nomic AI conservará toda la información de atribución adjunta a tus datos y se te acreditará como colaborador en cualquier lanzamiento de modelo GPT4All que utilice tus datos. @@ -2765,7 +2829,7 @@ lanzamiento de modelo GPT4All que utilice sus datos. <b>Warning:</b> changing the model will erase the current conversation. Do you wish to continue? - <b>Advertencia:</b> cambiar el modelo borrará la conversación + <b>Advertencia:</b> cambiar el modelo borrará la conversación actual. ¿Desea continuar? @@ -2989,55 +3053,4 @@ Locales Vista de modelos instalados - - ChatAPIWorker - - - ERROR: Network error occurred while connecting to the API server - ERROR: Ocurrió un error de red al conectar con el servidor API - - - - ChatAPIWorker::handleFinished got HTTP Error %1 %2 - ChatAPIWorker::handleFinished obtuvo Error HTTP %1 %2 - - - - Download - - - Model "%1" is installed successfully. - El modelo "%1" se ha instalado correctamente. - - - - ERROR: $MODEL_NAME is empty. - ERROR: $MODEL_NAME está vacío. - - - - ERROR: $API_KEY is empty. - ERROR: $API_KEY está vacía. - - - - ERROR: $BASE_URL is invalid. - ERROR: $BASE_URL no es válida. - - - - ERROR: Model "%1 (%2)" is conflict. - ERROR: El modelo "%1 (%2)" está en conflicto. - - - - Model "%1 (%2)" is installed successfully. - El modelo "%1 (%2)" se ha instalado correctamente. - - - - Model "%1" is removed. - El modelo "%1" ha sido eliminado. - - diff --git a/gpt4all-chat/translations/gpt4all_it_IT.ts b/gpt4all-chat/translations/gpt4all_it_IT.ts index e956c412..68cf05f9 100644 --- a/gpt4all-chat/translations/gpt4all_it_IT.ts +++ b/gpt4all-chat/translations/gpt4all_it_IT.ts @@ -115,44 +115,44 @@ Attiva la scoperta e il filtraggio dei modelli - - + + Default Predefinito - - + + Likes Mi piace - - + + Downloads Scaricamenti - - + + Recent Recenti - - + + Asc Asc - - + + Desc Disc - - + + None Niente @@ -163,266 +163,266 @@ Ricerca · %1 - - + + Sort by: %1 Ordina per: %1 - - + + Sort dir: %1 Direzione ordinamento: %1 - - + + Limit: %1 Limite: %1 - - + + Network error: could not retrieve %1 Errore di rete: impossibile recuperare %1 - - - - + + + + Busy indicator Indicatore di occupato - - + + Displayed when the models request is ongoing Visualizzato quando la richiesta dei modelli è in corso - - + + Model file File del modello - - + + Model file to be downloaded File del modello da scaricare - - + + Description Descrizione - - + + File description Descrizione del file - - + + Cancel Annulla - - + + Resume Riprendi - - + + Download Scarica - - + + Stop/restart/start the download Arresta/riavvia/avvia il download - - + + Remove Rimuovi - - + + Remove model from filesystem Rimuovi il modello dal sistema dei file - - - - + + + + Install Installa - - + + Install online model Installa il modello online - - + + <strong><font size="2">WARNING: Not recommended for your hardware. Model requires more memory (%1 GB) than your system has available (%2).</strong></font> <strong><font size="2">AVVERTENZA: non consigliato per il tuo hardware. Il modello richiede più memoria (%1 GB) di quella disponibile nel sistema (%2).</strong></font> - - + + ERROR: $API_KEY is empty. ERRORE: $API_KEY è vuoto. - - + + ERROR: $BASE_URL is empty. ERRORE: $BASE_URL non è valido. - - + + enter $BASE_URL inserisci $BASE_URL - - + + ERROR: $MODEL_NAME is empty. ERRORE: $MODEL_NAME è vuoto. - - + + enter $MODEL_NAME inserisci $MODEL_NAME - - + + %1 GB - - - - + + + + ? - - + + Describes an error that occurred when downloading Descrive un errore che si è verificato durante lo scaricamento - - + + <strong><font size="1"><a href="#error">Error</a></strong></font> <strong><font size="1"><a href="#error">Errore</a></strong></font> - - + + Error for incompatible hardware Errore per hardware incompatibile - - + + Download progressBar Barra di avanzamento dello scaricamento - - + + Shows the progress made in the download Mostra lo stato di avanzamento dello scaricamento - - + + Download speed Velocità di scaricamento - - + + Download speed in bytes/kilobytes/megabytes per second Velocità di scaricamento in byte/kilobyte/megabyte al secondo - - + + Calculating... Calcolo in corso... - - - - - - - - + + + + + + + + Whether the file hash is being calculated Se viene calcolato l'hash del file - - + + Displayed when the file hash is being calculated Visualizzato durante il calcolo dell'hash del file - - + + enter $API_KEY Inserire $API_KEY - - + + File size Dimensione del file - - + + RAM required RAM richiesta - - + + Parameters Parametri - - + + Quant Quant - - + + Type Tipo @@ -490,74 +490,74 @@ La combinazione di colori dell'applicazione. - - + + Dark Scuro - - + + Light Chiaro - - + + LegacyDark Scuro Legacy - - + + Font Size Dimensioni del Font - - + + The size of text in the application. La dimensione del testo nell'applicazione. - - + + Small Piccolo - - + + Medium Medio - - + + Large Grande - - + + Language and Locale Lingua e settaggi locali - - + + The language and locale you wish to use. La lingua e i settaggi locali che vuoi utilizzare. - - + + System Locale Settaggi locali del sistema - - + + Device Dispositivo @@ -566,167 +566,167 @@ Il dispositivo di calcolo utilizzato per la generazione del testo. "Auto" utilizza Vulkan o Metal. - - + + The compute device used for text generation. Il dispositivo di calcolo utilizzato per la generazione del testo. - - - - + + + + Application default Applicazione predefinita - - + + Default Model Modello predefinito - - + + The preferred model for new chats. Also used as the local server fallback. Il modello preferito per le nuove chat. Utilizzato anche come ripiego del server locale. - - + + Suggestion Mode Modalità suggerimento - - + + Generate suggested follow-up questions at the end of responses. Genera le domande di approfondimento suggerite alla fine delle risposte. - - + + When chatting with LocalDocs Quando chatti con LocalDocs - - + + Whenever possible Quando possibile - - + + Never Mai - - + + Download Path Percorso di scarico - - + + Where to store local models and the LocalDocs database. Dove archiviare i modelli locali e il database LocalDocs. - - + + Browse Esplora - - + + Choose where to save model files Scegli dove salvare i file del modello - - + + Enable Datalake Abilita Datalake - - + + Send chats and feedback to the GPT4All Open-Source Datalake. Invia chat e commenti al Datalake Open Source GPT4All. - - + + Advanced Avanzate - - + + CPU Threads Thread della CPU Tread CPU - - + + The number of CPU threads used for inference and embedding. Il numero di thread della CPU utilizzati per l'inferenza e l'incorporamento. - - + + Save Chat Context Salva il contesto della chat - - + + Save the chat model's state to disk for faster loading. WARNING: Uses ~2GB per chat. Salva lo stato del modello di chat su disco per un caricamento più rapido. ATTENZIONE: utilizza circa 2 GB per chat. - - + + Enable Local Server Abilita server locale - - + + Expose an OpenAI-Compatible server to localhost. WARNING: Results in increased resource usage. Esporre un server compatibile con OpenAI a localhost. ATTENZIONE: comporta un maggiore utilizzo delle risorse. - - + + API Server Port Porta del server API - - + + The port to use for the local server. Requires restart. La porta da utilizzare per il server locale. Richiede il riavvio. - - + + Check For Updates Controlla gli aggiornamenti - - + + Manually check for an update to GPT4All. Verifica manualmente l'aggiornamento di GPT4All. - - + + Updates Aggiornamenti @@ -1531,66 +1531,72 @@ modello per iniziare - The compute device used for embeddings. "Auto" uses the CPU. Requires restart. - Il dispositivo di calcolo utilizzato per gli incorporamenti. "Auto" utilizza la CPU. Richiede il riavvio. + The compute device used for embeddings. Requires restart. + Il dispositivo di calcolo utilizzato per gli incorporamenti. Richiede il riavvio. - - + + + Application default + Applicazione predefinita + + + + Display Mostra - - + + Show Sources Mostra le fonti - - + + Display the sources used for each response. Visualizza le fonti utilizzate per ciascuna risposta. - - + + Advanced Avanzate - - + + Warning: Advanced usage only. Avvertenza: solo per uso avanzato. - - + + Values too large may cause localdocs failure, extremely slow responses or failure to respond at all. Roughly speaking, the {N chars x N snippets} are added to the model's context window. More info <a href="https://docs.gpt4all.io/gpt4all_desktop/localdocs.html">here</a>. Valori troppo grandi possono causare errori di Localdocs, risposte estremamente lente o l'impossibilità di rispondere. In parole povere, {N caratteri x N frammenti} vengono aggiunti alla finestra di contesto del modello. Maggiori informazioni <a href="https://docs.gpt4all.io/gpt4all_desktop/localdocs.html">qui</a>. - - + + Document snippet size (characters) Dimensioni del frammento di documento (caratteri) - - + + Number of characters per document snippet. Larger numbers increase likelihood of factual responses, but also result in slower generation. Numero di caratteri per frammento di documento. Numeri più grandi aumentano la probabilità di risposte basate sui fatti, ma comportano anche una generazione più lenta. - - + + Max document snippets per prompt Numero massimo di frammenti di documento per prompt - - + + Max best N matches of retrieved document snippets to add to the context for prompt. Larger numbers increase likelihood of factual responses, but also result in slower generation. Numero massimo di N corrispondenze migliori di frammenti di documento recuperati da aggiungere al contesto del prompt. Numeri più grandi aumentano la probabilità di risposte basate sui fatti, ma comportano anche una generazione più lenta. diff --git a/gpt4all-chat/translations/gpt4all_pt_BR.ts b/gpt4all-chat/translations/gpt4all_pt_BR.ts index 45d5e103..7697a400 100644 --- a/gpt4all-chat/translations/gpt4all_pt_BR.ts +++ b/gpt4all-chat/translations/gpt4all_pt_BR.ts @@ -115,44 +115,44 @@ Aciona a descoberta e filtragem de modelos - - + + Default Padrão - - + + Likes Curtidas - - + + Downloads Downloads - - + + Recent Recentes - - + + Asc Asc - - + + Desc Desc - - + + None Nenhum @@ -163,266 +163,266 @@ Pesquisando · %1 - - + + Sort by: %1 Ordenar por: %1 - - + + Sort dir: %1 Ordenar diretório: %1 - - + + Limit: %1 Limite: %1 - - + + Network error: could not retrieve %1 Erro de rede: não foi possível obter %1 - - - - + + + + Busy indicator Indicador de processamento - - + + Displayed when the models request is ongoing xibido enquanto os modelos estão sendo carregados - - + + Model file Arquivo do modelo - - + + Model file to be downloaded Arquivo do modelo a ser baixado - - + + Description Descrição - - + + File description Descrição do arquivo - - + + Cancel Cancelar - - + + Resume Retomar - - + + Download Baixar - - + + Stop/restart/start the download Parar/reiniciar/iniciar o download - - + + Remove Remover - - + + Remove model from filesystem Remover modelo do sistema - - - - + + + + Install Instalar - - + + Install online model Instalar modelo online - - + + <strong><font size="2">WARNING: Not recommended for your hardware. Model requires more memory (%1 GB) than your system has available (%2).</strong></font> <strong><font size="2">ATENÇÃO: Este modelo não é recomendado para seu hardware. Ele exige mais memória (%1 GB) do que seu sistema possui (%2).</strong></font> - - + + ERROR: $API_KEY is empty. ERRO: A $API_KEY está vazia. - - + + ERROR: $BASE_URL is empty. ERRO: A $BASE_URL está vazia. - - + + enter $BASE_URL inserir a $BASE_URL - - + + ERROR: $MODEL_NAME is empty. ERRO: O $MODEL_NAME está vazio. - - + + enter $MODEL_NAME inserir o $MODEL_NAME - - + + %1 GB %1 GB - - - - + + + + ? ? - - + + Describes an error that occurred when downloading Mostra informações sobre o erro no download - - + + <strong><font size="1"><a href="#error">Error</a></strong></font> <strong><font size="1"><a href="#error">Erro</a></strong></font> - - + + Error for incompatible hardware Aviso: Hardware não compatível - - + + Download progressBar Progresso do download - - + + Shows the progress made in the download Mostra o progresso do download - - + + Download speed Velocidade de download - - + + Download speed in bytes/kilobytes/megabytes per second Velocidade de download em bytes/kilobytes/megabytes por segundo - - + + Calculating... Calculando... - - - - - - - - + + + + + + + + Whether the file hash is being calculated Quando o hash do arquivo está sendo calculado - - + + Displayed when the file hash is being calculated Exibido durante o cálculo do hash do arquivo - - + + enter $API_KEY inserir $API_KEY - - + + File size Tamanho do arquivo - - + + RAM required RAM necessária - - + + Parameters Parâmetros - - + + Quant Quant - - + + Type Tipo @@ -496,240 +496,240 @@ Esquema de cores. - - + + Dark Modo Escuro - - + + Light Modo Claro - - + + LegacyDark Modo escuro (legado) - - + + Font Size Tamanho da Fonte - - + + The size of text in the application. Tamanho do texto. - - + + Small Pequeno - - + + Medium Médio - - + + Large Grande - - + + Language and Locale Idioma e Região - - + + The language and locale you wish to use. Selecione seu idioma e região. - - + + System Locale Local do Sistema - - + + Device Processador - - + + The compute device used for text generation. I chose to use "Processador" instead of "Dispositivo" (Device) or "Dispositivo de Computação" (Compute Device) to simplify the terminology and make it more straightforward and understandable. "Dispositivo" can be vague and could refer to various types of hardware, whereas "Processador" clearly and specifically indicates the component responsible for processing tasks. This improves usability by avoiding the ambiguity that might arise from using more generic terms like "Dispositivo." Processador usado para gerar texto. - - - - + + + + Application default Aplicativo padrão - - + + Default Model Modelo Padrão - - + + The preferred model for new chats. Also used as the local server fallback. Modelo padrão para novos chats e em caso de falha do modelo principal. - - + + Suggestion Mode Modo de sugestões - - + + Generate suggested follow-up questions at the end of responses. Sugerir perguntas após as respostas. - - + + When chatting with LocalDocs Ao conversar com o LocalDocs - - + + Whenever possible Sempre que possível - - + + Never Nunca - - + + Download Path Diretório de Download - - + + Where to store local models and the LocalDocs database. Pasta para modelos e banco de dados do LocalDocs. - - + + Browse Procurar - - + + Choose where to save model files Local para armazenar os modelos - - + + Enable Datalake Habilitar Datalake - - + + Send chats and feedback to the GPT4All Open-Source Datalake. Contribua para o Datalake de código aberto do GPT4All. - - + + Advanced Avançado - - + + CPU Threads Threads de CPU - - + + The number of CPU threads used for inference and embedding. Quantidade de núcleos (threads) do processador usados para processar e responder às suas perguntas. - - + + Save Chat Context I used "Histórico do Chat" (Chat History) instead of "Contexto do Chat" (Chat Context) to clearly convey that it refers to saving past messages, making it more intuitive and avoiding potential confusion with abstract terms. Salvar Histórico do Chat - - + + Save the chat model's state to disk for faster loading. WARNING: Uses ~2GB per chat. Salvar histórico do chat para carregamento mais rápido. (Usa aprox. 2GB por chat). - - + + Enable Local Server Ativar Servidor Local - - + + Expose an OpenAI-Compatible server to localhost. WARNING: Results in increased resource usage. Ativar servidor local compatível com OpenAI (uso de recursos elevado). - - + + API Server Port Porta da API - - + + The port to use for the local server. Requires restart. Porta de acesso ao servidor local. (requer reinicialização). - - + + Check For Updates Procurar por Atualizações - - + + Manually check for an update to GPT4All. Verifica se há novas atualizações para o GPT4All. - - + + Updates Atualizações @@ -1533,67 +1533,73 @@ modelo instalado para funcionar - The compute device used for embeddings. "Auto" uses the CPU. Requires restart. - Dispositivo usado para processar as incorporações. "Automático" utiliza a CPU. Requer reinicialização. + The compute device used for embeddings. Requires restart. + Dispositivo usado para processar as incorporações. Requer reinicialização. - - + + + Application default + Aplicativo padrão + + + + Display Exibir - - + + Show Sources Mostrar Fontes - - + + Display the sources used for each response. Mostra as fontes usadas para cada resposta. - - + + Advanced Apenas para usuários avançados - - + + Warning: Advanced usage only. Atenção: Apenas para usuários avançados. - - + + Values too large may cause localdocs failure, extremely slow responses or failure to respond at all. Roughly speaking, the {N chars x N snippets} are added to the model's context window. More info <a href="https://docs.gpt4all.io/gpt4all_desktop/localdocs.html">here</a>. Valores muito altos podem causar falhas no LocalDocs, respostas extremamente lentas ou até mesmo nenhuma resposta. De forma geral, o valor {Número de Caracteres x Número de Trechos} é adicionado à janela de contexto do modelo. Clique <a href="https://docs.gpt4all.io/gpt4all_desktop/localdocs.html">aqui</a> para mais informações. - - + + Document snippet size (characters) I translated "snippet" as "trecho" to make the term feel more natural and understandable in Portuguese. "Trecho" effectively conveys the idea of a portion or section of a document, fitting well within the context, whereas a more literal translation might sound less intuitive or awkward for users. Tamanho do trecho de documento (caracteres) - - + + Number of characters per document snippet. Larger numbers increase likelihood of factual responses, but also result in slower generation. Número de caracteres por trecho de documento. Valores maiores aumentam a chance de respostas factuais, mas também tornam a geração mais lenta. - - + + Max document snippets per prompt Máximo de Trechos de Documento por Prompt - - + + Max best N matches of retrieved document snippets to add to the context for prompt. Larger numbers increase likelihood of factual responses, but also result in slower generation. Número máximo de trechos de documentos a serem adicionados ao contexto do prompt. Valores maiores aumentam a chance de respostas factuais, mas também tornam a geração mais lenta. diff --git a/gpt4all-chat/translations/gpt4all_ro_RO.ts b/gpt4all-chat/translations/gpt4all_ro_RO.ts index f8855d48..219dc777 100644 --- a/gpt4all-chat/translations/gpt4all_ro_RO.ts +++ b/gpt4all-chat/translations/gpt4all_ro_RO.ts @@ -7,30 +7,30 @@ ← Existing Collections - ← Colecţiile curente + ← Colecţiile curente Add Document Collection - Adaugă o Colecţie de documente + Adaugă o Colecţie de documente Add a folder containing plain text files, PDFs, or Markdown. Configure additional extensions in Settings. - Adaugă un folder care conţine fişiere în cu text-simplu, PDF sau Markdown. Extensii suplimentare pot fi specificate în Configurare. + Adaugă un folder care conţine fişiere în cu text-simplu, PDF sau Markdown. Extensii suplimentare pot fi specificate în Configurare. Add a folder containing plain text files, PDFs, or Markdown. Configure additional extensions in Settings. - Adaugă un folder cu fişiere în format text, PDF sau Markdown. Alte extensii pot fi adăugate în Configurare. + Adaugă un folder cu fişiere în format text, PDF sau Markdown. Alte extensii pot fi adăugate în Configurare. Please choose a directory - Selectează un folder/director + Selectează un folder/director @@ -42,13 +42,13 @@ Collection name... - Denumirea Colecţiei... + Denumirea Colecţiei... Name of the collection to add (Required) - Denumirea Colecţiei de adăugat (necesar) + Denumirea Colecţiei de adăugat (necesar) @@ -72,13 +72,13 @@ Browse - Căutare + Căutare Create Collection - Creează o Colecţie + Creează o Colecţie @@ -93,71 +93,71 @@ Explore Models - Caută modele + Caută modele Discover and download models by keyword search... - Caută şi descarcă modele după un cuvânt-cheie... + Caută şi descarcă modele după un cuvânt-cheie... Text field for discovering and filtering downloadable models - Câmp pentru căutarea şi filtrarea modelelor ce pot fi descărcate + Câmp pentru căutarea şi filtrarea modelelor ce pot fi descărcate Initiate model discovery and filtering - Iniţiază căutarea şi filtrarea modelelor + Iniţiază căutarea şi filtrarea modelelor Triggers discovery and filtering of models - Activează căutarea şi filtrarea modelelor + Activează căutarea şi filtrarea modelelor - - + + Default Implicit - - + + Likes Likes - - + + Downloads Download-uri - - + + Recent Recent/e - - + + Asc Asc. (A->Z) - - + + Desc Desc. (Z->A) - - + + None Niciunul @@ -165,158 +165,158 @@ Searching · %1 - Căutare · %1 + Căutare · %1 - - + + Sort by: %1 - Ordonare după: %1 + Ordonare după: %1 - - + + Sort dir: %1 - Sensul ordonării: %1 + Sensul ordonării: %1 - - + + Limit: %1 - Límită: %1 + Límită: %1 - - + + Network error: could not retrieve %1 - Eroare de reţea: nu se poate prelua %1 + Eroare de reţea: nu se poate prelua %1 - - - - + + + + Busy indicator Indicator de activitate - - + + Displayed when the models request is ongoing - Afişat în timpul solicitării modelului + Afişat în timpul solicitării modelului - - + + Model file - Fişierul modelului + Fişierul modelului - - + + Model file to be downloaded - Fişierul modelului de descărcat + Fişierul modelului de descărcat - - + + Description Descriere - - + + File description - Descrierea fişierului + Descrierea fişierului - - + + Cancel Anulare - - + + Resume Continuare - - + + Download Download - - + + Stop/restart/start the download - Opreşte/Reporneşte/Începe descărcarea + Opreşte/Reporneşte/Începe descărcarea - - + + Remove - şterge + şterge - - + + Remove model from filesystem - şterge modelul din sistemul de fişiere + şterge modelul din sistemul de fişiere - - - - + + + + Install Instalare - - + + Install online model Instalez un model din online - - + + <strong><font size="1"><a href="#error">Error</a></strong></font> <strong><font size="1"><a href="#error">Eroare</a></strong></font> - - + + <strong><font size="2">WARNING: Not recommended for your hardware. Model requires more memory (%1 GB) than your system has available (%2).</strong></font> - <strong><font size="2">ATENŢIE: Nerecomandat pentru acest hardware. Modelul necesită mai multă memorie (%1 GB) decât are acest sistem + <strong><font size="2">ATENŢIE: Nerecomandat pentru acest hardware. Modelul necesită mai multă memorie (%1 GB) decât are acest sistem (%2).</strong></font> <strong><font size="2">WARNING: Not recommended for your hardware. Model requires more memory (%1 GB) than your system has available (%2).</strong></font> - <strong><font size="2">ATENţIE: Nerecomandat pentru acest hardware. Modelul necesită mai multă memorie (%1 GB) decât cea disponibilă în sistem (%2).</strong></font> + <strong><font size="2">ATENţIE: Nerecomandat pentru acest hardware. Modelul necesită mai multă memorie (%1 GB) decât cea disponibilă în sistem (%2).</strong></font> - - + + %1 GB %1 GB - - - - + + + + ? ? - - + + Describes an error that occurred when downloading - Descrie eroarea apărută în timpul descărcării + Descrie eroarea apărută în timpul descărcării <strong><font size="1"><a @@ -324,122 +324,122 @@ <strong><font size="1"><a href="#eroare">Eroare</a></strong></font> - - + + Error for incompatible hardware Eroare: hardware incompatibil - - + + Download progressBar - Progresia descărcării + Progresia descărcării - - + + Shows the progress made in the download - Afişează progresia descărcării + Afişează progresia descărcării - - + + Download speed Viteza de download - - + + Download speed in bytes/kilobytes/megabytes per second - Viteza de download în bytes/kilobytes/megabytes pe secundă + Viteza de download în bytes/kilobytes/megabytes pe secundă - - + + Calculating... Calculare... - - - - - - - - + + + + + + + + Whether the file hash is being calculated - Dacă se calculează hash-ul fişierului + Dacă se calculează hash-ul fişierului - - + + Displayed when the file hash is being calculated - Se afişează când se calculează hash-ul fişierului + Se afişează când se calculează hash-ul fişierului - - + + ERROR: $API_KEY is empty. - EROARE: $API_KEY absentă + EROARE: $API_KEY absentă - - + + enter $API_KEY introdu cheia $API_KEY - - + + ERROR: $BASE_URL is empty. - EROARE: $BASE_URL absentă + EROARE: $BASE_URL absentă - - + + enter $BASE_URL introdu $BASE_URL - - + + ERROR: $MODEL_NAME is empty. EROARE: $MODEL_NAME absent - - + + enter $MODEL_NAME introdu $MODEL_NAME - - + + File size - Dimensiunea fişierului + Dimensiunea fişierului - - + + RAM required - RAM necesară + RAM necesară - - + + Parameters Parametri - - + + Quant Quant(ificare) - - + + Type Tip @@ -450,13 +450,13 @@ Application - Aplicaţie/Program + Aplicaţie/Program Network dialog - Reţea + Reţea @@ -473,7 +473,7 @@ If you can't start it manually, then I'm afraid you'll have to<br> reinstall. - EROARE: Sistemul de actualizare nu poate găsi componenta MaintenanceTool<br> necesară căutării de versiuni noi!<br><br> Ai instalat acest program folosind kitul online? Dacă da,<br> atunci MaintenanceTool trebuie să fie un nivel mai sus de folderul<br> unde ai instalat programul.<br><br> Dacă nu poate fi lansată manual, atunci programul trebuie reinstalat. + EROARE: Sistemul de actualizare nu poate găsi componenta MaintenanceTool<br> necesară căutării de versiuni noi!<br><br> Ai instalat acest program folosind kitul online? Dacă da,<br> atunci MaintenanceTool trebuie să fie un nivel mai sus de folderul<br> unde ai instalat programul.<br><br> Dacă nu poate fi lansată manual, atunci programul trebuie reinstalat. @@ -497,7 +497,7 @@ Theme - Tema pentru interfaţă + Tema pentru interfaţă @@ -506,38 +506,38 @@ Schema de culori a programului. - - + + Dark - Întunecat + Întunecat - - + + Light Luminos - - + + LegacyDark - Întunecat-vechi + Întunecat-vechi - - + + Font Size Dimensiunea textului - - + + The size of text in the application. - Dimensiunea textului în program. + Dimensiunea textului în program. - - + + Device Dispozitiv/Device @@ -545,7 +545,7 @@ The compute device used for text generation. "Auto" uses Vulkan or Metal. Dispozitivul de calcul utilizat pentru generarea de text. - "Auto" apelează la Vulkan sau la Metal. + "Auto" apelează la Vulkan sau la Metal. @@ -557,217 +557,217 @@ above where this application resides on your filesystem.<br><br> If you can't start it manually, then I'm afraid you'll have to<br> reinstall. - EROARE: Sistemul de Update nu poate găsi componenta MaintenanceTool<br> necesară căutării de versiuni noi!<br><br> Ai instalat acest program folosind kitul online? Dacă da,<br> atunci MaintenanceTool trebuie să fie un nivel mai sus de folderul<br> unde ai instalat programul.<br><br> Dacă nu poate fi lansată manual, atunci programul trebuie reinstalat. + EROARE: Sistemul de Update nu poate găsi componenta MaintenanceTool<br> necesară căutării de versiuni noi!<br><br> Ai instalat acest program folosind kitul online? Dacă da,<br> atunci MaintenanceTool trebuie să fie un nivel mai sus de folderul<br> unde ai instalat programul.<br><br> Dacă nu poate fi lansată manual, atunci programul trebuie reinstalat. - - + + Small Mic - - + + Medium Mediu - - + + Large Mare - - + + Language and Locale - Limbă şi Localizare + Limbă şi Localizare - - + + The language and locale you wish to use. - Limba şi Localizarea de utilizat + Limba şi Localizarea de utilizat - - + + System Locale Localizare - - + + The compute device used for text generation. Dispozitivul de calcul utilizat pentru generarea de text. - - - - + + + + Application default Implicit - - + + Default Model Modelul implicit - - + + The preferred model for new chats. Also used as the local server fallback. - Modelul preferat pentru noile conversaţii. Va fi folosit drept rezervă pentru serverul local. + Modelul preferat pentru noile conversaţii. Va fi folosit drept rezervă pentru serverul local. - - + + Suggestion Mode Modul de sugerare - - + + Generate suggested follow-up questions at the end of responses. - Generarea de Întrebări pentru continuare, la finalul replicilor. + Generarea de Întrebări pentru continuare, la finalul replicilor. - - + + When chatting with LocalDocs - Când se discută cu LocalDocs + Când se discută cu LocalDocs - - + + Whenever possible - Oricând e posibil + Oricând e posibil - - + + Never - Niciodată + Niciodată - - + + Download Path Calea pentru download - - + + Where to store local models and the LocalDocs database. - Unde să fie plasate modelele şi baza de date LocalDocs. + Unde să fie plasate modelele şi baza de date LocalDocs. - - + + Browse - Căutare + Căutare - - + + Choose where to save model files - Selectează locul unde vor fi plasate fişierele modelelor + Selectează locul unde vor fi plasate fişierele modelelor - - + + Enable Datalake - Activează DataLake + Activează DataLake - - + + Send chats and feedback to the GPT4All Open-Source Datalake. - Trimite conversaţii şi comentarii către componenta Open-source DataLake a GPT4All. + Trimite conversaţii şi comentarii către componenta Open-source DataLake a GPT4All. - - + + Advanced Avansate - - + + CPU Threads Thread-uri CPU - - + + The number of CPU threads used for inference and embedding. - Numărul de thread-uri CPU utilizate pentru inferenţă şi embedding. - - - - - Save Chat Context - Salvarea contextului conversaţiei - - - - - Save the chat model's state to disk for faster loading. WARNING: Uses ~2GB per chat. - Salvează pe disc starea modelului pentru încărcare mai rapidă. ATENŢIE: Consumă ~2GB/conversaţie. + Numărul de thread-uri CPU utilizate pentru inferenţă şi embedding. + Save Chat Context + Salvarea contextului conversaţiei + + + + + Save the chat model's state to disk for faster loading. WARNING: Uses ~2GB per chat. + Salvează pe disc starea modelului pentru încărcare mai rapidă. ATENŢIE: Consumă ~2GB/conversaţie. + + + + Expose an OpenAI-Compatible server to localhost. WARNING: Results in increased resource usage. - Activează pe localhost un Server compatibil cu Open-AI. ATENŢIE: Creşte consumul de resurse. + Activează pe localhost un Server compatibil cu Open-AI. ATENŢIE: Creşte consumul de resurse. Save the chat model's state to disk for faster loading. WARNING: Uses ~2GB per chat. - Salvează pe disc starea modelului pentru Încărcare mai rapidă. ATENţIE: Consumă ~2GB/conversaţie. - - - - - Enable Local Server - Activează Serverul local - - - Expose an OpenAI-Compatible server to localhost. WARNING: Results in increased - resource usage. - Activează pe localhost un Server compatibil cu Open-AI. ATENţIE: Creşte consumul de resurse. - - - - - API Server Port - Portul Serverului API + Salvează pe disc starea modelului pentru Încărcare mai rapidă. ATENţIE: Consumă ~2GB/conversaţie. + Enable Local Server + Activează Serverul local + + + Expose an OpenAI-Compatible server to localhost. WARNING: Results in increased + resource usage. + Activează pe localhost un Server compatibil cu Open-AI. ATENţIE: Creşte consumul de resurse. + + + + + API Server Port + Portul Serverului API + + + + The port to use for the local server. Requires restart. - Portul utilizat pentru Serverul local. Necesită repornirea programului. + Portul utilizat pentru Serverul local. Necesită repornirea programului. - - + + Check For Updates - Caută update-uri + Caută update-uri - - + + Manually check for an update to GPT4All. - Caută manual update-uri pentru GPT4All. + Caută manual update-uri pentru GPT4All. - - + + Updates - Update-uri/Actualizări + Update-uri/Actualizări @@ -776,12 +776,12 @@ New Chat - Chat/Conversaţie Nouă + Chat/Conversaţie Nouă Server Chat - Conversaţie cu Serverul + Conversaţie cu Serverul @@ -789,7 +789,7 @@ ERROR: Network error occurred while connecting to the API server - EROARE: Eroare de reţea - conectarea la serverul API + EROARE: Eroare de reţea - conectarea la serverul API @@ -815,61 +815,61 @@ + New Chat - + Conversaţie nouă + + Conversaţie nouă Create a new chat - Creează o Conversaţie nouă + Creează o Conversaţie nouă Select the current chat or edit the chat when in edit mode - Selectează conversaţia curentă sau editeaz-o când eşti în modul editare + Selectează conversaţia curentă sau editeaz-o când eşti în modul editare Edit chat name - Editează denumirea conversaţiei + Editează denumirea conversaţiei Save chat name - Salveazăa denumirea conversaţiei + Salveazăa denumirea conversaţiei Delete chat - şterge conversaţia + şterge conversaţia Confirm chat deletion - CONFIRMă ştergerea conversaţiei + CONFIRMă ştergerea conversaţiei Cancel chat deletion - ANULEAZă ştergerea conversaţiei + ANULEAZă ştergerea conversaţiei List of chats - Lista conversaţiilor + Lista conversaţiilor List of chats in the drawer dialog - Lista conversaţiilor în secţiunea-sertar + Lista conversaţiilor în secţiunea-sertar @@ -877,12 +877,12 @@ TODAY - ASTăZI + ASTăZI THIS WEEK - SăPTăMâNA ACEASTA + SăPTăMâNA ACEASTA @@ -892,7 +892,7 @@ LAST SIX MONTHS - ULTIMELE şASE LUNI + ULTIMELE şASE LUNI @@ -911,7 +911,7 @@ <h3>Warning</h3><p>%1</p> - <h3>Atenţie</h3><p>%1</p> + <h3>Atenţie</h3><p>%1</p> @@ -923,43 +923,43 @@ Warn the user if they switch models, then context will be erased - Avertizează utilizatorul că la schimbarea modelului va fi şters contextul + Avertizează utilizatorul că la schimbarea modelului va fi şters contextul Conversation copied to clipboard. - Conversaţia a fost plasată în Clipboard. + Conversaţia a fost plasată în Clipboard. Code copied to clipboard. - Codul a fost plasat în Clipboard. + Codul a fost plasat în Clipboard. Chat panel - Secţiunea de chat + Secţiunea de chat Chat panel with options - Secţiunea de chat cu opţiuni + Secţiunea de chat cu opţiuni Reload the currently loaded model - ReÎncarcă modelul curent + ReÎncarcă modelul curent Eject the currently loaded model - Ejectează modelul curent + Ejectează modelul curent @@ -971,25 +971,25 @@ Model loading error. - Eroare la Încărcarea modelului. + Eroare la Încărcarea modelului. Waiting for model... - Se aşteaptă modelul... + Se aşteaptă modelul... Switching context... - Se schimbă contextul... + Se schimbă contextul... Choose a model... - Selectează un model... + Selectează un model... @@ -1021,19 +1021,19 @@ add collections of documents to the chat - adaugă Colecţii de documente la conversaţie + adaugă Colecţii de documente la conversaţie Load the default model - Încarcă modelul implicit + Încarcă modelul implicit Loads the default model which can be changed in settings - Încarcă modelul implicit care poate fi stabilit în Configurare + Încarcă modelul implicit care poate fi stabilit în Configurare @@ -1044,60 +1044,60 @@ GPT4All requires that you install at least one model to get started - GPT4All necesită cel puţin un + GPT4All necesită cel puţin un model pentru a putea porni <h3>Encountered an error loading model:</h3><br><i>"%1"</i><br><br>Model loading failures can happen for a variety of reasons, but the most common causes include a bad file format, an incomplete or corrupted download, the wrong file type, not enough system RAM or an incompatible model type. Here are some suggestions for resolving the problem:<br><ul><li>Ensure the model file has a compatible format and type<li>Check the model file is complete in the download folder<li>You can find the download folder in the settings dialog<li>If you've sideloaded the model ensure the file is not corrupt by checking md5sum<li>Read more about what models are supported in our <a href="https://docs.gpt4all.io/">documentation</a> for the gui<li>Check out our <a href="https://discord.gg/4M2QFmTt2k">discord channel</a> for help - <h3>EROARE la încărcarea + <h3>EROARE la încărcarea modelului:</h3><br><i>"%1"</i><br><br>Astfel - de erori pot apărea din mai multe cauze, dintre care cele mai comune - includ un format inadecvat al fişierului, un download incomplet sau întrerupt, - un tip inadecvat de fişier, RAM insuficientă, sau un tip incompatibil de model. - Sugestii pentru rezolvarea problemei: verifică dacă fişierul modelului are - un format şi un tip compatibile; verifică dacă fişierul modelului este complet - în folderul dedicat - acest folder este afişat în secţiunea Configurare; - dacă ai descărcat modelul dinafara programului, asigură-te că fişierul nu e corupt - după ce îi verifici amprenta MD5 (md5sum)<li>Află mai mult despre modelele compatibile - în pagina unde am plasat <a - href="https://docs.gpt4all.io/">documentaţia</a> pentru - interfaţa gráfică<li>poţi găsi <a + de erori pot apărea din mai multe cauze, dintre care cele mai comune + includ un format inadecvat al fişierului, un download incomplet sau întrerupt, + un tip inadecvat de fişier, RAM insuficientă, sau un tip incompatibil de model. + Sugestii pentru rezolvarea problemei: verifică dacă fişierul modelului are + un format şi un tip compatibile; verifică dacă fişierul modelului este complet + în folderul dedicat - acest folder este afişat în secţiunea Configurare; + dacă ai descărcat modelul dinafara programului, asigură-te că fişierul nu e corupt + după ce îi verifici amprenta MD5 (md5sum)<li>Află mai mult despre modelele compatibile + în pagina unde am plasat <a + href="https://docs.gpt4all.io/">documentaţia</a> pentru + interfaţa gráfică<li>poţi găsi <a href="https://discord.gg/4M2QFmTt2k">canalul nostru Discord</a> unde - se oferă ajutor + se oferă ajutor GPT4All requires that you install at least one model to get started - GPT4All necesită cel puţin un + GPT4All necesită cel puţin un model pentru a putea rula Install a Model - Instalează un model + Instalează un model Shows the add model view - Afisează secţiunea de adăugare a unui model + Afisează secţiunea de adăugare a unui model Conversation with the model - Conversaţie cu modelul + Conversaţie cu modelul prompt / response pairs from the conversation - perechi prompt/replică din conversaţie + perechi prompt/replică din conversaţie @@ -1113,13 +1113,13 @@ model to get started recalculating context ... - se recalculează contextul... + se recalculează contextul... response stopped ... - replică Întreruptă... + replică Întreruptă... @@ -1131,13 +1131,13 @@ model to get started generating response ... - se generează replica... + se generează replica... generating questions ... - se generează Întrebări... + se generează Întrebări... @@ -1175,7 +1175,7 @@ model to get started Gives a thumbs up to the response - Dă un Bravo acestei replici + Dă un Bravo acestei replici @@ -1187,7 +1187,7 @@ model to get started Opens thumbs down dialog - Deschide reacţia Aiurea + Deschide reacţia Aiurea @@ -1199,43 +1199,43 @@ model to get started Suggested follow-ups - Continuări sugerate + Continuări sugerate Erase and reset chat session - şterge şi resetează sesiunea de chat + şterge şi resetează sesiunea de chat Copy chat session to clipboard - Copiez sesiunea de chat în Clipboard + Copiez sesiunea de chat în Clipboard Redo last chat response - Reface ultima replică + Reface ultima replică Stop generating - Opreşte generarea + Opreşte generarea Stop the current response generation - Opreşte generarea replicii curente + Opreşte generarea replicii curente Reloads the model - ReÎncarc modelul + ReÎncarc modelul <h3>Encountered an error loading @@ -1251,21 +1251,21 @@ model to get started href="https://docs.gpt4all.io/">documentation</a> for the gui<li>Check out our <a href="https://discord.gg/4M2QFmTt2k">discord channel</a> for help - <h3>EROARE la Încărcarea + <h3>EROARE la Încărcarea modelului:</h3><br><i>"%1"</i><br><br>Astfel - de erori pot apărea din mai multe cauze, dintre care cele mai comune - includ un format inadecvat al fişierului, un download incomplet sau Întrerupt, - un tip inadecvat de fişier, RAM insuficientă, sau un tip incompatibil de model. - Sugestii pentru rezolvarea problemei: verifică dacă fişierul modelului are - un format si un tip compatibile; verifică dacă fişierul modelului este complet - în folderul dedicat - acest folder este afişat în secţiunea Configurare; - dacă ai descărcat modelul dinafara programului, asigură-te că fişierul nu e corupt - după ce îi verifici amprenta MD5 (md5sum)<li>Află mai multe despre care modele sunt compatibile - în pagina unde am plasat <a - href="https://docs.gpt4all.io/">documentaţia</a> pentru - interfaţa gráfică<li>poţi parcurge <a + de erori pot apărea din mai multe cauze, dintre care cele mai comune + includ un format inadecvat al fişierului, un download incomplet sau Întrerupt, + un tip inadecvat de fişier, RAM insuficientă, sau un tip incompatibil de model. + Sugestii pentru rezolvarea problemei: verifică dacă fişierul modelului are + un format si un tip compatibile; verifică dacă fişierul modelului este complet + în folderul dedicat - acest folder este afişat în secţiunea Configurare; + dacă ai descărcat modelul dinafara programului, asigură-te că fişierul nu e corupt + după ce îi verifici amprenta MD5 (md5sum)<li>Află mai multe despre care modele sunt compatibile + în pagina unde am plasat <a + href="https://docs.gpt4all.io/">documentaţia</a> pentru + interfaţa gráfică<li>poţi parcurge <a href="https://discord.gg/4M2QFmTt2k">canalul nostru Discord</a> unde - se oferă ajutor + se oferă ajutor @@ -1273,19 +1273,19 @@ model to get started Reload · %1 - Reîncărcare · %1 + Reîncărcare · %1 Loading · %1 - Încărcare · %1 + Încărcare · %1 Load · %1 (default) → - Încarcă · %1 (implicit) → + Încarcă · %1 (implicit) → @@ -1303,7 +1303,7 @@ model to get started searching localdocs: %1 ... - se caută în LocalDocs: %1 ... + se caută în LocalDocs: %1 ... @@ -1315,13 +1315,13 @@ model to get started Load a model to continue... - Încarcă un model pentru a continua... + Încarcă un model pentru a continua... Send messages/prompts to the model - Trimite mesaje/prompt-uri către model + Trimite mesaje/prompt-uri către model @@ -1351,7 +1351,7 @@ model to get started Sends the message/prompt contained in textfield to the model - Trimite modelului mesajul/prompt-ul din câmpul-text + Trimite modelului mesajul/prompt-ul din câmpul-text @@ -1360,16 +1360,16 @@ model to get started Warning: searching collections while indexing can return incomplete results - Atenţie: căutarea în Colecţii în timp ce sunt Indexate poate întoarce rezultate incomplete + Atenţie: căutarea în Colecţii în timp ce sunt Indexate poate întoarce rezultate incomplete %n file(s) - %n fişier - %n fişiere - %n fişiere + %n fişier + %n fişiere + %n fişiere @@ -1377,7 +1377,7 @@ model to get started %n word(s) - %n cuvânt + %n cuvânt %n cuvinte %n cuvinte @@ -1398,7 +1398,7 @@ model to get started Select a collection to make it available to the chat model. - Selectează o Colecţie pentru ca modelul să o poată accesa. + Selectează o Colecţie pentru ca modelul să o poată accesa. @@ -1416,7 +1416,7 @@ model to get started ERROR: $API_KEY is empty. - EROARE: $API_KEY absentă + EROARE: $API_KEY absentă @@ -1436,7 +1436,7 @@ model to get started Model "%1" is removed. - Modelul "%1" - îndepărtat + Modelul "%1" - îndepărtat @@ -1445,31 +1445,31 @@ model to get started Welcome to GPT4All - Bun venit în GPT4All + Bun venit în GPT4All The privacy-first LLM chat application - Programul ce prioritizează confidenţialitatea (privacy) + Programul ce prioritizează confidenţialitatea (privacy) Start chatting - Începe o conversaţie + Începe o conversaţie Start Chatting - Începe o conversaţie + Începe o conversaţie Chat with any LLM - Dialoghează cu orice LLM + Dialoghează cu orice LLM @@ -1481,43 +1481,43 @@ model to get started Chat with your local files - Dialoghează cu fişiere locale + Dialoghează cu fişiere locale Find Models - Caută modele + Caută modele Explore and download models - Explorează şi descarcă modele + Explorează şi descarcă modele Latest news - Ultimele ştiri + Ultimele ştiri Latest news from GPT4All - Ultimele ştiri de la GPT4All + Ultimele ştiri de la GPT4All Release Notes - Despre această versiune + Despre această versiune Documentation - Documentaţie + Documentaţie @@ -1534,8 +1534,12 @@ model to get started + Github + + + GitHub - GitHub + GitHub @@ -1574,13 +1578,13 @@ model to get started Allowed File Extensions - Extensii compatibile de fişier + Extensii compatibile de fişier Comma-separated list. LocalDocs will only attempt to process files with these extensions. - Extensiile, separate prin virgulă. LocalDocs va Încerca procesarea - numai a fişierelor cu aceste extensii. + Extensiile, separate prin virgulă. LocalDocs va Încerca procesarea + numai a fişierelor cu aceste extensii. @@ -1597,7 +1601,7 @@ model to get started Embed documents using the fast Nomic API instead of a private local model. Requires restart. - Embedding pe documente folosind API de la Nomic în locul unui model local. Necesită repornire. + Embedding pe documente folosind API de la Nomic în locul unui model local. Necesită repornire. @@ -1609,7 +1613,7 @@ model to get started API key to use for Nomic Embed. Get one from the Atlas <a href="https://atlas.nomic.ai/cli-login">API keys page</a>. Requires restart. - Cheia API de utilizat cu Nomic Embed. Obţine o cheie prin Atlas: <a href="https://atlas.nomic.ai/cli-login">pagina cheilor API</a> Necesită repornire. + Cheia API de utilizat cu Nomic Embed. Obţine o cheie prin Atlas: <a href="https://atlas.nomic.ai/cli-login">pagina cheilor API</a> Necesită repornire. @@ -1618,81 +1622,82 @@ model to get started Dispozitivul pentru Embeddings - The compute device used for embeddings. "Auto" uses the CPU. Requires - restart. - Dispozitivul pentru Embeddings. "Auto" apelează la CPU. Necesită repornire + + + The compute device used for embeddings. Requires restart. + Dispozitivul pentru Embeddings. Necesită repornire. Comma-separated list. LocalDocs will only attempt to process files with these extensions. - Extensiile, separate prin virgulă. LocalDocs va încerca procesarea numai a fişierelor cu aceste extensii. + Extensiile, separate prin virgulă. LocalDocs va încerca procesarea numai a fişierelor cu aceste extensii. Embed documents using the fast Nomic API instead of a private local model. Requires restart. - Embedding pe documente folosind API de la Nomic în locul unui model local. Necesită repornire. + Embedding pe documente folosind API de la Nomic în locul unui model local. Necesită repornire. API key to use for Nomic Embed. Get one from the Atlas <a href="https://atlas.nomic.ai/cli-login">API keys page</a>. Requires restart. - Cheia API de utilizat cu Nomic Embed. Obţine o cheie prin Atlas: <a href="https://atlas.nomic.ai/cli-login">pagina cheilor API</a> Necesită repornire. + Cheia API de utilizat cu Nomic Embed. Obţine o cheie prin Atlas: <a href="https://atlas.nomic.ai/cli-login">pagina cheilor API</a> Necesită repornire. - - - The compute device used for embeddings. "Auto" uses the CPU. Requires restart. - Dispozitivul pentru Embeddings. "Auto" apelează la CPU. Necesită repornire. + + + Application default + Implicit - - + + Display Vizualizare - - + + Show Sources - Afişarea Surselor + Afişarea Surselor - - + + Display the sources used for each response. - Afişează Sursele utilizate pentru fiecare replică. + Afişează Sursele utilizate pentru fiecare replică. - - + + Advanced Avansate - - + + Warning: Advanced usage only. - Atenţie: Numai pentru utilizare avansată. + Atenţie: Numai pentru utilizare avansată. - - + + Values too large may cause localdocs failure, extremely slow responses or failure to respond at all. Roughly speaking, the {N chars x N snippets} are added to the model's context window. More info <a href="https://docs.gpt4all.io/gpt4all_desktop/localdocs.html">here</a>. - Valori prea mari pot cauza erori cu LocalDocs, replici foarte lente sau chiar absenţa lor. În mare, numărul {N caractere x N citate} este adăugat la Context Window/Size/Length a modelului. Mai multe informaţii: <a href="https://docs.gpt4all.io/gpt4all_desktop/localdocs.html">aici</a>. + Valori prea mari pot cauza erori cu LocalDocs, replici foarte lente sau chiar absenţa lor. În mare, numărul {N caractere x N citate} este adăugat la Context Window/Size/Length a modelului. Mai multe informaţii: <a href="https://docs.gpt4all.io/gpt4all_desktop/localdocs.html">aici</a>. - - + + Number of characters per document snippet. Larger numbers increase likelihood of factual responses, but also result in slower generation. - Numărul caracterelor din fiecare citat. Numere mari amplifică probabilitatea unor replici corecte, dar de asemenea cauzează generare lentă. + Numărul caracterelor din fiecare citat. Numere mari amplifică probabilitatea unor replici corecte, dar de asemenea cauzează generare lentă. - - + + Max best N matches of retrieved document snippets to add to the context for prompt. Larger numbers increase likelihood of factual responses, but also result in slower generation. - Numărul maxim al citatelor ce corespund şi care vor fi adăugate la contextul pentru prompt. Numere mari amplifică probabilitatea unor replici corecte, dar de asemenea cauzează generare lentă. + Numărul maxim al citatelor ce corespund şi care vor fi adăugate la contextul pentru prompt. Numere mari amplifică probabilitatea unor replici corecte, dar de asemenea cauzează generare lentă. @@ -1701,30 +1706,30 @@ model to get started the model's context window. More info <a href="https://docs.gpt4all.io/gpt4all_desktop/localdocs.html">here</a>. - Valori prea mari pot cauza erori cu LocalDocs, replici lente sau absenţa lor completă. în mare, numărul {N caractere x N citate} este adăugat la Context Window/Size/Length a modelului. Mai multe informaţii: <a href="https://docs.gpt4all.io/gpt4all_desktop/localdocs.html">aici</a>. + Valori prea mari pot cauza erori cu LocalDocs, replici lente sau absenţa lor completă. în mare, numărul {N caractere x N citate} este adăugat la Context Window/Size/Length a modelului. Mai multe informaţii: <a href="https://docs.gpt4all.io/gpt4all_desktop/localdocs.html">aici</a>. - - + + Document snippet size (characters) - Lungimea (în caractere) a citatelor din documente + Lungimea (în caractere) a citatelor din documente Number of characters per document snippet. Larger numbers increase likelihood of factual responses, but also result in slower generation. - numărul caracterelor din fiecare citat. Numere mari amplifică probabilitatea unor replici corecte, dar de asemenea pot cauza generare lentă. + numărul caracterelor din fiecare citat. Numere mari amplifică probabilitatea unor replici corecte, dar de asemenea pot cauza generare lentă. - - + + Max document snippets per prompt - Numărul maxim de citate per prompt + Numărul maxim de citate per prompt Max best N matches of retrieved document snippets to add to the context for prompt. Larger numbers increase likelihood of factual responses, but also result in slower generation. - Numărul maxim al citatelor ce corespund şi care vor fi adăugate la contextul pentru prompt. Numere mari amplifică probabilitatea unor replici corecte, dar de asemenea pot cauza generare lentă. + Numărul maxim al citatelor ce corespund şi care vor fi adăugate la contextul pentru prompt. Numere mari amplifică probabilitatea unor replici corecte, dar de asemenea pot cauza generare lentă. @@ -1739,59 +1744,59 @@ model to get started Chat with your local files - Dialoghează cu fişiere locale + Dialoghează cu fişiere locale + Add Collection - + Adaugă o Colecţie + + Adaugă o Colecţie ERROR: The LocalDocs database is not valid. - EROARE: Baza de date LocalDocs nu e validă. + EROARE: Baza de date LocalDocs nu e validă. <h3>ERROR: The LocalDocs database cannot be accessed or is not valid.</h3><br><i>Note: You will need to restart after trying any of the following suggested fixes.</i><br><ul><li>Make sure that the folder set as <b>Download Path</b> exists on the file system.</li><li>Check ownership as well as read and write permissions of the <b>Download Path</b>.</li><li>If there is a <b>localdocs_v2.db</b> file, check its ownership and read/write permissions, too.</li></ul><br>If the problem persists and there are any 'localdocs_v*.db' files present, as a last resort you can<br>try backing them up and removing them. You will have to recreate your collections, however. - EROARE: Baza de date LocalDocs nu poate fi accesată sau nu e validă. Programul trebuie repornit după ce se încearcă oricare din următoarele remedii sugerate.</i><br><ul><li>Asigură-te că folderul pentru <b>Download Path</b> există în sistemul de fişiere.</li><li>Verifică permisiunile şi apartenenţa folderului pentru <b>Download Path</b>.</li><li>Dacă există fişierul <b>localdocs_v2.db</b>, verifică-i apartenenţa şi permisiunile citire/scriere (read/write).</li></ul><br>Dacă problema persistă şi există vreun fişier 'localdocs_v*.db', ca ultimă soluţie poţi<br>încerca duplicarea (backup) şi apoi ştergerea lor. Oricum, va trebui să re-creezi Colecţiile. + EROARE: Baza de date LocalDocs nu poate fi accesată sau nu e validă. Programul trebuie repornit după ce se încearcă oricare din următoarele remedii sugerate.</i><br><ul><li>Asigură-te că folderul pentru <b>Download Path</b> există în sistemul de fişiere.</li><li>Verifică permisiunile şi apartenenţa folderului pentru <b>Download Path</b>.</li><li>Dacă există fişierul <b>localdocs_v2.db</b>, verifică-i apartenenţa şi permisiunile citire/scriere (read/write).</li></ul><br>Dacă problema persistă şi există vreun fişier 'localdocs_v*.db', ca ultimă soluţie poţi<br>încerca duplicarea (backup) şi apoi ştergerea lor. Oricum, va trebui să re-creezi Colecţiile. No Collections Installed - Nu există Colecţii instalate + Nu există Colecţii instalate Install a collection of local documents to get started using this feature - Instalează o Colecţie de documente pentru a putea utiliza funcţionalitatea aceasta + Instalează o Colecţie de documente pentru a putea utiliza funcţionalitatea aceasta + Add Doc Collection - + Adaugă o Colecţie de documente + + Adaugă o Colecţie de documente Shows the add model view - Afişează secţiunea de adăugare a unui model + Afişează secţiunea de adăugare a unui model Indexing progressBar - Bara de progresie a Indexării + Bara de progresie a Indexării Shows the progress made in the indexing - Afişează progresia Indexării + Afişează progresia Indexării @@ -1803,7 +1808,7 @@ model to get started INDEXING - ...SE INDEXEAZă... + ...SE INDEXEAZă... @@ -1815,7 +1820,7 @@ model to get started REQUIRES UPDATE - NECESITă UPDATE + NECESITă UPDATE @@ -1833,31 +1838,31 @@ model to get started Indexing in progress - Se Indexează... + Se Indexează... Embedding in progress - ...Se calculează Embeddings... + ...Se calculează Embeddings... This collection requires an update after version change - Această Colecţie necesită update după schimbarea versiunii + Această Colecţie necesită update după schimbarea versiunii Automatically reindexes upon changes to the folder - Se reindexează automat după schimbări ale folderului + Se reindexează automat după schimbări ale folderului Installation in progress - ...Instalare în curs... + ...Instalare în curs... @@ -1870,9 +1875,9 @@ model to get started %n file(s) - %n fişier - %n fişiere - %n fişiere + %n fişier + %n fişiere + %n fişiere @@ -1880,7 +1885,7 @@ model to get started %n word(s) - %n cuvânt + %n cuvânt %n cuvinte %n cuvinte @@ -1889,19 +1894,19 @@ model to get started Remove - Şterg + Şterg Rebuild - Reconstrucţie + Reconstrucţie Reindex this folder from scratch. This is slow and usually not needed. - Reindexează de la zero acest folder. Procesul e lent şi de obicei inutil. + Reindexează de la zero acest folder. Procesul e lent şi de obicei inutil. @@ -1913,7 +1918,7 @@ model to get started Update the collection to the new version. This is a slow operation. - Actualizează Colecţia la noua versiune. Această procedură e lentă. + Actualizează Colecţia la noua versiune. Această procedură e lentă. @@ -1927,7 +1932,7 @@ model to get started OpenAI</li><li>You can apply for an API key <a href="https://platform.openai.com/account/api-keys">here.</a></li> - <ul><li>Necesită o cheie API OpenAI personală. </li><li>ATENţIE: Conversaţiile tale vor fi trimise la OpenAI! </li><li>Cheia ta API va fi stocată pe disc (local) </li><li>Va fi utilizată numai pentru comunicarea cu OpenAI</li><li>Poţi solicita o cheie API aici: <a href="https://platform.openai.com/account/api-keys">aici.</a></li> + <ul><li>Necesită o cheie API OpenAI personală. </li><li>ATENţIE: Conversaţiile tale vor fi trimise la OpenAI! </li><li>Cheia ta API va fi stocată pe disc (local) </li><li>Va fi utilizată numai pentru comunicarea cu OpenAI</li><li>Poţi solicita o cheie API aici: <a href="https://platform.openai.com/account/api-keys">aici.</a></li> <strong>OpenAI's ChatGPT model GPT-3.5 Turbo</strong><br> @@ -1947,7 +1952,7 @@ model to get started <ul><li>Requires personal OpenAI API key.</li><li>WARNING: Will send your chats to OpenAI!</li><li>Your API key will be stored on disk</li><li>Will only be used to communicate with OpenAI</li><li>You can apply for an API key <a href="https://platform.openai.com/account/api-keys">here.</a></li> - <ul><li>Necesită o cheie API OpenAI personală. </li><li>ATENŢIE: Conversaţiile tale vor fi trimise la OpenAI!</li><li>Cheia ta API va fi stocată pe disc (local) </li><li>Va fi utilizată numai pentru comunicarea cu OpenAI</li><li>Poţi solicita o cheie API aici: <a href="https://platform.openai.com/account/api-keys">aici.</a></li> + <ul><li>Necesită o cheie API OpenAI personală. </li><li>ATENŢIE: Conversaţiile tale vor fi trimise la OpenAI!</li><li>Cheia ta API va fi stocată pe disc (local) </li><li>Va fi utilizată numai pentru comunicarea cu OpenAI</li><li>Poţi solicita o cheie API aici: <a href="https://platform.openai.com/account/api-keys">aici.</a></li> @@ -1957,7 +1962,7 @@ model to get started <br><br><i>* Even if you pay OpenAI for ChatGPT-4 this does not guarantee API key access. Contact OpenAI for more info. - <br><br><i>* Chiar dacă plăteşti la OpenAI pentru ChatGPT-4, aceasta nu garantează accesul la cheia API. Contactează OpenAI pentru mai multe informaţii. + <br><br><i>* Chiar dacă plăteşti la OpenAI pentru ChatGPT-4, aceasta nu garantează accesul la cheia API. Contactează OpenAI pentru mai multe informaţii. @@ -1967,7 +1972,7 @@ model to get started <ul><li>Requires personal Mistral API key.</li><li>WARNING: Will send your chats to Mistral!</li><li>Your API key will be stored on disk</li><li>Will only be used to communicate with Mistral</li><li>You can apply for an API key <a href="https://console.mistral.ai/user/api-keys">here</a>.</li> - <ul><li>Necesită cheia personală Mistral API. </li><li>ATENŢIE: Conversaţiile tale vor fi trimise la Mistral!</li><li>Cheia ta API va fi stocată pe disc (local)</li><li>Va fi utilizată numai pentru comunicarea cu Mistral</li><li>Poţi solicita o cheie API aici: <a href="https://console.mistral.ai/user/api-keys">aici</a>.</li> + <ul><li>Necesită cheia personală Mistral API. </li><li>ATENŢIE: Conversaţiile tale vor fi trimise la Mistral!</li><li>Cheia ta API va fi stocată pe disc (local)</li><li>Va fi utilizată numai pentru comunicarea cu Mistral</li><li>Poţi solicita o cheie API aici: <a href="https://console.mistral.ai/user/api-keys">aici</a>.</li> @@ -1987,7 +1992,7 @@ model to get started <ul><li>Requires personal API key and the API base URL.</li><li>WARNING: Will send your chats to the OpenAI-compatible API Server you specified!</li><li>Your API key will be stored on disk</li><li>Will only be used to communicate with the OpenAI-compatible API Server</li> - <ul><li>Necesită cheia personală API si base-URL a API.</li><li>ATENŢIE: Conversaţiile tale vor fi trimise la serverul API compatibil cu OpenAI specificat!</li><li>Cheia ta API va fi stocată pe disc (local)</li><li>Va fi utilizată numai pentru comunicarea cu serverul API compatibil cu OpenAI</li> + <ul><li>Necesită cheia personală API si base-URL a API.</li><li>ATENŢIE: Conversaţiile tale vor fi trimise la serverul API compatibil cu OpenAI specificat!</li><li>Cheia ta API va fi stocată pe disc (local)</li><li>Va fi utilizată numai pentru comunicarea cu serverul API compatibil cu OpenAI</li> @@ -1997,12 +2002,12 @@ model to get started <strong>Created by %1.</strong><br><ul><li>Published on %2.<li>This model has %3 likes.<li>This model has %4 downloads.<li>More info can be found <a href="https://huggingface.co/%5">here.</a></ul> - <strong>Creat de către %1.</strong><br><ul><li>Publicat in: %2.<li>Acest model are %3 Likes.<li>Acest model are %4 download-uri.<li>Mai multe informaţii pot fi găsite la: <a href="https://huggingface.co/%5">aici.</a></ul> + <strong>Creat de către %1.</strong><br><ul><li>Publicat in: %2.<li>Acest model are %3 Likes.<li>Acest model are %4 download-uri.<li>Mai multe informaţii pot fi găsite la: <a href="https://huggingface.co/%5">aici.</a></ul> <br><br><i>* Even if you pay OpenAI for ChatGPT-4 this does not guarantee API key access. Contact OpenAI for more info. - <br><br><i>* Chiar dacă plăteşti la OpenAI pentru ChatGPT-4, aceasta nu garantează accesul la cheia API. Contactează OpenAI pentru mai multe informaţii. + <br><br><i>* Chiar dacă plăteşti la OpenAI pentru ChatGPT-4, aceasta nu garantează accesul la cheia API. Contactează OpenAI pentru mai multe informaţii. @@ -2013,14 +2018,14 @@ model to get started Mistral</li><li>You can apply for an API key <a href="https://console.mistral.ai/user/api-keys">here</a>.</li> - <ul><li>Necesită cheia personală Mistral API. </li><li>ATENţIE: Conversaţiile tale vor fi trimise la Mistral!</li><li>Cheia ta API va fi stocată pe disc (local)</li><li>Va fi utilizată numai pentru comunicarea cu Mistral</li><li>Poţi solicita o cheie API aici: <a href="https://console.mistral.ai/user/api-keys">aici</a>.</li> + <ul><li>Necesită cheia personală Mistral API. </li><li>ATENţIE: Conversaţiile tale vor fi trimise la Mistral!</li><li>Cheia ta API va fi stocată pe disc (local)</li><li>Va fi utilizată numai pentru comunicarea cu Mistral</li><li>Poţi solicita o cheie API aici: <a href="https://console.mistral.ai/user/api-keys">aici</a>.</li> <strong>Created by %1.</strong><br><ul><li>Published on %2.<li>This model has %3 likes.<li>This model has %4 downloads.<li>More info can be found <a href="https://huggingface.co/%5">here.</a></ul> - <strong>Creat de către %1.</strong><br><ul><li>Publicat in: %2.<li>Acest model are %3 Likes.<li>Acest model are %4 download-uri.<li>Mai multe informaţii pot fi găsite la: <a href="https://huggingface.co/%5">aici.</a></ul> + <strong>Creat de către %1.</strong><br><ul><li>Publicat in: %2.<li>Acest model are %3 Likes.<li>Acest model are %4 download-uri.<li>Mai multe informaţii pot fi găsite la: <a href="https://huggingface.co/%5">aici.</a></ul> @@ -2047,7 +2052,7 @@ model to get started Remove - Şterg + Şterg @@ -2059,7 +2064,7 @@ model to get started Model File - Fişierul modelului + Fişierul modelului @@ -2070,7 +2075,7 @@ model to get started Prefixed at the beginning of every conversation. Must contain the appropriate framing tokens. - Plasat la Începutul fiecărei conversaţii. Trebuie să conţină token-uri(le) adecvate de Încadrare. + Plasat la Începutul fiecărei conversaţii. Trebuie să conţină token-uri(le) adecvate de Încadrare. @@ -2082,24 +2087,24 @@ model to get started The template that wraps every prompt. - Standardul de formulare a fiecărui prompt. + Standardul de formulare a fiecărui prompt. Must contain the string "%1" to be replaced with the user's input. - Trebuie să conţină textul "%1" care va fi Înlocuit cu ceea ce scrie utilizatorul. + Trebuie să conţină textul "%1" care va fi Înlocuit cu ceea ce scrie utilizatorul. Chat Name Prompt - Denumirea conversaţiei + Denumirea conversaţiei Prompt used to automatically generate chat names. - Standardul de formulare a denumirii conversaţiilor. + Standardul de formulare a denumirii conversaţiilor. @@ -2111,7 +2116,7 @@ model to get started Prompt used to generate suggested follow-up questions. - Prompt-ul folosit pentru generarea Întrebărilor de continuare. + Prompt-ul folosit pentru generarea Întrebărilor de continuare. @@ -2123,13 +2128,13 @@ model to get started Number of input and output tokens the model sees. - Numărul token-urilor de input şi de output văzute de model. + Numărul token-urilor de input şi de output văzute de model. Maximum combined prompt/response tokens before information is lost. Using more context than the model was trained on will yield poor results. NOTE: Does not take effect until you reload the model. - Numărul maxim combinat al token-urilor în prompt+replică Înainte de a se pierde informaţie. Utilizarea unui context mai mare decât cel cu care a fost instruit modelul va întoarce rezultate mai slabe. NOTă: Nu are efect până la reincărcarea modelului. + Numărul maxim combinat al token-urilor în prompt+replică Înainte de a se pierde informaţie. Utilizarea unui context mai mare decât cel cu care a fost instruit modelul va întoarce rezultate mai slabe. NOTă: Nu are efect până la reincărcarea modelului. @@ -2141,12 +2146,12 @@ model to get started Randomness of model output. Higher -> more variation. - Libertatea/Confuzia din replica modelului. Mai mare -> mai multă libertate. + Libertatea/Confuzia din replica modelului. Mai mare -> mai multă libertate. Temperature increases the chances of choosing less likely tokens. NOTE: Higher temperature gives more creative but less predictable outputs. - Temperatura creşte probabilitatea de alegere a unor token-uri puţin probabile. NOTă: O temperatură tot mai Înaltă determinÎ replici tot mai creative şi mai puţin predictibile. + Temperatura creşte probabilitatea de alegere a unor token-uri puţin probabile. NOTă: O temperatură tot mai Înaltă determinÎ replici tot mai creative şi mai puţin predictibile. @@ -2163,19 +2168,19 @@ model to get started Only the most likely tokens up to a total probability of top_p can be chosen. NOTE: Prevents choosing highly unlikely tokens. - Pot fi alese numai cele mai probabile token-uri a căror probabilitate totală este Top-P. NOTă: Se evită selectarea token-urilor foarte improbabile. + Pot fi alese numai cele mai probabile token-uri a căror probabilitate totală este Top-P. NOTă: Se evită selectarea token-urilor foarte improbabile. Prefixed at the beginning of every conversation. Must contain the appropriate framing tokens. - Plasat la începutul fiecărei conversaţii. Trebuie să conţină token-uri(le) adecvate de încadrare. + Plasat la începutul fiecărei conversaţii. Trebuie să conţină token-uri(le) adecvate de încadrare. Must contain the string "%1" to be replaced with the user's input. - Trebuie să conţină textul "%1" care va fi înlocuit cu ceea ce scrie utilizatorul. + Trebuie să conţină textul "%1" care va fi înlocuit cu ceea ce scrie utilizatorul. @@ -2183,21 +2188,21 @@ model to get started Maximum combined prompt/response tokens before information is lost. Using more context than the model was trained on will yield poor results. NOTE: Does not take effect until you reload the model. - Numărul maxim combinat al token-urilor în prompt+replică înainte de a se pierde informaţie. Utilizarea unui context mai mare decât cel cu care a fost instruit modelul va întoarce rezultate mai slabe. NOTĂ: Nu are efect până la reîncărcarea modelului. + Numărul maxim combinat al token-urilor în prompt+replică înainte de a se pierde informaţie. Utilizarea unui context mai mare decât cel cu care a fost instruit modelul va întoarce rezultate mai slabe. NOTĂ: Nu are efect până la reîncărcarea modelului. Temperature increases the chances of choosing less likely tokens. NOTE: Higher temperature gives more creative but less predictable outputs. - Temperatura creşte probabilitatea de alegere a unor token-uri puţin probabile. NOTĂ: O temperatură tot mai înaltă determinî replici tot mai creative şi mai puţin predictibile. + Temperatura creşte probabilitatea de alegere a unor token-uri puţin probabile. NOTĂ: O temperatură tot mai înaltă determinî replici tot mai creative şi mai puţin predictibile. Only the most likely tokens up to a total probability of top_p can be chosen. NOTE: Prevents choosing highly unlikely tokens. - Pot fi alese numai cele mai probabile token-uri a căror probabilitate totală este Top-P. NOTĂ: Se evită selectarea token-urilor foarte improbabile. + Pot fi alese numai cele mai probabile token-uri a căror probabilitate totală este Top-P. NOTĂ: Se evită selectarea token-urilor foarte improbabile. @@ -2209,13 +2214,13 @@ NOTE: Prevents choosing highly unlikely tokens. Minimum token probability. Higher -> more predictable. - Probabilitatea mínimă a unui token. Mai mare -> mai predictibil. + Probabilitatea mínimă a unui token. Mai mare -> mai predictibil. Sets the minimum relative probability for a token to be considered. - Stabileşte probabilitatea minimă relativă a unui token de luat în considerare. + Stabileşte probabilitatea minimă relativă a unui token de luat în considerare. @@ -2239,13 +2244,13 @@ NOTE: Prevents choosing highly unlikely tokens. Max Length - Lungimea maximă + Lungimea maximă Maximum response length, in tokens. - Lungimea maximă - în token-uri - a replicii. + Lungimea maximă - în token-uri - a replicii. @@ -2264,7 +2269,7 @@ NOTE: Prevents choosing highly unlikely tokens. Amount of prompt tokens to process at once. NOTE: Higher values can speed up reading prompts but will use more RAM. - Numărul token-urilor procesate simultan. NOTĂ: Valori tot mai mari pot accelera citirea prompt-urilor, dar şi utiliza mai multă RAM. + Numărul token-urilor procesate simultan. NOTĂ: Valori tot mai mari pot accelera citirea prompt-urilor, dar şi utiliza mai multă RAM. @@ -2272,12 +2277,12 @@ NOTE: Higher values can speed up reading prompts but will use more RAM. How many model layers to load into VRAM. Decrease this if GPT4All runs out of VRAM while loading this model. Lower values increase CPU load and RAM usage, and make inference slower. NOTE: Does not take effect until you reload the model. - Cât de multe layere ale modelului să fie încărcate în VRAM. Valori mici trebuie folosite dacă GPT4All rămâne fără VRAM în timp ce încarcă modelul. Valorile tot mai mici cresc utilizarea CPU şi a RAM şi încetinesc inferenţa. NOTĂ: Nu are efect până la reîncărcarea modelului. + Cât de multe layere ale modelului să fie încărcate în VRAM. Valori mici trebuie folosite dacă GPT4All rămâne fără VRAM în timp ce încarcă modelul. Valorile tot mai mici cresc utilizarea CPU şi a RAM şi încetinesc inferenţa. NOTĂ: Nu are efect până la reîncărcarea modelului. Amount of prompt tokens to process at once. NOTE: Higher values can speed up reading prompts but will use more RAM. - numărul token-urilor procesate simultan. NOTă: Valori tot mai mari pot accelera citirea prompt-urilor, dar şi utiliza mai multă RAM. + numărul token-urilor procesate simultan. NOTă: Valori tot mai mari pot accelera citirea prompt-urilor, dar şi utiliza mai multă RAM. @@ -2289,38 +2294,38 @@ NOTE: Does not take effect until you reload the model. Repetition penalty factor. Set to 1 to disable. - Factorul de penalizare a repetării ce se dezactivează cu valoarea 1. + Factorul de penalizare a repetării ce se dezactivează cu valoarea 1. Repeat Penalty Tokens - Token-uri pentru penalzare a repetării + Token-uri pentru penalzare a repetării Number of previous tokens used for penalty. - Numărul token-urilor anterioare considerate pentru penalizare. + Numărul token-urilor anterioare considerate pentru penalizare. GPU Layers - Layere în GPU + Layere în GPU Number of model layers to load into VRAM. - Numărul layerelor modelului ce vor fi Încărcate în VRAM. + Numărul layerelor modelului ce vor fi Încărcate în VRAM. How many model layers to load into VRAM. Decrease this if GPT4All runs out of VRAM while loading this model. Lower values increase CPU load and RAM usage, and make inference slower. NOTE: Does not take effect until you reload the model. - Cât de multe layere ale modelului să fie Încărcate în VRAM. Valori mici trebuie folosite dacă GPT4All rămâne fără VRAM în timp ce Încarcă modelul. Valorile tot mai mici cresc utilizarea CPU şi a RAM şi Încetinesc inferenţa. NOTă: Nu are efect până la reÎncărcarea modelului. + Cât de multe layere ale modelului să fie Încărcate în VRAM. Valori mici trebuie folosite dacă GPT4All rămâne fără VRAM în timp ce Încarcă modelul. Valorile tot mai mici cresc utilizarea CPU şi a RAM şi Încetinesc inferenţa. NOTă: Nu are efect până la reÎncărcarea modelului. @@ -2329,13 +2334,13 @@ NOTE: Does not take effect until you reload the model. No Models Installed - Nu există modele instalate + Nu există modele instalate Install a model to get started using GPT4All - Instalează un model pentru a Începe să foloseşti GPT4All + Instalează un model pentru a Începe să foloseşti GPT4All @@ -2343,13 +2348,13 @@ NOTE: Does not take effect until you reload the model. + Add Model - + Adaugă un model + + Adaugă un model Shows the add model view - Afişează secţiunea de adăugare a unui model + Afişează secţiunea de adăugare a unui model @@ -2361,19 +2366,19 @@ NOTE: Does not take effect until you reload the model. Locally installed chat models - Modele conversaţionale instalate local + Modele conversaţionale instalate local Model file - Fişierul modelului + Fişierul modelului Model file to be downloaded - Fişierul modelului ce va fi descărcat + Fişierul modelului ce va fi descărcat @@ -2385,7 +2390,7 @@ NOTE: Does not take effect until you reload the model. File description - Descrierea fişierului + Descrierea fişierului @@ -2403,19 +2408,19 @@ NOTE: Does not take effect until you reload the model. Stop/restart/start the download - Oprirea/Repornirea/Initierea descărcării + Oprirea/Repornirea/Initierea descărcării Remove - Şterg + Şterg Remove model from filesystem - Şterg modelul din sistemul de fişiere + Şterg modelul din sistemul de fişiere @@ -2423,7 +2428,7 @@ NOTE: Does not take effect until you reload the model. Install - Instalează + Instalează @@ -2440,7 +2445,7 @@ NOTE: Does not take effect until you reload the model. <strong><font size="2">WARNING: Not recommended for your hardware. Model requires more memory (%1 GB) than your system has available (%2).</strong></font> - <strong><font size="2">ATENţIE: Nerecomandat pentru acest hardware. Modelul necesită mai multă memorie (%1 GB) decât are sistemul tău(%2).</strong></font> + <strong><font size="2">ATENţIE: Nerecomandat pentru acest hardware. Modelul necesită mai multă memorie (%1 GB) decât are sistemul tău(%2).</strong></font> @@ -2458,7 +2463,7 @@ NOTE: Does not take effect until you reload the model. Describes an error that occurred when downloading - Descrie o eroare apărută la download + Descrie o eroare apărută la download @@ -2470,7 +2475,7 @@ NOTE: Does not take effect until you reload the model. <strong><font size="2">WARNING: Not recommended for your hardware. Model requires more memory (%1 GB) than your system has available (%2).</strong></font> - <strong><font size="2">ATENŢIE: Nerecomandat pentru acest hardware. Modelul necesită mai multă memorie (%1 GB) decât are sistemul tău(%2).</strong></font> + <strong><font size="2">ATENŢIE: Nerecomandat pentru acest hardware. Modelul necesită mai multă memorie (%1 GB) decât are sistemul tău(%2).</strong></font> @@ -2482,13 +2487,13 @@ NOTE: Does not take effect until you reload the model. Download progressBar - Bara de progresie a descărcării + Bara de progresie a descărcării Shows the progress made in the download - Afişează progresia descărcării + Afişează progresia descărcării @@ -2500,13 +2505,13 @@ NOTE: Does not take effect until you reload the model. Download speed in bytes/kilobytes/megabytes per second - Viteza de download în bytes/kilobytes/megabytes pe secundă + Viteza de download în bytes/kilobytes/megabytes pe secundă Calculating... - ...Se calculează... + ...Se calculează... @@ -2518,7 +2523,7 @@ NOTE: Does not take effect until you reload the model. Whether the file hash is being calculated - Dacă se va calcula hash-ul fişierului + Dacă se va calcula hash-ul fişierului @@ -2530,13 +2535,13 @@ NOTE: Does not take effect until you reload the model. Displayed when the file hash is being calculated - Afişat când se calculează hash-ul unui fişier + Afişat când se calculează hash-ul unui fişier ERROR: $API_KEY is empty. - EROARE: $API_KEY absentă. + EROARE: $API_KEY absentă. @@ -2548,7 +2553,7 @@ NOTE: Does not take effect until you reload the model. ERROR: $BASE_URL is empty. - EROARE: $BASE_URL absentă. + EROARE: $BASE_URL absentă. @@ -2572,13 +2577,13 @@ NOTE: Does not take effect until you reload the model. File size - Dimensiunea fişierului + Dimensiunea fişierului RAM required - RAM necesară + RAM necesară @@ -2620,7 +2625,7 @@ NOTE: Does not take effect until you reload the model. Please choose a directory - Selectează un director (folder) + Selectează un director (folder) @@ -2635,7 +2640,7 @@ NOTE: Does not take effect until you reload the model. Restores settings dialog to a default state - Restaurez secţiunea de configurare la starea sa implicită + Restaurez secţiunea de configurare la starea sa implicită @@ -2644,7 +2649,7 @@ NOTE: Does not take effect until you reload the model. Contribute data to the GPT4All Opensource Datalake. - Contribuie cu date/informaţii la componenta Open-source DataLake a GPT4All. + Contribuie cu date/informaţii la componenta Open-source DataLake a GPT4All. By enabling this feature, you will be able to participate in the democratic @@ -2663,21 +2668,21 @@ NOTE: Does not take effect until you reload the model. used by Nomic AI to improve future GPT4All models. Nomic AI will retain all attribution information attached to your data and you will be credited as a contributor to any GPT4All model release that uses your data! - Dacă activezi această funcţionalitate, vei participa la procesul democratic - de instruire a unui model LLM prin contribuţia ta cu date la îmbunătăţirea modelului. + Dacă activezi această funcţionalitate, vei participa la procesul democratic + de instruire a unui model LLM prin contribuţia ta cu date la îmbunătăţirea modelului. - Când un model în GPT4All Îţi răspunde şi îi accepţi replica, atunci conversaţia va fi - trimisă la componenta Open-source DataLake a GPT4All. Mai mult - îi poţi aprecia replica, - Dacă răspunsul Nu Îti Place, poţi sugera unul alternativ. - Aceste date vor fi colectate şi agregate în componenta DataLake a GPT4All. + Când un model în GPT4All Îţi răspunde şi îi accepţi replica, atunci conversaţia va fi + trimisă la componenta Open-source DataLake a GPT4All. Mai mult - îi poţi aprecia replica, + Dacă răspunsul Nu Îti Place, poţi sugera unul alternativ. + Aceste date vor fi colectate şi agregate în componenta DataLake a GPT4All. - NOTă: Dacă activezi această funcţionalitate, vei trimite datele tale la componenta - DataLake a GPT4All. Atunci nu te vei putea aştepta la intimitatea (privacy) conversaţiei dacă activezi - această funcţionalitate. Totuşi, te poţi aştepta la a beneficia de apreciere - opţional, dacă doreşti. - Datele din conversaţie vor fi disponibile pentru oricine vrea să le descarce şi vor fi - utilizate de către Nomic AI pentru a îmbunătăţi modele viitoare în GPT4All. Nomic AI va păstra - toate informaţiile despre atribuire asociate datelor tale şi vei fi menţionat ca - participant contribuitor la orice lansare a unui model GPT4All care foloseşte datele tale! + NOTă: Dacă activezi această funcţionalitate, vei trimite datele tale la componenta + DataLake a GPT4All. Atunci nu te vei putea aştepta la intimitatea (privacy) conversaţiei dacă activezi + această funcţionalitate. Totuşi, te poţi aştepta la a beneficia de apreciere - opţional, dacă doreşti. + Datele din conversaţie vor fi disponibile pentru oricine vrea să le descarce şi vor fi + utilizate de către Nomic AI pentru a îmbunătăţi modele viitoare în GPT4All. Nomic AI va păstra + toate informaţiile despre atribuire asociate datelor tale şi vei fi menţionat ca + participant contribuitor la orice lansare a unui model GPT4All care foloseşte datele tale! @@ -2687,21 +2692,21 @@ NOTE: Does not take effect until you reload the model. When a GPT4All model responds to you and you have opted-in, your conversation will be sent to the GPT4All Open Source Datalake. Additionally, you can like/dislike its response. If you dislike a response, you can suggest an alternative response. This data will be collected and aggregated in the GPT4All Datalake. NOTE: By turning on this feature, you will be sending your data to the GPT4All Open Source Datalake. You should have no expectation of chat privacy when this feature is enabled. You should; however, have an expectation of an optional attribution if you wish. Your chat data will be openly available for anyone to download and will be used by Nomic AI to improve future GPT4All models. Nomic AI will retain all attribution information attached to your data and you will be credited as a contributor to any GPT4All model release that uses your data! - Dacă activezi această funcţionalitate, vei participa la procesul democratic - de instruire a unui model LLM prin contribuţia ta cu date la îmbunătăţirea modelului. + Dacă activezi această funcţionalitate, vei participa la procesul democratic + de instruire a unui model LLM prin contribuţia ta cu date la îmbunătăţirea modelului. - Când un model în GPT4All îţi răspunde şi îi accepţi replica, atunci conversaţia va fi - trimisă la componenta Open-source DataLake a GPT4All. Mai mult - îi poţi aprecia replica, - Dacă răspunsul Nu Îti Place, poţi sugera unul alternativ. - Aceste date vor fi colectate şi agregate în componenta DataLake a GPT4All. + Când un model în GPT4All îţi răspunde şi îi accepţi replica, atunci conversaţia va fi + trimisă la componenta Open-source DataLake a GPT4All. Mai mult - îi poţi aprecia replica, + Dacă răspunsul Nu Îti Place, poţi sugera unul alternativ. + Aceste date vor fi colectate şi agregate în componenta DataLake a GPT4All. - NOTĂ: Dacă activezi această funcţionalitate, vei trimite datele tale la componenta - DataLake a GPT4All. Atunci nu te vei putea aştepta la intimitatea (privacy) conversaţiei dacă activezi - această funcţionalitate. Totuşi, te poţi aştepta la a beneficia de apreciere - opţional, dacă doreşti. - Datele din conversaţie vor fi disponibile pentru oricine vrea să le descarce şi vor fi - utilizate de către Nomic AI pentru a îmbunătăţi modele viitoare în GPT4All. Nomic AI va păstra - toate informaţiile despre atribuire asociate datelor tale şi vei fi menţionat ca - participant contribuitor la orice lansare a unui model GPT4All care foloseşte datele tale! + NOTĂ: Dacă activezi această funcţionalitate, vei trimite datele tale la componenta + DataLake a GPT4All. Atunci nu te vei putea aştepta la intimitatea (privacy) conversaţiei dacă activezi + această funcţionalitate. Totuşi, te poţi aştepta la a beneficia de apreciere - opţional, dacă doreşti. + Datele din conversaţie vor fi disponibile pentru oricine vrea să le descarce şi vor fi + utilizate de către Nomic AI pentru a îmbunătăţi modele viitoare în GPT4All. Nomic AI va păstra + toate informaţiile despre atribuire asociate datelor tale şi vei fi menţionat ca + participant contribuitor la orice lansare a unui model GPT4All care foloseşte datele tale! @@ -2713,37 +2718,37 @@ NOTE: By turning on this feature, you will be sending your data to the GPT4All O Describes what will happen when you opt-in - Descrie ce se Întâmplă când participi + Descrie ce se Întâmplă când participi Please provide a name for attribution (optional) - Specifică o denumire pentru această apreciere (optional) + Specifică o denumire pentru această apreciere (optional) Attribution (optional) - Apreciere (opţional) + Apreciere (opţional) Provide attribution - Apreciază + Apreciază Enable - Activează + Activează Enable opt-in - Activează participarea + Activează participarea @@ -2755,7 +2760,7 @@ NOTE: By turning on this feature, you will be sending your data to the GPT4All O Cancel opt-in - Anulează participarea + Anulează participarea @@ -2764,7 +2769,7 @@ NOTE: By turning on this feature, you will be sending your data to the GPT4All O New version is available - O nouă versiune disponibilă! + O nouă versiune disponibilă! @@ -2776,7 +2781,7 @@ NOTE: By turning on this feature, you will be sending your data to the GPT4All O Update to new version - Actualizează la noua versiune + Actualizează la noua versiune @@ -2785,7 +2790,7 @@ NOTE: By turning on this feature, you will be sending your data to the GPT4All O Reveals a shortlived help balloon - Afisează un mesaj scurt de asistenţă + Afisează un mesaj scurt de asistenţă @@ -2797,7 +2802,7 @@ NOTE: By turning on this feature, you will be sending your data to the GPT4All O Displayed when the popup is showing busy - Se afişează când procedura este în desfăşurare + Se afişează când procedura este în desfăşurare @@ -2814,7 +2819,7 @@ NOTE: By turning on this feature, you will be sending your data to the GPT4All O Contains various application settings - Conţine setări ale programului + Conţine setări ale programului @@ -2861,7 +2866,7 @@ NOTE: By turning on this feature, you will be sending your data to the GPT4All O Release notes for this version - Despre această versiune + Despre această versiune ### Opt-ins for anonymous usage analytics and datalake @@ -2887,28 +2892,28 @@ NOTE: By turning on this feature, you will be sending your data to the GPT4All O attribution information attached to your data and you will be credited as a contributor to any GPT4All model release that uses your data! - ### Acceptul pentru analizarea utilizării anonime şi pentru DataLake - Activând aceste functionalităţi vei putea participa la procesul democratic + ### Acceptul pentru analizarea utilizării anonime şi pentru DataLake + Activând aceste functionalităţi vei putea participa la procesul democratic de instruire a unui - model conversaţional prin contribuirea cu date/informaţii pentru îmbunătăţirea unor modele. - Când un model în GPT4All Îţi răspunde şi îi accepţi răspunsul, conversaţia este - trimisă la componenta - Open-source DataLake a GPT4All. Mai mult - poţi aprecia (Like/Dislike) răspunsul. Dacă - un răspuns Nu Îţi Place. poţi - sugera un răspuns alternativ. Aceste date vor fi colectate şi agregate În + model conversaţional prin contribuirea cu date/informaţii pentru îmbunătăţirea unor modele. + Când un model în GPT4All Îţi răspunde şi îi accepţi răspunsul, conversaţia este + trimisă la componenta + Open-source DataLake a GPT4All. Mai mult - poţi aprecia (Like/Dislike) răspunsul. Dacă + un răspuns Nu Îţi Place. poţi + sugera un răspuns alternativ. Aceste date vor fi colectate şi agregate În componenta DataLake a GPT4All. - NOTă: Dacă activezi această funcţionalitate, vei trimite datele tale la componenta + NOTă: Dacă activezi această funcţionalitate, vei trimite datele tale la componenta DataLake a GPT4All. - Atunci nu te vei putea aştepta la intimitatea (privacy) conversaţiei dacă activezi această funcţionalitate. - Totuşi, te poţi aştepta la a beneficia de apreciere - - opţional, dacă doreşti. Datele din conversaţie vor fi disponibile - pentru oricine vrea să le descarce şi vor fi utilizate de către Nomic AI - pentru a îmbunătăţi modele viitoare în GPT4All. - Nomic AI va păstra - toate informaţiile despre atribuire asociate datelor tale şi vei fi menţionat ca + Atunci nu te vei putea aştepta la intimitatea (privacy) conversaţiei dacă activezi această funcţionalitate. + Totuşi, te poţi aştepta la a beneficia de apreciere - + opţional, dacă doreşti. Datele din conversaţie vor fi disponibile + pentru oricine vrea să le descarce şi vor fi utilizate de către Nomic AI + pentru a îmbunătăţi modele viitoare în GPT4All. + Nomic AI va păstra + toate informaţiile despre atribuire asociate datelor tale şi vei fi menţionat ca participant contribuitor la orice lansare a unui model GPT4All - care foloseşte datele tale! + care foloseşte datele tale! @@ -2937,25 +2942,25 @@ an expectation of an optional attribution if you wish. Your chat data will be op to download and will be used by Nomic AI to improve future GPT4All models. Nomic AI will retain all attribution information attached to your data and you will be credited as a contributor to any GPT4All model release that uses your data! - ### Acordul pentru analizarea utilizării anonime şi pentru DataLake - Activând aceste functionalităţi vei putea participa la procesul democratic de instruire -a unui model conversaţional prin contribuirea cu date/informaţii pentru îmbunătăţirea unor modele. + ### Acordul pentru analizarea utilizării anonime şi pentru DataLake + Activând aceste functionalităţi vei putea participa la procesul democratic de instruire +a unui model conversaţional prin contribuirea cu date/informaţii pentru îmbunătăţirea unor modele. -Când un model în GPT4All îţi răspunde şi îi accepţi răspunsul, conversaţia este -trimisă la componenta Open-source DataLake a GPT4All. Mai mult - poţi aprecia (Bravo/Aiurea) răspunsul. Dacă -un răspuns e Aiurea. poţi sugera un răspuns alternativ. Aceste date vor fi colectate şi agregate în +Când un model în GPT4All îţi răspunde şi îi accepţi răspunsul, conversaţia este +trimisă la componenta Open-source DataLake a GPT4All. Mai mult - poţi aprecia (Bravo/Aiurea) răspunsul. Dacă +un răspuns e Aiurea. poţi sugera un răspuns alternativ. Aceste date vor fi colectate şi agregate în componenta DataLake a GPT4All. -NOTĂ: Dacă activezi această funcţionalitate, vei trimite datele tale la componenta DataLake a GPT4All. -Atunci nu te vei putea aştepta la intimitatea (privacy) conversaţiei dacă activezi această funcţionalitate. -Totuşi, te poţi aştepta la a beneficia de apreciere - -opţional, dacă doreşti. Datele din conversaţie vor fi disponibile -pentru oricine vrea să le descarce şi vor fi utilizate de către Nomic AI -pentru a îmbunătăţi modele viitoare în GPT4All. -Nomic AI va păstra -toate informaţiile despre atribuire asociate datelor tale şi vei fi menţionat ca +NOTĂ: Dacă activezi această funcţionalitate, vei trimite datele tale la componenta DataLake a GPT4All. +Atunci nu te vei putea aştepta la intimitatea (privacy) conversaţiei dacă activezi această funcţionalitate. +Totuşi, te poţi aştepta la a beneficia de apreciere - +opţional, dacă doreşti. Datele din conversaţie vor fi disponibile +pentru oricine vrea să le descarce şi vor fi utilizate de către Nomic AI +pentru a îmbunătăţi modele viitoare în GPT4All. +Nomic AI va păstra +toate informaţiile despre atribuire asociate datelor tale şi vei fi menţionat ca participant contribuitor la orice lansare a unui model GPT4All -care foloseşte datele tale! +care foloseşte datele tale! @@ -2967,7 +2972,7 @@ care foloseşte datele tale! Describes what will happen when you opt-in - Descrie ce se Întâmplă când participi + Descrie ce se Întâmplă când participi @@ -2975,7 +2980,7 @@ care foloseşte datele tale! Opt-in for anonymous usage statistics - Acceptă colectarea de statistici despre utilizare anonmă + Acceptă colectarea de statistici despre utilizare anonmă @@ -2989,7 +2994,7 @@ care foloseşte datele tale! Allow opt-in for anonymous usage statistics - Acceptă participarea la colectarea de statistici despre utilizare -anonimă- + Acceptă participarea la colectarea de statistici despre utilizare -anonimă- @@ -3003,13 +3008,13 @@ care foloseşte datele tale! Opt-out for anonymous usage statistics - Anulează participarea la colectarea de statistici despre utilizare -anonimă- + Anulează participarea la colectarea de statistici despre utilizare -anonimă- Allow opt-out for anonymous usage statistics - Permite anularea participării la colectarea de statistici despre utilizare -anonimă- + Permite anularea participării la colectarea de statistici despre utilizare -anonimă- @@ -3017,31 +3022,31 @@ care foloseşte datele tale! Opt-in for network - Acceptă pentru reţea + Acceptă pentru reţea Allow opt-in for network - Permite participarea pentru reţea + Permite participarea pentru reţea Allow opt-in anonymous sharing of chats to the GPT4All Datalake - Permite participarea la partajarea (share) anonimă a conversaţiilor către DataLake a GPT4All + Permite participarea la partajarea (share) anonimă a conversaţiilor către DataLake a GPT4All Opt-out for network - Refuz participarea, pentru reţea + Refuz participarea, pentru reţea Allow opt-out anonymous sharing of chats to the GPT4All Datalake - Permite anularea participării la partajarea anonimă a conversaţiilor către DataLake a GPT4All + Permite anularea participării la partajarea anonimă a conversaţiilor către DataLake a GPT4All @@ -3049,25 +3054,25 @@ care foloseşte datele tale! <b>Warning:</b> changing the model will erase the current conversation. Do you wish to continue? - <b>Atenţie:</b> schimbarea modelului va sterge conversaţia curentă. Confirmi aceasta? + <b>Atenţie:</b> schimbarea modelului va sterge conversaţia curentă. Confirmi aceasta? <b>Warning:</b> changing the model will erase the current conversation. Do you wish to continue? - <b>Atenţie:</b> schimbarea modelului va şterge conversaţia curentă. Confirmi aceasta? + <b>Atenţie:</b> schimbarea modelului va şterge conversaţia curentă. Confirmi aceasta? Continue - Continuă + Continuă Continue with model loading - Continuă cu Încărcarea modelului + Continuă cu Încărcarea modelului @@ -3084,13 +3089,13 @@ care foloseşte datele tale! Please edit the text below to provide a better response. (optional) - Te rog, editează textul de mai jos pentru a oferi o replică mai bună (opţional). + Te rog, editează textul de mai jos pentru a oferi o replică mai bună (opţional). Please provide a better response... - Te rog, oferă o replică mai bună... + Te rog, oferă o replică mai bună... @@ -3102,7 +3107,7 @@ care foloseşte datele tale! Submits the user's response - Trimite răspunsul dat de utilizator + Trimite răspunsul dat de utilizator @@ -3114,7 +3119,7 @@ care foloseşte datele tale! Closes the response dialog - Închide dialogul răspunsului + Închide dialogul răspunsului @@ -3126,11 +3131,11 @@ care foloseşte datele tale! detected."</i><br><br>Unfortunately, your CPU does not meet the minimal requirements to run this program. In particular, it does not support AVX intrinsics which this program requires to successfully run a modern large language - model. The only soluţion at this time is to upgrade your hardware to a more modern + model. The only soluţion at this time is to upgrade your hardware to a more modern CPU.<br><br>See here for more information: <a href="https://en.wikipedia.org/wiki/Advanced_Vector_Extensions">https://en.wikipedia.org/wiki/Advanced_Vector_Extensions</a> - <h3>A apărut o eroare la iniţializare:; </h3><br><i>"Hardware incompatibil. "</i><br><br>Din păcate, procesorul (CPU) nu Întruneşte condiţiile minime pentru a rula acest program. în particular, nu suportă instrucţiunile AVX pe care programul le necesită pentru a integra un model conversaţional modern. în acest moment, unica soluţie este să Îţi aduci la zi sistemul hardware cu un CPU mai recent.<br><br>Aici sunt mai multe informaţii: <a href="https://en.wikipedia.org/wiki/Advanced_Vector_Extensions">https://en.wikipedia.org/wiki/Advanced_Vector_Extensions</a> + <h3>A apărut o eroare la iniţializare:; </h3><br><i>"Hardware incompatibil. "</i><br><br>Din păcate, procesorul (CPU) nu Întruneşte condiţiile minime pentru a rula acest program. în particular, nu suportă instrucţiunile AVX pe care programul le necesită pentru a integra un model conversaţional modern. în acest moment, unica soluţie este să Îţi aduci la zi sistemul hardware cu un CPU mai recent.<br><br>Aici sunt mai multe informaţii: <a href="https://en.wikipedia.org/wiki/Advanced_Vector_Extensions">https://en.wikipedia.org/wiki/Advanced_Vector_Extensions</a> @@ -3146,79 +3151,83 @@ care foloseşte datele tale! permissions in the local app config directory where the settings file is located. Check out our <a href="https://discord.gg/4M2QFmTt2k">discord channel</a> for help. - <h3>A apărut o eroare la iniţializare:; </h3><br><i>"Nu poate fi accesat fişierul de configurare a programului."</i><br><br>Din păcate, ceva împiedică programul în a accesa acel fişier. Cauza poate fi un set de permisiuni incorecte În/pe directorul/folderul local de configurare unde se află acel fişier. Poţi parcurge canalul nostru <a href="https://discord.gg/4M2QFmTt2k">Discord</a> unde vei putea primi asistenţă. + <h3>A apărut o eroare la iniţializare:; </h3><br><i>"Nu poate fi accesat fişierul de configurare a programului."</i><br><br>Din păcate, ceva împiedică programul în a accesa acel fişier. Cauza poate fi un set de permisiuni incorecte În/pe directorul/folderul local de configurare unde se află acel fişier. Poţi parcurge canalul nostru <a href="https://discord.gg/4M2QFmTt2k">Discord</a> unde vei putea primi asistenţă. + + + <h3>Encountered an error starting up:</h3><br><i>"Incompatible hardware detected."</i><br><br>Unfortunately, your CPU does not meet the minimal requirements to run this program. In particular, it does not support AVX intrinsics which this program requires to successfully run a modern large language model. The only soluţion at this time is to upgrade your hardware to a more modern CPU.<br><br>See here for more information: <a href="https://en.wikipedia.org/wiki/Advanced_Vector_Extensions">https://en.wikipedia.org/wiki/Advanced_Vector_Extensions</a> + <h3>A apărut o eroare la iniţializare:; </h3><br><i>"Hardware incompatibil. "</i><br><br>Din păcate, procesorul (CPU) nu întruneşte condiţiile minime pentru a rula acest program. În particular, nu suportă instrucţiunile AVX pe care programul le necesită pentru a integra un model conversaţional modern. În acest moment, unica soluţie este să îţi aduci la zi sistemul hardware cu un CPU mai recent.<br><br>Aici sunt mai multe informaţii: <a href="https://en.wikipedia.org/wiki/Advanced_Vector_Extensions">https://en.wikipedia.org/wiki/Advanced_Vector_Extensions</a> - <h3>Encountered an error starting up:</h3><br><i>"Incompatible hardware detected."</i><br><br>Unfortunately, your CPU does not meet the minimal requirements to run this program. In particular, it does not support AVX intrinsics which this program requires to successfully run a modern large language model. The only soluţion at this time is to upgrade your hardware to a more modern CPU.<br><br>See here for more information: <a href="https://en.wikipedia.org/wiki/Advanced_Vector_Extensions">https://en.wikipedia.org/wiki/Advanced_Vector_Extensions</a> - <h3>A apărut o eroare la iniţializare:; </h3><br><i>"Hardware incompatibil. "</i><br><br>Din păcate, procesorul (CPU) nu întruneşte condiţiile minime pentru a rula acest program. În particular, nu suportă instrucţiunile AVX pe care programul le necesită pentru a integra un model conversaţional modern. În acest moment, unica soluţie este să îţi aduci la zi sistemul hardware cu un CPU mai recent.<br><br>Aici sunt mai multe informaţii: <a href="https://en.wikipedia.org/wiki/Advanced_Vector_Extensions">https://en.wikipedia.org/wiki/Advanced_Vector_Extensions</a> + <h3>Encountered an error starting up:</h3><br><i>"Incompatible hardware detected."</i><br><br>Unfortunately, your CPU does not meet the minimal requirements to run this program. In particular, it does not support AVX intrinsics which this program requires to successfully run a modern large language model. The only solution at this time is to upgrade your hardware to a more modern CPU.<br><br>See here for more information: <a href="https://en.wikipedia.org/wiki/Advanced_Vector_Extensions">https://en.wikipedia.org/wiki/Advanced_Vector_Extensions</a> + <h3>Encountered an error starting up:</h3><br><i>"Inability to access settings file."</i><br><br>Unfortunately, something is preventing the program from accessing the settings file. This could be caused by incorrect permissions in the local app config directory where the settings file is located. Check out our <a href="https://discord.gg/4M2QFmTt2k">discord channel</a> for help. - <h3>A apărut o eroare la iniţializare:; </h3><br><i>"Nu poate fi accesat fişierul de configurare a programului."</i><br><br>Din păcate, ceva împiedică programul în a accesa acel fişier. Cauza poate fi un set de permisiuni incorecte în/pe directorul/folderul local de configurare unde se află acel fişier. Poţi parcurge canalul nostru <a href="https://discord.gg/4M2QFmTt2k">Discord</a> unde vei putea primi asistenţă. + <h3>A apărut o eroare la iniţializare:; </h3><br><i>"Nu poate fi accesat fişierul de configurare a programului."</i><br><br>Din păcate, ceva împiedică programul în a accesa acel fişier. Cauza poate fi un set de permisiuni incorecte în/pe directorul/folderul local de configurare unde se află acel fişier. Poţi parcurge canalul nostru <a href="https://discord.gg/4M2QFmTt2k">Discord</a> unde vei putea primi asistenţă. Connection to datalake failed. - Conectarea la DataLake a eşuat. + Conectarea la DataLake a eşuat. Saving chats. - Se salvează conversaţiile. + Se salvează conversaţiile. Network dialog - Dialogul despre reţea + Dialogul despre reţea opt-in to share feedback/conversations - acceptă partajarea (share) de comentarii/conversaţii + acceptă partajarea (share) de comentarii/conversaţii Home view - Secţiunea de Început + Secţiunea de Început Home view of application - Secţiunea de Început a programului + Secţiunea de Început a programului Home - Prima<br>pagină + Prima<br>pagină Chat view - Secţiunea conversaţiilor + Secţiunea conversaţiilor Chat view to interact with models - Secţiunea de chat pentru interacţiune cu modele + Secţiunea de chat pentru interacţiune cu modele Chats - Conversaţii + Conversaţii @@ -3232,7 +3241,7 @@ care foloseşte datele tale! Models view for installed models - Secţiunea modelelor instalate + Secţiunea modelelor instalate @@ -3246,7 +3255,7 @@ care foloseşte datele tale! LocalDocs view to configure and use local docs - Secţiunea LocalDocs de configurare şi folosire a Documentelor Locale + Secţiunea LocalDocs de configurare şi folosire a Documentelor Locale @@ -3260,7 +3269,7 @@ care foloseşte datele tale! Settings view for application configuration - Secţiunea de configurare a programului + Secţiunea de configurare a programului @@ -3272,7 +3281,7 @@ care foloseşte datele tale! Using a network model - Se foloseşte un model pe reţea + Se foloseşte un model pe reţea @@ -3290,7 +3299,7 @@ care foloseşte datele tale! View of installed models - Secţiunea modelelor instalate + Secţiunea modelelor instalate diff --git a/gpt4all-chat/translations/gpt4all_zh_CN.ts b/gpt4all-chat/translations/gpt4all_zh_CN.ts index c2f0cf88..422e7940 100644 --- a/gpt4all-chat/translations/gpt4all_zh_CN.ts +++ b/gpt4all-chat/translations/gpt4all_zh_CN.ts @@ -119,26 +119,26 @@ 触发模型的发现和筛选 - - + + Default 默认 - - + + Likes 喜欢 - - + + Downloads 下载 - - + + Recent 近期 @@ -147,14 +147,14 @@ 排序: - - + + Asc 升序 - - + + Desc 倒序 @@ -163,8 +163,8 @@ 排序目录: - - + + None @@ -183,170 +183,170 @@ 搜索中 · %1 - - + + Sort by: %1 排序: %1 - - + + Sort dir: %1 排序目录: %1 - - + + Limit: %1 数量: %1 - - + + Network error: could not retrieve %1 网络错误:无法检索 %1 - - - - + + + + Busy indicator 繁忙程度 - - + + Displayed when the models request is ongoing 在模型请求进行中时显示 - - + + Model file 模型文件 - - + + Model file to be downloaded 待下载模型 - - + + Description 描述 - - + + File description 文件描述 - - + + Cancel 取消 - - + + Resume 继续 - - + + Download 下载 - - + + Stop/restart/start the download 停止/重启/开始下载 - - + + Remove 删除 - - + + Remove model from filesystem 从系统中删除模型 - - - - + + + + Install 安装 - - + + Install online model 安装在线模型 - - + + <strong><font size="1"><a href="#error">Error</a></strong></font> <strong><font size="1"><a href="#error">错误</a></strong></font> - - + + <strong><font size="2">WARNING: Not recommended for your hardware. Model requires more memory (%1 GB) than your system has available (%2).</strong></font> <strong><font size="2">警告: 你的设备硬件不推荐 ,模型需要的内存 (%1 GB)比你的系统还要多 (%2).</strong></font> - - + + ERROR: $API_KEY is empty. 错误:$API_KEY 为空 - - + + ERROR: $BASE_URL is empty. 错误:$BASE_URL 为空 - - + + enter $BASE_URL 输入 $BASE_URL - - + + ERROR: $MODEL_NAME is empty. 错误:$MODEL_NAME为空 - - + + enter $MODEL_NAME 输入:$MODEL_NAME - - + + %1 GB %1 GB - - - - + + + + ? @@ -355,8 +355,8 @@ <a href="#error">错误</a> - - + + Describes an error that occurred when downloading 描述下载过程中发生的错误 @@ -373,74 +373,74 @@ 你的系统需要 ( - - + + Error for incompatible hardware 硬件不兼容的错误 - - + + Download progressBar 下载进度 - - + + Shows the progress made in the download 显示下载进度 - - + + Download speed 下载速度 - - + + Download speed in bytes/kilobytes/megabytes per second 下载速度 b/kb/mb /s - - + + Calculating... 计算中 - - - - - - - - + + + + + + + + Whether the file hash is being calculated 是否正在计算文件哈希 - - + + Displayed when the file hash is being calculated 在计算文件哈希时显示 - - + + enter $API_KEY 输入$API_KEY - - + + File size 文件大小 - - + + RAM required RAM 需要 @@ -449,20 +449,20 @@ GB - - + + Parameters 参数 - - + + Quant 量化 - - + + Type 类型 @@ -533,74 +533,74 @@ 应用的主题颜色 - - + + Dark 深色 - - + + Light 亮色 - - + + LegacyDark LegacyDark - - + + Font Size 字体大小 - - + + The size of text in the application. 应用中的文本大小。 - - + + Small - - + + Medium - - + + Large - - + + Language and Locale 语言和本地化 - - + + The language and locale you wish to use. 你想使用的语言 - - + + System Locale 系统语言 - - + + Device 设备 @@ -609,166 +609,166 @@ 用于文本生成的计算设备. "自动" 使用 Vulkan or Metal. - - + + The compute device used for text generation. 设备用于文本生成 - - - - + + + + Application default 程序默认 - - + + Default Model 默认模型 - - + + The preferred model for new chats. Also used as the local server fallback. 新聊天的首选模式。也用作本地服务器回退。 - - + + Suggestion Mode 建议模式 - - + + Generate suggested follow-up questions at the end of responses. 在答复结束时生成建议的后续问题。 - - + + When chatting with LocalDocs 本地文档检索 - - + + Whenever possible 只要有可能 - - + + Never 从不 - - + + Download Path 下载目录 - - + + Where to store local models and the LocalDocs database. 本地模型和本地文档数据库存储目录 - - + + Browse 查看 - - + + Choose where to save model files 模型下载目录 - - + + Enable Datalake 开启数据湖 - - + + Send chats and feedback to the GPT4All Open-Source Datalake. 发送对话和反馈给GPT4All 的开源数据湖。 - - + + Advanced 高级 - - + + CPU Threads CPU线程 - - + + The number of CPU threads used for inference and embedding. 用于推理和嵌入的CPU线程数 - - + + Save Chat Context 保存对话上下文 - - + + Save the chat model's state to disk for faster loading. WARNING: Uses ~2GB per chat. 保存模型's 状态以提供更快加载速度. 警告: 需用 ~2GB 每个对话. - - + + Enable Local Server 开启本地服务 - - + + Expose an OpenAI-Compatible server to localhost. WARNING: Results in increased resource usage. 将OpenAI兼容服务器暴露给本地主机。警告:导致资源使用量增加。 - - + + API Server Port API 服务端口 - - + + The port to use for the local server. Requires restart. 使用本地服务的端口,需要重启 - - + + Check For Updates 检查更新 - - + + Manually check for an update to GPT4All. 手动检查更新 - - + + Updates 更新 @@ -1621,66 +1621,72 @@ model to get started - The compute device used for embeddings. "Auto" uses the CPU. Requires restart. - 技术设备用于embeddings. "自动" 使用.需要重启. + The compute device used for embeddings. Requires restart. + 技术设备用于embeddings. 需要重启. - - + + + Application default + 程序默认 + + + + Display 显示 - - + + Show Sources 查看源码 - - + + Display the sources used for each response. 显示每个响应所使用的源。 - - + + Advanced 高级 - - + + Warning: Advanced usage only. 提示: 仅限高级使用。 - - + + Values too large may cause localdocs failure, extremely slow responses or failure to respond at all. Roughly speaking, the {N chars x N snippets} are added to the model's context window. More info <a href="https://docs.gpt4all.io/gpt4all_desktop/localdocs.html">here</a>. 值过大可能会导致 localdocs 失败、响应速度极慢或根本无法响应。粗略地说,{N 个字符 x N 个片段} 被添加到模型的上下文窗口中。更多信息请见<a href="https://docs.gpt4all.io/gpt4all_desktop/localdocs.html">此处</a>。 - - + + Document snippet size (characters) 文档粘贴大小 (字符) - - + + Number of characters per document snippet. Larger numbers increase likelihood of factual responses, but also result in slower generation. 每个文档片段的字符数。较大的数值增加了事实性响应的可能性,但也会导致生成速度变慢。 - - + + Max document snippets per prompt 每个提示的最大文档片段数 - - + + Max best N matches of retrieved document snippets to add to the context for prompt. Larger numbers increase likelihood of factual responses, but also result in slower generation. 检索到的文档片段最多添加到提示上下文中的前 N 个最佳匹配项。较大的数值增加了事实性响应的可能性,但也会导致生成速度变慢。 diff --git a/gpt4all-chat/translations/gpt4all_zh_TW.ts b/gpt4all-chat/translations/gpt4all_zh_TW.ts index 19fbc6f5..144541fb 100644 --- a/gpt4all-chat/translations/gpt4all_zh_TW.ts +++ b/gpt4all-chat/translations/gpt4all_zh_TW.ts @@ -121,309 +121,309 @@ 觸發探索與過濾模型 - - + + Default 預設 - - + + Likes - - + + Downloads 下載次數 - - + + Recent 最新 - - + + Sort by: %1 排序依據:%1 - - + + Asc 升序 - - + + Desc 降序 - - + + Sort dir: %1 排序順序:%1 - - + + None - - + + Limit: %1 上限:%1 - - + + Network error: could not retrieve %1 網路錯誤:無法取得 %1 - - + + <strong><font size="1"><a href="#error">Error</a></strong></font> <strong><font size="1"><a href="#error">錯誤</a></strong></font> - - + + <strong><font size="2">WARNING: Not recommended for your hardware. Model requires more memory (%1 GB) than your system has available (%2).</strong></font> <strong><font size="2">警告:不推薦在您的硬體上運作。模型需要比較多的記憶體(%1 GB),但您的系統記憶體空間不足(%2)。</strong></font> - - + + %1 GB %1 GB - - - - + + + + ? - - - - + + + + Busy indicator 參考自 https://terms.naer.edu.tw 忙線指示器 - - + + Displayed when the models request is ongoing 當模型請求正在進行時顯示 - - + + Model file 模型檔案 - - + + Model file to be downloaded 即將下載的模型檔案 - - + + Description 描述 - - + + File description 檔案描述 - - + + Cancel 取消 - - + + Resume 恢復 - - + + Download 下載 - - + + Stop/restart/start the download 停止/重啟/開始下載 - - + + Remove 移除 - - + + Remove model from filesystem 從檔案系統移除模型 - - - - + + + + Install 安裝 - - + + Install online model 安裝線上模型 - - + + Describes an error that occurred when downloading 解釋下載時發生的錯誤 - - + + Error for incompatible hardware 錯誤,不相容的硬體 - - + + Download progressBar 下載進度條 - - + + Shows the progress made in the download 顯示下載進度 - - + + Download speed 下載速度 - - + + Download speed in bytes/kilobytes/megabytes per second 下載速度每秒 bytes/kilobytes/megabytes - - + + Calculating... 計算中...... - - - - - - - - + + + + + + + + Whether the file hash is being calculated 是否正在計算檔案雜湊 - - + + Displayed when the file hash is being calculated 計算檔案雜湊值時顯示 - - + + ERROR: $API_KEY is empty. 錯誤:$API_KEY 未填寫。 - - + + enter $API_KEY 請輸入 $API_KEY - - + + ERROR: $BASE_URL is empty. 錯誤:$BASE_URL 未填寫。 - - + + enter $BASE_URL 請輸入 $BASE_URL - - + + ERROR: $MODEL_NAME is empty. 錯誤:$MODEL_NAME 未填寫。 - - + + enter $MODEL_NAME 請輸入 $MODEL_NAME - - + + File size 檔案大小 - - + + RAM required 所需的記憶體 - - + + Parameters 參數 - - + + Quant 量化 - - + + Type 類型 @@ -495,238 +495,238 @@ 應用程式的配色方案。 - - + + Dark 暗色 - - + + Light 亮色 - - + + LegacyDark 傳統暗色 - - + + Font Size 字體大小 - - + + The size of text in the application. 應用程式中的字體大小。 - - + + Small - - + + Medium - - + + Large - - + + Language and Locale 語言與區域設定 - - + + The language and locale you wish to use. 您希望使用的語言與區域設定。 - - + + System Locale 系統語系 - - + + Device 裝置 - - + + Default Model 預設模型 - - + + The preferred model for new chats. Also used as the local server fallback. 用於新交談的預設模型。也用於作為本機伺服器後援使用。 - - + + Suggestion Mode 建議模式 - - + + When chatting with LocalDocs 當使用「我的文件」交談時 - - + + Whenever possible 視情況允許 - - + + Never 永不 - - + + Generate suggested follow-up questions at the end of responses. 在回覆末尾生成後續建議的問題。 - - + + The compute device used for text generation. 用於生成文字的計算設備。 - - - - + + + + Application default 應用程式預設值 - - + + Download Path 下載路徑 - - + + Where to store local models and the LocalDocs database. 儲存本機模型與「我的文件」資料庫的位置。 - - + + Browse 瀏覽 - - + + Choose where to save model files 選擇儲存模型檔案的位置 - - + + Enable Datalake 啟用資料湖泊 - - + + Send chats and feedback to the GPT4All Open-Source Datalake. 將交談與回饋傳送到 GPT4All 開放原始碼資料湖泊。 - - + + Advanced 進階 - - + + CPU Threads 中央處理器(CPU)線程 - - + + The number of CPU threads used for inference and embedding. 用於推理與嵌入的中央處理器線程數。 - - + + Save Chat Context 儲存交談語境 - - + + Save the chat model's state to disk for faster loading. WARNING: Uses ~2GB per chat. 將交談模型的狀態儲存到磁碟以加快載入速度。警告:每次交談使用約 2GB。 - - + + Enable Local Server 啟用本機伺服器 - - + + Expose an OpenAI-Compatible server to localhost. WARNING: Results in increased resource usage. 將 OpenAI 相容伺服器公開給本機。警告:導致資源使用增加。 - - + + API Server Port API 伺服器埠口 - - + + The port to use for the local server. Requires restart. 用於本機伺服器的埠口。需要重新啟動。 - - + + Check For Updates 檢查更新 - - + + Manually check for an update to GPT4All. 手動檢查 GPT4All 的更新。 - - + + Updates 更新 @@ -1524,66 +1524,72 @@ model to get started - The compute device used for embeddings. "Auto" uses the CPU. Requires restart. - 用於嵌入的計算裝置。「Auto」將自動使用中央處理器。需要重新啟動。 + The compute device used for embeddings. Requires restart. + 用於嵌入的計算裝置。需要重新啟動。 - - + + + Application default + 應用程式預設值 + + + + Display 顯示 - - + + Show Sources 查看來源 - - + + Display the sources used for each response. 顯示每則回覆所使用的來源。 - - + + Advanced 進階 - - + + Warning: Advanced usage only. 警告:僅限進階使用。 - - + + Values too large may cause localdocs failure, extremely slow responses or failure to respond at all. Roughly speaking, the {N chars x N snippets} are added to the model's context window. More info <a href="https://docs.gpt4all.io/gpt4all_desktop/localdocs.html">here</a>. 設定太大的數值可能會導致「我的文件」處理失敗、反應速度極慢或根本無法回覆。簡單地說,這會將 {N 個字元 x N 個片段} 被添加到模型的語境視窗中。更多資訊<a href="https://docs.gpt4all.io/gpt4all_desktop/localdocs.html">此處</a>。 - - + + Document snippet size (characters) 文件片段大小(字元) - - + + Number of characters per document snippet. Larger numbers increase likelihood of factual responses, but also result in slower generation. 每個文件片段的字元數。較大的數字會增加實際反應的可能性,但也會導致生成速度變慢。 - - + + Max document snippets per prompt 每個提示詞的最大文件片段 - - + + Max best N matches of retrieved document snippets to add to the context for prompt. Larger numbers increase likelihood of factual responses, but also result in slower generation. 新增至提示詞語境中的檢索到的文件片段的最大 N 個符合的項目。較大的數字會增加實際反應的可能性,但也會導致生成速度變慢。