diff --git a/gpt4all-chat/CHANGELOG.md b/gpt4all-chat/CHANGELOG.md
index 969669b1..745d972a 100644
--- a/gpt4all-chat/CHANGELOG.md
+++ b/gpt4all-chat/CHANGELOG.md
@@ -9,6 +9,9 @@ The format is based on [Keep a Changelog](https://keepachangelog.com/en/1.1.0/).
### Added
- Use greedy sampling when temperature is set to zero ([#2854](https://github.com/nomic-ai/gpt4all/pull/2854))
+### Fixed
+- Bring back "Auto" option for Embeddings Device as "Application default," which went missing in v3.1.0 ([#2873](https://github.com/nomic-ai/gpt4all/pull/2873))
+
## [3.2.1] - 2024-08-13
### Fixed
diff --git a/gpt4all-chat/qml/LocalDocsSettings.qml b/gpt4all-chat/qml/LocalDocsSettings.qml
index 47f44090..45df85e3 100644
--- a/gpt4all-chat/qml/LocalDocsSettings.qml
+++ b/gpt4all-chat/qml/LocalDocsSettings.qml
@@ -163,7 +163,7 @@ MySettingsTab {
MySettingsLabel {
id: deviceLabel
text: qsTr("Embeddings Device")
- helpText: qsTr('The compute device used for embeddings. "Auto" uses the CPU. Requires restart.')
+ helpText: qsTr('The compute device used for embeddings. Requires restart.')
}
MyComboBox {
id: deviceBox
@@ -172,11 +172,18 @@ MySettingsTab {
Layout.maximumWidth: 400
Layout.fillWidth: false
Layout.alignment: Qt.AlignRight
- model: MySettings.embeddingsDeviceList
+ model: ListModel {
+ ListElement { text: qsTr("Application default") }
+ Component.onCompleted: {
+ MySettings.embeddingsDeviceList.forEach(d => append({"text": d}));
+ }
+ }
Accessible.name: deviceLabel.text
Accessible.description: deviceLabel.helpText
function updateModel() {
- deviceBox.currentIndex = deviceBox.indexOfValue(MySettings.localDocsEmbedDevice);
+ var device = MySettings.localDocsEmbedDevice;
+ // This usage of 'Auto' should not be translated
+ deviceBox.currentIndex = device === "Auto" ? 0 : deviceBox.indexOfValue(device);
}
Component.onCompleted: {
deviceBox.updateModel();
@@ -188,7 +195,8 @@ MySettingsTab {
}
}
onActivated: {
- MySettings.localDocsEmbedDevice = deviceBox.currentText;
+ // This usage of 'Auto' should not be translated
+ MySettings.localDocsEmbedDevice = deviceBox.currentIndex === 0 ? "Auto" : deviceBox.currentText;
}
}
}
diff --git a/gpt4all-chat/translations/gpt4all_en_US.ts b/gpt4all-chat/translations/gpt4all_en_US.ts
index 0769d674..b8944c0c 100644
--- a/gpt4all-chat/translations/gpt4all_en_US.ts
+++ b/gpt4all-chat/translations/gpt4all_en_US.ts
@@ -115,44 +115,44 @@
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
@@ -163,266 +163,266 @@
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
-
-
+
+
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
-
-
+
+
+
+
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
-
-
-
-
-
-
+
+
+
+
+
+
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
@@ -490,238 +490,238 @@
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
-
-
+
+
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
+
-
-
-
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
+
-
-
+
+
-
-
+
+
-
-
+
+
@@ -1520,66 +1520,72 @@ model to get started
-
+
-
-
+
+
+
+
+
+
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
+
+
-
-
-
-
-
-
+
+
+
+
+
+
-
-
+
+
-
-
+
+
-
-
+
+
diff --git a/gpt4all-chat/translations/gpt4all_es_MX.ts b/gpt4all-chat/translations/gpt4all_es_MX.ts
index a62f2d6d..433d514a 100644
--- a/gpt4all-chat/translations/gpt4all_es_MX.ts
+++ b/gpt4all-chat/translations/gpt4all_es_MX.ts
@@ -79,346 +79,350 @@
AddModelView
-
-
+
+ ← Modelos existentes
-
-
+
+ Explorar modelos
-
-
+
+ Descubre y descarga modelos mediante búsqueda por palabras clave...
-
-
+
+ Campo de texto para descubrir y filtrar modelos descargables
-
-
+
+ Iniciar descubrimiento y filtrado de modelos
-
-
+
+ Activa el descubrimiento y filtrado de modelos
-
-
+
+ Predeterminado
-
-
+
+ Me gusta
-
-
+
+ Descargas
-
-
+
+ Reciente
-
-
+
+ Asc
-
-
+
+ Desc
-
-
+
+ Ninguno
-
-
+
+ Buscando · %1
-
-
+
+ Ordenar por: %1
-
-
+
+ Dirección de ordenamiento: %1
-
-
+
+ Límite: %1
-
-
+
+ Error de red: no se pudo recuperar %1
-
-
-
-
+
+
+
+ Indicador de ocupado
-
-
+
+ Se muestra cuando la solicitud de modelos está en curso
-
-
+
+ Archivo del modelo
-
-
+
+ Archivo del modelo a descargar
-
-
+
+ Descripción
-
-
+
+ Descripción del archivo
-
-
+
+ Cancelar
-
-
+
+ Reanudar
-
-
+
+ Descargar
-
-
+
+ Detener/reiniciar/iniciar la descarga
-
-
+
+ Eliminar
-
-
+
+ Eliminar modelo del sistema de archivos
-
-
-
-
+
+
+
+ Instalar
-
-
+
+ Instalar modelo en línea
-
-
+
+ <strong><font size="1"><a href="#error">Error</a></strong></font>
-
-
+
+ <strong><font size="2">ADVERTENCIA: No recomendado para tu hardware. El modelo requiere más memoria (%1 GB) de la que tu sistema tiene disponible (%2).</strong></font>
-
-
+
+ %1 GB
-
-
-
-
+
+
+
+ ?
-
-
+
+ Describe un error que ocurrió durante la descarga
-
-
+
+ Error por hardware incompatible
-
-
+
+ Barra de progreso de descarga
-
-
+
+ Muestra el progreso realizado en la descarga
-
-
+
+ Velocidad de descarga
-
-
+
+ Velocidad de descarga en bytes/kilobytes/megabytes por segundo
-
-
+
+ Calculando...
-
-
-
-
+
+
+
+
+
+
+
+ Si se está calculando el hash del archivo
-
-
+
+ Se muestra cuando se está calculando el hash del archivo
-
-
+
+ ingrese $API_KEY
-
-
+
+ Tamaño del archivo
-
-
+
+ RAM requerida
-
-
+
+ Parámetros
-
-
+
+ Cuantificación
-
-
+
+ Tipo
-
-
+
+ ERROR: $API_KEY está vacío.
-
-
+
+ ERROR: $BASE_URL está vacío.
-
-
+
+ ingrese $BASE_URL
-
-
+
+ ERROR: $MODEL_NAME está vacío.
-
-
+
+ ingrese $MODEL_NAME
@@ -443,6 +447,18 @@
optar por compartir comentarios/conversaciones
+
+
+
+
+
+
@@ -474,256 +490,252 @@
El esquema de colores de la aplicación.
-
-
+
+ Oscuro
-
-
+
+ Claro
-
-
+
+ Oscuro legado
-
-
+
+ Tamaño de fuente
-
-
+
+ El tamaño del texto en la aplicación.
-
-
+
+ Dispositivo
-
- El dispositivo de cómputo utilizado para la generación de texto. "Auto" utiliza Vulkan o Metal.
+ El dispositivo de cómputo utilizado para la generación de texto. "Auto" utiliza Vulkan o Metal.
-
-
+
+ Pequeño
-
-
+
+ Mediano
-
-
+
+ Grande
-
-
+
+ Idioma y configuración regional
-
-
+
+ El idioma y la configuración regional que deseas usar.
-
-
+
+ Modelo predeterminado
-
-
+
+ El modelo preferido para nuevos chats. También se utiliza como respaldo del servidor local.
-
-
+
+ Modo de sugerencia
-
-
+
+ Generar preguntas de seguimiento sugeridas al final de las respuestas.
-
-
+
+ Al chatear con LocalDocs
-
-
+
+ Siempre que sea posible
-
-
+
+ Nunca
-
-
+
+ Ruta de descarga
-
-
+
+ Dónde almacenar los modelos locales y la base de datos de LocalDocs.
-
-
+
+ Explorar
-
-
+
+ Elegir dónde guardar los archivos del modelo
-
-
+
+ Habilitar Datalake
-
-
+
+ Enviar chats y comentarios al Datalake de código abierto de GPT4All.
-
-
+
+ Avanzado
-
-
+
+ Hilos de CPU
-
-
+
+ El número de hilos de CPU utilizados para inferencia e incrustación.
-
-
+
+ Guardar contexto del chat
-
-
+
+ Guardar el estado del modelo de chat en el disco para una carga más rápida. ADVERTENCIA: Usa ~2GB por chat.
-
-
+
+ Exponer un servidor compatible con OpenAI a localhost. ADVERTENCIA: Resulta en un mayor uso de recursos.
-
-
+
+ Habilitar servidor local
-
- Exponer un servidor compatible con OpenAI a localhost. ADVERTENCIA: Resulta
+ Exponer un servidor compatible con OpenAI a localhost. ADVERTENCIA: Resulta
en un mayor uso de recursos.
-
-
+
+ Puerto del servidor API
-
-
+
+ El puerto a utilizar para el servidor local. Requiere reinicio.
-
-
+
+ Buscar actualizaciones
-
-
+
+ Buscar manualmente una actualización para GPT4All.
-
-
+
+ Actualizaciones
-
-
+
+ Regional del sistema
-
-
+
+ El dispositivo de cómputo utilizado para la generación de texto.
-
-
-
-
+
+
+
+ Predeterminado de la aplicación
-
-
- ERROR: El sistema de actualización no pudo encontrar la Herramienta de Mantenimiento utilizada<br>
+ ERROR: El sistema de actualización no pudo encontrar la Herramienta de Mantenimiento utilizada<br>
para buscar actualizaciones.<br><br>
¿Instaló esta aplicación utilizando el instalador en línea? Si es así,<br>
el ejecutable de la Herramienta de Mantenimiento debería estar ubicado un directorio<br>
@@ -754,6 +766,19 @@
Chat del servidor
+
+ ChatAPIWorker
+
+
+
+ ERROR: Ocurrió un error de red al conectar con el servidor API
+
+
+
+
+ ChatAPIWorker::handleFinished obtuvo Error HTTP %1 %2
+
+ChatDrawer
@@ -962,9 +987,9 @@
-
+
-
+ DocumentosLocales
@@ -981,20 +1006,20 @@
agregar colecciones de documentos al chat
-
-
+
+ Cargar el modelo predeterminado
-
-
+
+ Carga el modelo predeterminado que se puede cambiar en la configuración
-
-
+
+ No hay modelo instalado
@@ -1005,174 +1030,172 @@
<h3>Se encontró un error al cargar el modelo:</h3><br><i>"%1"</i><br><br>Los fallos en la carga de modelos pueden ocurrir por varias razones, pero las causas más comunes incluyen un formato de archivo incorrecto, una descarga incompleta o corrupta, un tipo de archivo equivocado, RAM del sistema insuficiente o un tipo de modelo incompatible. Aquí hay algunas sugerencias para resolver el problema:<br><ul><li>Asegúrate de que el archivo del modelo tenga un formato y tipo compatibles<li>Verifica que el archivo del modelo esté completo en la carpeta de descargas<li>Puedes encontrar la carpeta de descargas en el diálogo de configuración<li>Si has cargado el modelo manualmente, asegúrate de que el archivo no esté corrupto verificando el md5sum<li>Lee más sobre qué modelos son compatibles en nuestra <a href="https://docs.gpt4all.io/">documentación</a> para la interfaz gráfica<li>Visita nuestro <a href="https://discord.gg/4M2QFmTt2k">canal de discord</a> para obtener ayuda
-
-
+
+ Instalar un modelo
-
-
+
+ Muestra la vista de agregar modelo
-
-
+
+ Conversación con el modelo
-
-
+
+ pares de pregunta / respuesta de la conversación
-
-
+
+ GPT4All
-
-
+
+ Tú
-
-
- recalculando contexto ...
+ recalculando contexto ...
-
-
+
+ respuesta detenida ...
-
-
+
+ procesando ...
-
-
+
+ generando respuesta ...
-
-
+
+ generando preguntas ...
-
-
-
-
+
+
+
+ Copiar
-
-
+
+ Copiar mensaje
-
-
+
+ Desactivar markdown
-
-
+
+ Activar markdown
-
-
+
+ Me gusta
-
-
+
+ Da un me gusta a la respuesta
-
-
+
+ No me gusta
-
-
+
+ Abre el diálogo de no me gusta
-
-
+
+ %1 Fuentes
-
-
+
+ Seguimientos sugeridos
-
-
+
+ Borrar y reiniciar sesión de chat
-
-
+
+ Copiar sesión de chat al portapapeles
-
-
+
+ Rehacer última respuesta del chat
-
-
+
+ Detener generación
-
-
+
+ Detener la generación de la respuesta actual
-
-
+
+ Recarga el modelo
-
+
-
+ Recargar · %1
@@ -1183,68 +1206,68 @@
Cargando · %1
-
-
+
+ Cargar · %1 (predeterminado) →
-
-
+
+ recuperando documentos locales: %1 ...
-
-
+
+ buscando en documentos locales: %1 ...
-
-
+
+ Enviar un mensaje...
-
-
+
+ Carga un modelo para continuar...
-
-
+
+ Enviar mensajes/indicaciones al modelo
-
-
+
+ Cortar
-
-
+
+ Pegar
-
-
+
+ Seleccionar todo
-
-
+
+ Enviar mensaje
-
-
+
+ Envía el mensaje/indicación contenido en el campo de texto al modelo
@@ -1267,14 +1290,14 @@ modelo para comenzar
CollectionsDrawer
-
-
+
+ Advertencia: buscar en colecciones mientras se indexan puede devolver resultados incompletos
-
-
+
+ %n archivo
@@ -1282,8 +1305,8 @@ modelo para comenzar
-
-
+
+ %n palabra
@@ -1291,24 +1314,62 @@ modelo para comenzar
-
-
+
+ Actualizando
-
-
+
+ + Agregar documentos
-
-
+
+ Seleccione una colección para hacerla disponible al modelo de chat.
+
+ Download
+
+
+
+ El modelo "%1" se ha instalado correctamente.
+
+
+
+
+ ERROR: $MODEL_NAME está vacío.
+
+
+
+
+ ERROR: $API_KEY está vacía.
+
+
+
+
+ ERROR: $BASE_URL no es válida.
+
+
+
+
+ ERROR: El modelo "%1 (%2)" está en conflicto.
+
+
+
+
+ El modelo "%1 (%2)" se ha instalado correctamente.
+
+
+
+
+ El modelo "%1" ha sido eliminado.
+
+HomeView
@@ -1449,7 +1510,7 @@ modelo para comenzar
- Lista separada por comas. DocumentosLocales solo intentará procesar
+ Lista separada por comas. DocumentosLocales solo intentará procesar
archivos con estas extensiones.
@@ -1467,7 +1528,7 @@ modelo para comenzar
- Incrustar documentos usando la rápida API de Nomic en lugar de un modelo
+ Incrustar documentos usando la rápida API de Nomic en lugar de un modelo
local privado. Requiere reinicio.
@@ -1477,6 +1538,8 @@ modelo para comenzar
Clave API de Nomic
+
+ Clave API para usar con Nomic Embed. Obtén una en la <a href="https://atlas.nomic.ai/cli-login">página de claves API</a> de Atlas. Requiere reinicio.
@@ -1487,10 +1550,10 @@ modelo para comenzar
Dispositivo de incrustaciones
-
- El dispositivo de cómputo utilizado para las incrustaciones.
- "Auto" usa la CPU. Requiere reinicio.
+
+
+
+ El dispositivo de cómputo utilizado para las incrustaciones. Requiere reinicio.
@@ -1505,73 +1568,73 @@ modelo para comenzar
Incrustar documentos usando la API rápida de Nomic en lugar de un modelo local privado. Requiere reinicio.
-
-
-
- El dispositivo de cómputo utilizado para las incrustaciones. "Auto" usa la CPU. Requiere reinicio.
+
+
+
+ Predeterminado de la aplicación
-
-
+
+ Visualización
-
-
+
+ Mostrar fuentes
-
-
+
+ Mostrar las fuentes utilizadas para cada respuesta.
-
-
+
+ Avanzado
-
-
+
+ Advertencia: Solo para uso avanzado.
-
-
+
+ Valores demasiado grandes pueden causar fallos en localdocs, respuestas extremadamente lentas o falta de respuesta. En términos generales, los {N caracteres x N fragmentos} se añaden a la ventana de contexto del modelo. Más información <a href="https://docs.gpt4all.io/gpt4all_desktop/localdocs.html">aquí</a>.
-
-
+
+ Número de caracteres por fragmento de documento. Números más grandes aumentan la probabilidad de respuestas verídicas, pero también resultan en una generación más lenta.
-
-
+
+ Máximo de N mejores coincidencias de fragmentos de documentos recuperados para añadir al contexto del prompt. Números más grandes aumentan la probabilidad de respuestas verídicas, pero también resultan en una generación más lenta.
- Valores demasiado grandes pueden causar fallos en documentos locales, respuestas extremadamente lentas o falta de respuesta. En términos generales, los {N caracteres x N fragmentos} se agregan a la ventana de contexto del modelo. Más información <a href="https://docs.gpt4all.io/gpt4all_desktop/localdocs.html">aquí</a>.
+ Valores demasiado grandes pueden causar fallos en documentos locales, respuestas extremadamente lentas o falta de respuesta. En términos generales, los {N caracteres x N fragmentos} se agregan a la ventana de contexto del modelo. Más información <a href="https://docs.gpt4all.io/gpt4all_desktop/localdocs.html">aquí</a>.
-
-
+
+ Tamaño del fragmento de documento (caracteres)
-
-
+
+ Máximo de fragmentos de documento por indicación
@@ -1597,122 +1660,120 @@ modelo para comenzar
+ Agregar colección
-
-
- ERROR: La base de datos de DocumentosLocales no es válida.
+ ERROR: La base de datos de DocumentosLocales no es válida.
-
-
+
+ No hay colecciones instaladas
-
-
+
+ Instala una colección de documentos locales para comenzar a usar esta función
-
-
+
+ + Agregar colección de documentos
-
-
+
+ Muestra la vista de agregar modelo
-
-
+
+ Barra de progreso de indexación
-
-
+
+ Muestra el progreso realizado en la indexación
-
-
+
+ ERROR
-
-
+
+ INDEXANDO
-
-
+
+ INCRUSTANDO
-
-
+
+ REQUIERE ACTUALIZACIÓN
-
-
+
+ LISTO
-
-
+
+ INSTALANDO
-
-
+
+ Indexación en progreso
-
-
+
+ Incrustación en progreso
-
-
+
+ Esta colección requiere una actualización después del cambio de versión
-
-
+
+ Reindexación automática al cambiar la carpeta
-
-
+
+ Instalación en progreso
-
-
+
+ %
-
-
+
+ %n archivo
@@ -1720,8 +1781,8 @@ modelo para comenzar
-
-
+
+ %n palabra
@@ -1729,32 +1790,32 @@ modelo para comenzar
-
-
+
+ Eliminar
-
-
+
+ Reconstruir
-
-
+
+ Reindexar esta carpeta desde cero. Esto es lento y generalmente no es necesario.
-
-
+
+ Actualizar
-
-
+
+ Actualizar la colección a la nueva versión. Esta es una operación lenta.
@@ -1768,54 +1829,53 @@ modelo para comenzar
ModelList
-
+ <ul><li>Requiere clave API personal de OpenAI.</li><li>ADVERTENCIA: ¡Enviará sus chats a OpenAI!</li><li>Su clave API se almacenará en el disco</li><li>Solo se usará para comunicarse con OpenAI</li><li>Puede solicitar una clave API <a href="https://platform.openai.com/account/api-keys">aquí.</a></li>
-
- <strong>Modelo ChatGPT GPT-3.5 Turbo de
+ <strong>Modelo ChatGPT GPT-3.5 Turbo de
OpenAI</strong><br> %1
-
+ <strong>Modelo ChatGPT GPT-3.5 Turbo de OpenAI</strong><br> %1
-
+ <br><br><i>* Aunque pagues a OpenAI por ChatGPT-4, esto no garantiza el acceso a la clave API. Contacta a OpenAI para más información.
-
+ <strong>Modelo ChatGPT GPT-4 de OpenAI</strong><br> %1 %2
-
+ <ul><li>Requiere una clave API personal de Mistral.</li><li>ADVERTENCIA: ¡Enviará tus chats a Mistral!</li><li>Tu clave API se almacenará en el disco</li><li>Solo se usará para comunicarse con Mistral</li><li>Puedes solicitar una clave API <a href="https://console.mistral.ai/user/api-keys">aquí</a>.</li>
-
+ <strong>Modelo Mistral Tiny</strong><br> %1
-
+ <strong>Modelo Mistral Small</strong><br> %1
-
+ <strong>Modelo Mistral Medium</strong><br> %1
-
+ <strong>Creado por %1.</strong><br><ul><li>Publicado el %2.<li>Este modelo tiene %3 me gusta.<li>Este modelo tiene %4 descargas.<li>Más información puede encontrarse <a href="https://huggingface.co/%5">aquí.</a></ul>
@@ -1830,12 +1890,12 @@ modelo para comenzar
<strong>Modelo de API compatible con OpenAI</strong><br><ul><li>Clave API: %1</li><li>URL base: %2</li><li>Nombre del modelo: %3</li></ul>
-
+ <ul><li>Requiere una clave API personal y la URL base de la API.</li><li>ADVERTENCIA: ¡Enviará sus chats al servidor de API compatible con OpenAI que especificó!</li><li>Su clave API se almacenará en el disco</li><li>Solo se utilizará para comunicarse con el servidor de API compatible con OpenAI</li>
-
+ <strong>Conectar al servidor de API compatible con OpenAI</strong><br> %1
@@ -1885,7 +1945,8 @@ modelo para comenzar
Indicación del sistema
-
+
+ Prefijado al inicio de cada conversación. Debe contener los tokens de encuadre apropiados.
@@ -1902,7 +1963,8 @@ modelo para comenzar
La plantilla que envuelve cada indicación.
-
+
+ Debe contener la cadena "%1" para ser reemplazada con la entrada del usuario.
@@ -1919,175 +1981,176 @@ modelo para comenzar
Indicación utilizada para generar automáticamente nombres de chat.
-
-
+
+ Indicación de seguimiento sugerida
-
-
+
+ Indicación utilizada para generar preguntas de seguimiento sugeridas.
-
-
+
+ Longitud del contexto
-
-
+
+ Número de tokens de entrada y salida que el modelo ve.
-
- Máximo de tokens combinados de indicación/respuesta antes de que se pierda información. Usar más contexto del que se utilizó para entrenar el modelo producirá resultados pobres.
+ Máximo de tokens combinados de indicación/respuesta antes de que se pierda información. Usar más contexto del que se utilizó para entrenar el modelo producirá resultados pobres.
NOTA: No tiene efecto hasta que recargues el modelo.
-
-
+
+ Temperatura
-
-
+
+ Aleatoriedad de la salida del modelo. Mayor -> más variación.
-
+
+ La temperatura aumenta las probabilidades de elegir tokens menos probables.
NOTA: Una temperatura más alta da resultados más creativos pero menos predecibles.
-
-
+
+ Top-P
-
-
+
+ Factor de muestreo de núcleo. Menor -> más predecible.
-
+
+ Solo se pueden elegir los tokens más probables hasta una probabilidad total de top_p.
NOTA: Evita elegir tokens altamente improbables.
-
-
+
+ Min-P
-
-
+
+ Probabilidad mínima del token. Mayor -> más predecible.
-
-
+
+ Establece la probabilidad relativa mínima para que un token sea considerado.
-
-
+
+ Top-K
-
-
+
+ Tamaño del grupo de selección para tokens.
-
-
+
+ Solo se elegirán los K tokens más probables.
-
-
+
+ Longitud máxima
-
-
+
+ Longitud máxima de respuesta, en tokens.
-
-
+
+ Tamaño del lote de indicaciones
-
-
+
+ El tamaño del lote utilizado para el procesamiento de indicaciones.
-
-
+
+ Cantidad de tokens de prompt a procesar de una vez.
NOTA: Valores más altos pueden acelerar la lectura de prompts, pero usarán más RAM.
-
-
+
+ Penalización por repetición
-
-
+
+ Factor de penalización por repetición. Establecer a 1 para desactivar.
-
-
+
+ Tokens de penalización por repetición
-
-
+
+ Número de tokens anteriores utilizados para la penalización.
-
-
+
+ Capas de GPU
-
-
+
+ Número de capas del modelo a cargar en la VRAM.
@@ -2115,228 +2178,234 @@ NOTA: No surte efecto hasta que recargue el modelo.
ModelsView
-
-
+
+ No hay modelos instalados
-
-
+
+ Instala un modelo para empezar a usar GPT4All
-
-
-
-
+
+
+
+ + Agregar modelo
-
-
+
+ Muestra la vista de agregar modelo
-
-
+
+ Modelos instalados
-
-
+
+ Modelos de chat instalados localmente
-
-
+
+ Archivo del modelo
-
-
+
+ Archivo del modelo a descargar
-
-
+
+ Descripción
-
-
+
+ Descripción del archivo
-
-
+
+ Cancelar
-
-
+
+ Reanudar
-
-
+
+ Detener/reiniciar/iniciar la descarga
-
-
+
+ Eliminar
-
-
+
+ Eliminar modelo del sistema de archivos
-
-
-
-
+
+
+
+ Instalar
-
-
+
+ Instalar modelo en línea
-
+
+ <strong><font size="1"><a href="#error">Error</a></strong></font>
-
+
+ <strong><font size="2">ADVERTENCIA: No recomendado para su hardware. El modelo requiere más memoria (%1 GB) de la que su sistema tiene disponible (%2).</strong></font>
-
-
+
+ %1 GB
-
-
+
+ ?
-
-
+
+ Describe un error que ocurrió durante la descarga
-
-
+
+ Error por hardware incompatible
-
-
+
+ Barra de progreso de descarga
-
-
+
+ Muestra el progreso realizado en la descarga
-
-
+
+ Velocidad de descarga
-
-
+
+ Velocidad de descarga en bytes/kilobytes/megabytes por segundo
-
-
+
+ Calculando...
-
-
+
+
+
+
+
+ Si se está calculando el hash del archivo
-
-
+
+ Indicador de ocupado
-
-
+
+ Se muestra cuando se está calculando el hash del archivo
-
-
+
+ ingrese $API_KEY
-
-
+
+ Tamaño del archivo
-
-
+
+ RAM requerida
-
-
+
+ Parámetros
-
-
+
+ Cuantificación
-
-
+
+ Tipo
@@ -2427,7 +2496,7 @@ response. If you dislike a response, you can suggest an alternative response. Th
data will be collected and aggregated in the GPT4All Datalake.
NOTE: By turning on this feature, you will be sending your data to the GPT4All Open Source Datalake. You should have no expectation of chat privacy when this feature is enabled. You should; however, have an expectation of an optional attribution if you wish. Your chat data will be openly available for anyone to download and will be used by Nomic AI to improve future GPT4All models. Nomic AI will retain all attribution information attached to your data and you will be credited as a contributor to any GPT4All model release that uses your data!
- Al habilitar esta función, podrá participar en el proceso democrático de entrenamiento de un modelo de lenguaje grande contribuyendo con datos para futuras mejoras del modelo. Cuando un modelo GPT4All le responda y usted haya aceptado, su conversación se enviará al Datalake de código abierto de GPT4All. Además, puede dar me gusta/no me gusta a su respuesta. Si no le gusta una respuesta, puede sugerir una alternativa. Estos datos se recopilarán y agregarán en el Datalake de GPT4All.
+ Al habilitar esta función, podrá participar en el proceso democrático de entrenamiento de un modelo de lenguaje grande contribuyendo con datos para futuras mejoras del modelo. Cuando un modelo GPT4All le responda y usted haya aceptado, su conversación se enviará al Datalake de código abierto de GPT4All. Además, puede dar me gusta/no me gusta a su respuesta. Si no le gusta una respuesta, puede sugerir una alternativa. Estos datos se recopilarán y agregarán en el Datalake de GPT4All.
NOTA: Al activar esta función, enviará sus datos al Datalake de código abierto de GPT4All. No debe esperar privacidad en el chat cuando esta función esté habilitada. Sin embargo, puede esperar una atribución opcional si lo desea. Sus datos de chat estarán disponibles abiertamente para que cualquiera los descargue y serán utilizados por Nomic AI para mejorar futuros modelos de GPT4All. Nomic AI conservará toda la información de atribución adjunta a sus datos y se le acreditará como contribuyente en cualquier lanzamiento de modelo GPT4All que utilice sus datos.
@@ -2545,9 +2614,8 @@ NOTA: Al activar esta función, estarás enviando tus datos al Datalake de Códi
QObject
-
- Predeterminado
+ Predeterminado
@@ -2606,26 +2674,22 @@ NOTA: Al activar esta función, estarás enviando tus datos al Datalake de Códi
Notas de la versión para esta versión
-
-
- ### Notas de la versión
+ ### Notas de la versión
%1### Colaboradores
%2
-
-
- ### Autorización para análisis de uso anónimo y datalake Al habilitar estas funciones, podrás participar en el proceso democrático de entrenar un modelo de lenguaje grande contribuyendo con datos para futuras mejoras del modelo. Cuando un modelo GPT4All te responda y hayas aceptado participar, tu conversación se enviará al Datalake de Código Abierto de GPT4All. Además, podrás indicar si te gusta o no su respuesta. Si no te gusta una respuesta, puedes sugerir una alternativa. Estos datos se recopilarán y agregarán en el Datalake de GPT4All.
+ ### Autorización para análisis de uso anónimo y datalake Al habilitar estas funciones, podrás participar en el proceso democrático de entrenar un modelo de lenguaje grande contribuyendo con datos para futuras mejoras del modelo. Cuando un modelo GPT4All te responda y hayas aceptado participar, tu conversación se enviará al Datalake de Código Abierto de GPT4All. Además, podrás indicar si te gusta o no su respuesta. Si no te gusta una respuesta, puedes sugerir una alternativa. Estos datos se recopilarán y agregarán en el Datalake de GPT4All.
NOTA: Al activar esta función, estarás enviando tus datos al Datalake de Código Abierto de GPT4All. No debes esperar privacidad en el chat cuando esta función esté habilitada. Sin embargo, puedes esperar una atribución opcional si lo deseas. Tus datos de chat estarán disponibles abiertamente para que cualquiera los descargue y serán utilizados por Nomic AI para mejorar futuros modelos de GPT4All. Nomic AI conservará toda la información de atribución adjunta a tus datos y se te acreditará como colaborador en cualquier lanzamiento de modelo GPT4All que utilice tus datos.
@@ -2765,7 +2829,7 @@ lanzamiento de modelo GPT4All que utilice sus datos.
- <b>Advertencia:</b> cambiar el modelo borrará la conversación
+ <b>Advertencia:</b> cambiar el modelo borrará la conversación
actual. ¿Desea continuar?
@@ -2989,55 +3053,4 @@ LocalesVista de modelos instalados
-
- ChatAPIWorker
-
-
-
- ERROR: Ocurrió un error de red al conectar con el servidor API
-
-
-
-
- ChatAPIWorker::handleFinished obtuvo Error HTTP %1 %2
-
-
-
- Download
-
-
-
- El modelo "%1" se ha instalado correctamente.
-
-
-
-
- ERROR: $MODEL_NAME está vacío.
-
-
-
-
- ERROR: $API_KEY está vacía.
-
-
-
-
- ERROR: $BASE_URL no es válida.
-
-
-
-
- ERROR: El modelo "%1 (%2)" está en conflicto.
-
-
-
-
- El modelo "%1 (%2)" se ha instalado correctamente.
-
-
-
-
- El modelo "%1" ha sido eliminado.
-
-
diff --git a/gpt4all-chat/translations/gpt4all_it_IT.ts b/gpt4all-chat/translations/gpt4all_it_IT.ts
index e956c412..68cf05f9 100644
--- a/gpt4all-chat/translations/gpt4all_it_IT.ts
+++ b/gpt4all-chat/translations/gpt4all_it_IT.ts
@@ -115,44 +115,44 @@
Attiva la scoperta e il filtraggio dei modelli
-
-
+
+ Predefinito
-
-
+
+ Mi piace
-
-
+
+ Scaricamenti
-
-
+
+ Recenti
-
-
+
+ Asc
-
-
+
+ Disc
-
-
+
+ Niente
@@ -163,266 +163,266 @@
Ricerca · %1
-
-
+
+ Ordina per: %1
-
-
+
+ Direzione ordinamento: %1
-
-
+
+ Limite: %1
-
-
+
+ Errore di rete: impossibile recuperare %1
-
-
-
-
+
+
+
+ Indicatore di occupato
-
-
+
+ Visualizzato quando la richiesta dei modelli è in corso
-
-
+
+ File del modello
-
-
+
+ File del modello da scaricare
-
-
+
+ Descrizione
-
-
+
+ Descrizione del file
-
-
+
+ Annulla
-
-
+
+ Riprendi
-
-
+
+ Scarica
-
-
+
+ Arresta/riavvia/avvia il download
-
-
+
+ Rimuovi
-
-
+
+ Rimuovi il modello dal sistema dei file
-
-
-
-
+
+
+
+ Installa
-
-
+
+ Installa il modello online
-
-
+
+ <strong><font size="2">AVVERTENZA: non consigliato per il tuo hardware. Il modello richiede più memoria (%1 GB) di quella disponibile nel sistema (%2).</strong></font>
-
-
+
+ ERRORE: $API_KEY è vuoto.
-
-
+
+ ERRORE: $BASE_URL non è valido.
-
-
+
+ inserisci $BASE_URL
-
-
+
+ ERRORE: $MODEL_NAME è vuoto.
-
-
+
+ inserisci $MODEL_NAME
-
-
+
+
-
-
-
-
+
+
+
+
-
-
+
+ Descrive un errore che si è verificato durante lo scaricamento
-
-
+
+ <strong><font size="1"><a href="#error">Errore</a></strong></font>
-
-
+
+ Errore per hardware incompatibile
-
-
+
+ Barra di avanzamento dello scaricamento
-
-
+
+ Mostra lo stato di avanzamento dello scaricamento
-
-
+
+ Velocità di scaricamento
-
-
+
+ Velocità di scaricamento in byte/kilobyte/megabyte al secondo
-
-
+
+ Calcolo in corso...
-
-
-
-
-
-
-
-
+
+
+
+
+
+
+
+ Se viene calcolato l'hash del file
-
-
+
+ Visualizzato durante il calcolo dell'hash del file
-
-
+
+ Inserire $API_KEY
-
-
+
+ Dimensione del file
-
-
+
+ RAM richiesta
-
-
+
+ Parametri
-
-
+
+ Quant
-
-
+
+ Tipo
@@ -490,74 +490,74 @@
La combinazione di colori dell'applicazione.
-
-
+
+ Scuro
-
-
+
+ Chiaro
-
-
+
+ Scuro Legacy
-
-
+
+ Dimensioni del Font
-
-
+
+ La dimensione del testo nell'applicazione.
-
-
+
+ Piccolo
-
-
+
+ Medio
-
-
+
+ Grande
-
-
+
+ Lingua e settaggi locali
-
-
+
+ La lingua e i settaggi locali che vuoi utilizzare.
-
-
+
+ Settaggi locali del sistema
-
-
+
+ Dispositivo
@@ -566,167 +566,167 @@
Il dispositivo di calcolo utilizzato per la generazione del testo. "Auto" utilizza Vulkan o Metal.
-
-
+
+ Il dispositivo di calcolo utilizzato per la generazione del testo.
-
-
-
-
+
+
+
+ Applicazione predefinita
-
-
+
+ Modello predefinito
-
-
+
+ Il modello preferito per le nuove chat. Utilizzato anche come ripiego del server locale.
-
-
+
+ Modalità suggerimento
-
-
+
+ Genera le domande di approfondimento suggerite alla fine delle risposte.
-
-
+
+ Quando chatti con LocalDocs
-
-
+
+ Quando possibile
-
-
+
+ Mai
-
-
+
+ Percorso di scarico
-
-
+
+ Dove archiviare i modelli locali e il database LocalDocs.
-
-
+
+ Esplora
-
-
+
+ Scegli dove salvare i file del modello
-
-
+
+ Abilita Datalake
-
-
+
+ Invia chat e commenti al Datalake Open Source GPT4All.
-
-
+
+ Avanzate
-
-
+
+ Thread della CPUTread CPU
-
-
+
+ Il numero di thread della CPU utilizzati per l'inferenza e l'incorporamento.
-
-
+
+ Salva il contesto della chat
-
-
+
+ Salva lo stato del modello di chat su disco per un caricamento più rapido. ATTENZIONE: utilizza circa 2 GB per chat.
-
-
+
+ Abilita server locale
-
-
+
+ Esporre un server compatibile con OpenAI a localhost. ATTENZIONE: comporta un maggiore utilizzo delle risorse.
-
-
+
+ Porta del server API
-
-
+
+ La porta da utilizzare per il server locale. Richiede il riavvio.
-
-
+
+ Controlla gli aggiornamenti
-
-
+
+ Verifica manualmente l'aggiornamento di GPT4All.
-
-
+
+ Aggiornamenti
@@ -1531,66 +1531,72 @@ modello per iniziare
-
- Il dispositivo di calcolo utilizzato per gli incorporamenti. "Auto" utilizza la CPU. Richiede il riavvio.
+
+ Il dispositivo di calcolo utilizzato per gli incorporamenti. Richiede il riavvio.
-
-
+
+
+
+ Applicazione predefinita
+
+
+
+ Mostra
-
-
+
+ Mostra le fonti
-
-
+
+ Visualizza le fonti utilizzate per ciascuna risposta.
-
-
+
+ Avanzate
-
-
+
+ Avvertenza: solo per uso avanzato.
-
-
+
+ Valori troppo grandi possono causare errori di Localdocs, risposte estremamente lente o l'impossibilità di rispondere. In parole povere, {N caratteri x N frammenti} vengono aggiunti alla finestra di contesto del modello. Maggiori informazioni <a href="https://docs.gpt4all.io/gpt4all_desktop/localdocs.html">qui</a>.
-
-
+
+ Dimensioni del frammento di documento (caratteri)
-
-
+
+ Numero di caratteri per frammento di documento. Numeri più grandi aumentano la probabilità di risposte basate sui fatti, ma comportano anche una generazione più lenta.
-
-
+
+ Numero massimo di frammenti di documento per prompt
-
-
+
+ Numero massimo di N corrispondenze migliori di frammenti di documento recuperati da aggiungere al contesto del prompt. Numeri più grandi aumentano la probabilità di risposte basate sui fatti, ma comportano anche una generazione più lenta.
diff --git a/gpt4all-chat/translations/gpt4all_pt_BR.ts b/gpt4all-chat/translations/gpt4all_pt_BR.ts
index 45d5e103..7697a400 100644
--- a/gpt4all-chat/translations/gpt4all_pt_BR.ts
+++ b/gpt4all-chat/translations/gpt4all_pt_BR.ts
@@ -115,44 +115,44 @@
Aciona a descoberta e filtragem de modelos
-
-
+
+ Padrão
-
-
+
+ Curtidas
-
-
+
+ Downloads
-
-
+
+ Recentes
-
-
+
+ Asc
-
-
+
+ Desc
-
-
+
+ Nenhum
@@ -163,266 +163,266 @@
Pesquisando · %1
-
-
+
+ Ordenar por: %1
-
-
+
+ Ordenar diretório: %1
-
-
+
+ Limite: %1
-
-
+
+ Erro de rede: não foi possível obter %1
-
-
-
-
+
+
+
+ Indicador de processamento
-
-
+
+ xibido enquanto os modelos estão sendo carregados
-
-
+
+ Arquivo do modelo
-
-
+
+ Arquivo do modelo a ser baixado
-
-
+
+ Descrição
-
-
+
+ Descrição do arquivo
-
-
+
+ Cancelar
-
-
+
+ Retomar
-
-
+
+ Baixar
-
-
+
+ Parar/reiniciar/iniciar o download
-
-
+
+ Remover
-
-
+
+ Remover modelo do sistema
-
-
-
-
+
+
+
+ Instalar
-
-
+
+ Instalar modelo online
-
-
+
+ <strong><font size="2">ATENÇÃO: Este modelo não é recomendado para seu hardware. Ele exige mais memória (%1 GB) do que seu sistema possui (%2).</strong></font>
-
-
+
+ ERRO: A $API_KEY está vazia.
-
-
+
+ ERRO: A $BASE_URL está vazia.
-
-
+
+ inserir a $BASE_URL
-
-
+
+ ERRO: O $MODEL_NAME está vazio.
-
-
+
+ inserir o $MODEL_NAME
-
-
+
+ %1 GB
-
-
-
-
+
+
+
+ ?
-
-
+
+ Mostra informações sobre o erro no download
-
-
+
+ <strong><font size="1"><a href="#error">Erro</a></strong></font>
-
-
+
+ Aviso: Hardware não compatível
-
-
+
+ Progresso do download
-
-
+
+ Mostra o progresso do download
-
-
+
+ Velocidade de download
-
-
+
+ Velocidade de download em bytes/kilobytes/megabytes por segundo
-
-
+
+ Calculando...
-
-
-
-
-
-
-
-
+
+
+
+
+
+
+
+ Quando o hash do arquivo está sendo calculado
-
-
+
+ Exibido durante o cálculo do hash do arquivo
-
-
+
+ inserir $API_KEY
-
-
+
+ Tamanho do arquivo
-
-
+
+ RAM necessária
-
-
+
+ Parâmetros
-
-
+
+ Quant
-
-
+
+ Tipo
@@ -496,240 +496,240 @@
Esquema de cores.
-
-
+
+ Modo Escuro
-
-
+
+ Modo Claro
-
-
+
+ Modo escuro (legado)
-
-
+
+ Tamanho da Fonte
-
-
+
+ Tamanho do texto.
-
-
+
+ Pequeno
-
-
+
+ Médio
-
-
+
+ Grande
-
-
+
+ Idioma e Região
-
-
+
+ Selecione seu idioma e região.
-
-
+
+ Local do Sistema
-
-
+
+ Processador
-
-
+
+ I chose to use "Processador" instead of "Dispositivo" (Device) or "Dispositivo de Computação" (Compute Device) to simplify the terminology and make it more straightforward and understandable. "Dispositivo" can be vague and could refer to various types of hardware, whereas "Processador" clearly and specifically indicates the component responsible for processing tasks. This improves usability by avoiding the ambiguity that might arise from using more generic terms like "Dispositivo."Processador usado para gerar texto.
-
-
-
-
+
+
+
+ Aplicativo padrão
-
-
+
+ Modelo Padrão
-
-
+
+ Modelo padrão para novos chats e em caso de falha do modelo principal.
-
-
+
+ Modo de sugestões
-
-
+
+ Sugerir perguntas após as respostas.
-
-
+
+ Ao conversar com o LocalDocs
-
-
+
+ Sempre que possível
-
-
+
+ Nunca
-
-
+
+ Diretório de Download
-
-
+
+ Pasta para modelos e banco de dados do LocalDocs.
-
-
+
+ Procurar
-
-
+
+ Local para armazenar os modelos
-
-
+
+ Habilitar Datalake
-
-
+
+ Contribua para o Datalake de código aberto do GPT4All.
-
-
+
+ Avançado
-
-
+
+ Threads de CPU
-
-
+
+ Quantidade de núcleos (threads) do processador usados para processar e responder às suas perguntas.
-
-
+
+ I used "Histórico do Chat" (Chat History) instead of "Contexto do Chat" (Chat Context) to clearly convey that it refers to saving past messages, making it more intuitive and avoiding potential confusion with abstract terms.Salvar Histórico do Chat
-
-
+
+ Salvar histórico do chat para carregamento mais rápido. (Usa aprox. 2GB por chat).
-
-
+
+ Ativar Servidor Local
-
-
+
+ Ativar servidor local compatível com OpenAI (uso de recursos elevado).
-
-
+
+ Porta da API
-
-
+
+ Porta de acesso ao servidor local. (requer reinicialização).
-
-
+
+ Procurar por Atualizações
-
-
+
+ Verifica se há novas atualizações para o GPT4All.
-
-
+
+ Atualizações
@@ -1533,67 +1533,73 @@ modelo instalado para funcionar
-
- Dispositivo usado para processar as incorporações. "Automático" utiliza a CPU. Requer reinicialização.
+
+ Dispositivo usado para processar as incorporações. Requer reinicialização.
-
-
+
+
+
+ Aplicativo padrão
+
+
+
+ Exibir
-
-
+
+ Mostrar Fontes
-
-
+
+ Mostra as fontes usadas para cada resposta.
-
-
+
+ Apenas para usuários avançados
-
-
+
+ Atenção: Apenas para usuários avançados.
-
-
+
+ Valores muito altos podem causar falhas no LocalDocs, respostas extremamente lentas ou até mesmo nenhuma resposta. De forma geral, o valor {Número de Caracteres x Número de Trechos} é adicionado à janela de contexto do modelo. Clique <a href="https://docs.gpt4all.io/gpt4all_desktop/localdocs.html">aqui</a> para mais informações.
-
-
+
+ I translated "snippet" as "trecho" to make the term feel more natural and understandable in Portuguese. "Trecho" effectively conveys the idea of a portion or section of a document, fitting well within the context, whereas a more literal translation might sound less intuitive or awkward for users.Tamanho do trecho de documento (caracteres)
-
-
+
+ Número de caracteres por trecho de documento. Valores maiores aumentam a chance de respostas factuais, mas também tornam a geração mais lenta.
-
-
+
+ Máximo de Trechos de Documento por Prompt
-
-
+
+ Número máximo de trechos de documentos a serem adicionados ao contexto do prompt. Valores maiores aumentam a chance de respostas factuais, mas também tornam a geração mais lenta.
diff --git a/gpt4all-chat/translations/gpt4all_ro_RO.ts b/gpt4all-chat/translations/gpt4all_ro_RO.ts
index f8855d48..219dc777 100644
--- a/gpt4all-chat/translations/gpt4all_ro_RO.ts
+++ b/gpt4all-chat/translations/gpt4all_ro_RO.ts
@@ -7,30 +7,30 @@
- ← Colecţiile curente
+ ← Colecţiile curente
- Adaugă o Colecţie de documente
+ Adaugă o Colecţie de documente
- Adaugă un folder care conţine fişiere în cu text-simplu, PDF sau Markdown. Extensii suplimentare pot fi specificate în Configurare.
+ Adaugă un folder care conţine fişiere în cu text-simplu, PDF sau Markdown. Extensii suplimentare pot fi specificate în Configurare.
- Adaugă un folder cu fişiere în format text, PDF sau Markdown. Alte extensii pot fi adăugate în Configurare.
+ Adaugă un folder cu fişiere în format text, PDF sau Markdown. Alte extensii pot fi adăugate în Configurare.
- Selectează un folder/director
+ Selectează un folder/director
@@ -42,13 +42,13 @@
- Denumirea Colecţiei...
+ Denumirea Colecţiei...
- Denumirea Colecţiei de adăugat (necesar)
+ Denumirea Colecţiei de adăugat (necesar)
@@ -72,13 +72,13 @@
- Căutare
+ Căutare
- Creează o Colecţie
+ Creează o Colecţie
@@ -93,71 +93,71 @@
- Caută modele
+ Caută modele
- Caută şi descarcă modele după un cuvânt-cheie...
+ Caută şi descarcă modele după un cuvânt-cheie...
- Câmp pentru căutarea şi filtrarea modelelor ce pot fi descărcate
+ Câmp pentru căutarea şi filtrarea modelelor ce pot fi descărcate
- Iniţiază căutarea şi filtrarea modelelor
+ Iniţiază căutarea şi filtrarea modelelor
- Activează căutarea şi filtrarea modelelor
+ Activează căutarea şi filtrarea modelelor
-
-
+
+ Implicit
-
-
+
+ Likes
-
-
+
+ Download-uri
-
-
+
+ Recent/e
-
-
+
+ Asc. (A->Z)
-
-
+
+ Desc. (Z->A)
-
-
+
+ Niciunul
@@ -165,158 +165,158 @@
- Căutare · %1
+ Căutare · %1
-
-
+
+
- Ordonare după: %1
+ Ordonare după: %1
-
-
+
+
- Sensul ordonării: %1
+ Sensul ordonării: %1
-
-
+
+
- Límită: %1
+ Límită: %1
-
-
+
+
- Eroare de reţea: nu se poate prelua %1
+ Eroare de reţea: nu se poate prelua %1
-
-
-
-
+
+
+
+ Indicator de activitate
-
-
+
+
- Afişat în timpul solicitării modelului
+ Afişat în timpul solicitării modelului
-
-
+
+
- Fişierul modelului
+ Fişierul modelului
-
-
+
+
- Fişierul modelului de descărcat
+ Fişierul modelului de descărcat
-
-
+
+ Descriere
-
-
+
+
- Descrierea fişierului
+ Descrierea fişierului
-
-
+
+ Anulare
-
-
+
+ Continuare
-
-
+
+ Download
-
-
+
+
- Opreşte/Reporneşte/Începe descărcarea
+ Opreşte/Reporneşte/Începe descărcarea
-
-
+
+
- şterge
+ şterge
-
-
+
+
- şterge modelul din sistemul de fişiere
+ şterge modelul din sistemul de fişiere
-
-
-
-
+
+
+
+ Instalare
-
-
+
+ Instalez un model din online
-
-
+
+ <strong><font size="1"><a href="#error">Eroare</a></strong></font>
-
-
+
+
- <strong><font size="2">ATENŢIE: Nerecomandat pentru acest hardware. Modelul necesită mai multă memorie (%1 GB) decât are acest sistem
+ <strong><font size="2">ATENŢIE: Nerecomandat pentru acest hardware. Modelul necesită mai multă memorie (%1 GB) decât are acest sistem
(%2).</strong></font>
- <strong><font size="2">ATENţIE: Nerecomandat pentru acest hardware. Modelul necesită mai multă memorie (%1 GB) decât cea disponibilă în sistem (%2).</strong></font>
+ <strong><font size="2">ATENţIE: Nerecomandat pentru acest hardware. Modelul necesită mai multă memorie (%1 GB) decât cea disponibilă în sistem (%2).</strong></font>
-
-
+
+ %1 GB
-
-
-
-
+
+
+
+ ?
-
-
+
+
- Descrie eroarea apărută în timpul descărcării
+ Descrie eroarea apărută în timpul descărcării
-
-
+
+ Eroare: hardware incompatibil
-
-
+
+
- Progresia descărcării
+ Progresia descărcării
-
-
+
+
- Afişează progresia descărcării
+ Afişează progresia descărcării
-
-
+
+ Viteza de download
-
-
+
+
- Viteza de download în bytes/kilobytes/megabytes pe secundă
+ Viteza de download în bytes/kilobytes/megabytes pe secundă
-
-
+
+ Calculare...
-
-
-
-
-
-
-
-
+
+
+
+
+
+
+
+
- Dacă se calculează hash-ul fişierului
+ Dacă se calculează hash-ul fişierului
-
-
+
+
- Se afişează când se calculează hash-ul fişierului
+ Se afişează când se calculează hash-ul fişierului
-
-
+
+
- EROARE: $API_KEY absentă
+ EROARE: $API_KEY absentă
-
-
+
+ introdu cheia $API_KEY
-
-
+
+
- EROARE: $BASE_URL absentă
+ EROARE: $BASE_URL absentă
-
-
+
+ introdu $BASE_URL
-
-
+
+ EROARE: $MODEL_NAME absent
-
-
+
+ introdu $MODEL_NAME
-
-
+
+
- Dimensiunea fişierului
+ Dimensiunea fişierului
-
-
+
+
- RAM necesară
+ RAM necesară
-
-
+
+ Parametri
-
-
+
+ Quant(ificare)
-
-
+
+ Tip
@@ -450,13 +450,13 @@
- Aplicaţie/Program
+ Aplicaţie/Program
- Reţea
+ Reţea
@@ -473,7 +473,7 @@
If you can't start it manually, then I'm afraid you'll have
to<br>
reinstall.
- EROARE: Sistemul de actualizare nu poate găsi componenta MaintenanceTool<br> necesară căutării de versiuni noi!<br><br> Ai instalat acest program folosind kitul online? Dacă da,<br> atunci MaintenanceTool trebuie să fie un nivel mai sus de folderul<br> unde ai instalat programul.<br><br> Dacă nu poate fi lansată manual, atunci programul trebuie reinstalat.
+ EROARE: Sistemul de actualizare nu poate găsi componenta MaintenanceTool<br> necesară căutării de versiuni noi!<br><br> Ai instalat acest program folosind kitul online? Dacă da,<br> atunci MaintenanceTool trebuie să fie un nivel mai sus de folderul<br> unde ai instalat programul.<br><br> Dacă nu poate fi lansată manual, atunci programul trebuie reinstalat.
@@ -497,7 +497,7 @@
- Tema pentru interfaţă
+ Tema pentru interfaţă
@@ -506,38 +506,38 @@
Schema de culori a programului.
-
-
+
+
- Întunecat
+ Întunecat
-
-
+
+ Luminos
-
-
+
+
- Întunecat-vechi
+ Întunecat-vechi
-
-
+
+ Dimensiunea textului
-
-
+
+
- Dimensiunea textului în program.
+ Dimensiunea textului în program.
-
-
+
+ Dispozitiv/Device
@@ -545,7 +545,7 @@
Dispozitivul de calcul utilizat pentru generarea de text.
- "Auto" apelează la Vulkan sau la Metal.
+ "Auto" apelează la Vulkan sau la Metal.
@@ -557,217 +557,217 @@
above where this application resides on your filesystem.<br><br>
If you can't start it manually, then I'm afraid you'll have to<br>
reinstall.
- EROARE: Sistemul de Update nu poate găsi componenta MaintenanceTool<br> necesară căutării de versiuni noi!<br><br> Ai instalat acest program folosind kitul online? Dacă da,<br> atunci MaintenanceTool trebuie să fie un nivel mai sus de folderul<br> unde ai instalat programul.<br><br> Dacă nu poate fi lansată manual, atunci programul trebuie reinstalat.
+ EROARE: Sistemul de Update nu poate găsi componenta MaintenanceTool<br> necesară căutării de versiuni noi!<br><br> Ai instalat acest program folosind kitul online? Dacă da,<br> atunci MaintenanceTool trebuie să fie un nivel mai sus de folderul<br> unde ai instalat programul.<br><br> Dacă nu poate fi lansată manual, atunci programul trebuie reinstalat.
-
-
+
+ Mic
-
-
+
+ Mediu
-
-
+
+ Mare
-
-
+
+
- Limbă şi Localizare
+ Limbă şi Localizare
-
-
+
+
- Limba şi Localizarea de utilizat
+ Limba şi Localizarea de utilizat
-
-
+
+ Localizare
-
-
+
+ Dispozitivul de calcul utilizat pentru generarea de text.
-
-
-
-
+
+
+
+ Implicit
-
-
+
+ Modelul implicit
-
-
+
+
- Modelul preferat pentru noile conversaţii. Va fi folosit drept rezervă pentru serverul local.
+ Modelul preferat pentru noile conversaţii. Va fi folosit drept rezervă pentru serverul local.
-
-
+
+ Modul de sugerare
-
-
+
+
- Generarea de Întrebări pentru continuare, la finalul replicilor.
+ Generarea de Întrebări pentru continuare, la finalul replicilor.
-
-
+
+
- Când se discută cu LocalDocs
+ Când se discută cu LocalDocs
-
-
+
+
- Oricând e posibil
+ Oricând e posibil
-
-
+
+
- Niciodată
+ Niciodată
-
-
+
+ Calea pentru download
-
-
+
+
- Unde să fie plasate modelele şi baza de date LocalDocs.
+ Unde să fie plasate modelele şi baza de date LocalDocs.
-
-
+
+
- Căutare
+ Căutare
-
-
+
+
- Selectează locul unde vor fi plasate fişierele modelelor
+ Selectează locul unde vor fi plasate fişierele modelelor
-
-
+
+
- Activează DataLake
+ Activează DataLake
-
-
+
+
- Trimite conversaţii şi comentarii către componenta Open-source DataLake a GPT4All.
+ Trimite conversaţii şi comentarii către componenta Open-source DataLake a GPT4All.
-
-
+
+ Avansate
-
-
+
+ Thread-uri CPU
-
-
+
+
- Numărul de thread-uri CPU utilizate pentru inferenţă şi embedding.
-
-
-
-
-
- Salvarea contextului conversaţiei
-
-
-
-
-
- Salvează pe disc starea modelului pentru încărcare mai rapidă. ATENŢIE: Consumă ~2GB/conversaţie.
+ Numărul de thread-uri CPU utilizate pentru inferenţă şi embedding.
+
+ Salvarea contextului conversaţiei
+
+
+
+
+
+ Salvează pe disc starea modelului pentru încărcare mai rapidă. ATENŢIE: Consumă ~2GB/conversaţie.
+
+
+
+
- Activează pe localhost un Server compatibil cu Open-AI. ATENŢIE: Creşte consumul de resurse.
+ Activează pe localhost un Server compatibil cu Open-AI. ATENŢIE: Creşte consumul de resurse.
- Salvează pe disc starea modelului pentru Încărcare mai rapidă. ATENţIE: Consumă ~2GB/conversaţie.
-
-
-
-
-
- Activează Serverul local
-
-
-
- Activează pe localhost un Server compatibil cu Open-AI. ATENţIE: Creşte consumul de resurse.
-
-
-
-
-
- Portul Serverului API
+ Salvează pe disc starea modelului pentru Încărcare mai rapidă. ATENţIE: Consumă ~2GB/conversaţie.
+
+ Activează Serverul local
+
+
+
+ Activează pe localhost un Server compatibil cu Open-AI. ATENţIE: Creşte consumul de resurse.
+
+
+
+
+
+ Portul Serverului API
+
+
+
+
- Portul utilizat pentru Serverul local. Necesită repornirea programului.
+ Portul utilizat pentru Serverul local. Necesită repornirea programului.
-
-
+
+
- Caută update-uri
+ Caută update-uri
-
-
+
+
- Caută manual update-uri pentru GPT4All.
+ Caută manual update-uri pentru GPT4All.
-
-
+
+
- Update-uri/Actualizări
+ Update-uri/Actualizări
@@ -776,12 +776,12 @@
- Chat/Conversaţie Nouă
+ Chat/Conversaţie Nouă
- Conversaţie cu Serverul
+ Conversaţie cu Serverul
@@ -789,7 +789,7 @@
- EROARE: Eroare de reţea - conectarea la serverul API
+ EROARE: Eroare de reţea - conectarea la serverul API
@@ -815,61 +815,61 @@
- + Conversaţie nouă
+ + Conversaţie nouă
- Creează o Conversaţie nouă
+ Creează o Conversaţie nouă
- Selectează conversaţia curentă sau editeaz-o când eşti în modul editare
+ Selectează conversaţia curentă sau editeaz-o când eşti în modul editare
- Editează denumirea conversaţiei
+ Editează denumirea conversaţiei
- Salveazăa denumirea conversaţiei
+ Salveazăa denumirea conversaţiei
- şterge conversaţia
+ şterge conversaţia
- CONFIRMă ştergerea conversaţiei
+ CONFIRMă ştergerea conversaţiei
- ANULEAZă ştergerea conversaţiei
+ ANULEAZă ştergerea conversaţiei
- Lista conversaţiilor
+ Lista conversaţiilor
- Lista conversaţiilor în secţiunea-sertar
+ Lista conversaţiilor în secţiunea-sertar
@@ -877,12 +877,12 @@
- ASTăZI
+ ASTăZI
- SăPTăMâNA ACEASTA
+ SăPTăMâNA ACEASTA
@@ -892,7 +892,7 @@
- ULTIMELE şASE LUNI
+ ULTIMELE şASE LUNI
@@ -911,7 +911,7 @@
- <h3>Atenţie</h3><p>%1</p>
+ <h3>Atenţie</h3><p>%1</p>
@@ -923,43 +923,43 @@
- Avertizează utilizatorul că la schimbarea modelului va fi şters contextul
+ Avertizează utilizatorul că la schimbarea modelului va fi şters contextul
- Conversaţia a fost plasată în Clipboard.
+ Conversaţia a fost plasată în Clipboard.
- Codul a fost plasat în Clipboard.
+ Codul a fost plasat în Clipboard.
- Secţiunea de chat
+ Secţiunea de chat
- Secţiunea de chat cu opţiuni
+ Secţiunea de chat cu opţiuni
- ReÎncarcă modelul curent
+ ReÎncarcă modelul curent
- Ejectează modelul curent
+ Ejectează modelul curent
@@ -971,25 +971,25 @@
- Eroare la Încărcarea modelului.
+ Eroare la Încărcarea modelului.
- Se aşteaptă modelul...
+ Se aşteaptă modelul...
- Se schimbă contextul...
+ Se schimbă contextul...
- Selectează un model...
+ Selectează un model...
@@ -1021,19 +1021,19 @@
- adaugă Colecţii de documente la conversaţie
+ adaugă Colecţii de documente la conversaţie
- Încarcă modelul implicit
+ Încarcă modelul implicit
- Încarcă modelul implicit care poate fi stabilit în Configurare
+ Încarcă modelul implicit care poate fi stabilit în Configurare
@@ -1044,60 +1044,60 @@
- GPT4All necesită cel puţin un
+ GPT4All necesită cel puţin un
model pentru a putea porni
- <h3>EROARE la încărcarea
+ <h3>EROARE la încărcarea
modelului:</h3><br><i>"%1"</i><br><br>Astfel
- de erori pot apărea din mai multe cauze, dintre care cele mai comune
- includ un format inadecvat al fişierului, un download incomplet sau întrerupt,
- un tip inadecvat de fişier, RAM insuficientă, sau un tip incompatibil de model.
- Sugestii pentru rezolvarea problemei: verifică dacă fişierul modelului are
- un format şi un tip compatibile; verifică dacă fişierul modelului este complet
- în folderul dedicat - acest folder este afişat în secţiunea Configurare;
- dacă ai descărcat modelul dinafara programului, asigură-te că fişierul nu e corupt
- după ce îi verifici amprenta MD5 (md5sum)<li>Află mai mult despre modelele compatibile
- în pagina unde am plasat <a
- href="https://docs.gpt4all.io/">documentaţia</a> pentru
- interfaţa gráfică<li>poţi găsi <a
+ de erori pot apărea din mai multe cauze, dintre care cele mai comune
+ includ un format inadecvat al fişierului, un download incomplet sau întrerupt,
+ un tip inadecvat de fişier, RAM insuficientă, sau un tip incompatibil de model.
+ Sugestii pentru rezolvarea problemei: verifică dacă fişierul modelului are
+ un format şi un tip compatibile; verifică dacă fişierul modelului este complet
+ în folderul dedicat - acest folder este afişat în secţiunea Configurare;
+ dacă ai descărcat modelul dinafara programului, asigură-te că fişierul nu e corupt
+ după ce îi verifici amprenta MD5 (md5sum)<li>Află mai mult despre modelele compatibile
+ în pagina unde am plasat <a
+ href="https://docs.gpt4all.io/">documentaţia</a> pentru
+ interfaţa gráfică<li>poţi găsi <a
href="https://discord.gg/4M2QFmTt2k">canalul nostru Discord</a> unde
- se oferă ajutor
+ se oferă ajutor
- GPT4All necesită cel puţin un
+ GPT4All necesită cel puţin un
model pentru a putea rula
- Instalează un model
+ Instalează un model
- Afisează secţiunea de adăugare a unui model
+ Afisează secţiunea de adăugare a unui model
- Conversaţie cu modelul
+ Conversaţie cu modelul
- perechi prompt/replică din conversaţie
+ perechi prompt/replică din conversaţie
@@ -1113,13 +1113,13 @@ model to get started
- se recalculează contextul...
+ se recalculează contextul...
- replică Întreruptă...
+ replică Întreruptă...
@@ -1131,13 +1131,13 @@ model to get started
- se generează replica...
+ se generează replica...
- se generează Întrebări...
+ se generează Întrebări...
@@ -1175,7 +1175,7 @@ model to get started
- Dă un Bravo acestei replici
+ Dă un Bravo acestei replici
@@ -1187,7 +1187,7 @@ model to get started
- Deschide reacţia Aiurea
+ Deschide reacţia Aiurea
@@ -1199,43 +1199,43 @@ model to get started
- Continuări sugerate
+ Continuări sugerate
- şterge şi resetează sesiunea de chat
+ şterge şi resetează sesiunea de chat
- Copiez sesiunea de chat în Clipboard
+ Copiez sesiunea de chat în Clipboard
- Reface ultima replică
+ Reface ultima replică
- Opreşte generarea
+ Opreşte generarea
- Opreşte generarea replicii curente
+ Opreşte generarea replicii curente
- ReÎncarc modelul
+ ReÎncarc modelul
href="https://docs.gpt4all.io/">documentation</a> for the
gui<li>Check out our <a
href="https://discord.gg/4M2QFmTt2k">discord channel</a> for help
- <h3>EROARE la Încărcarea
+ <h3>EROARE la Încărcarea
modelului:</h3><br><i>"%1"</i><br><br>Astfel
- de erori pot apărea din mai multe cauze, dintre care cele mai comune
- includ un format inadecvat al fişierului, un download incomplet sau Întrerupt,
- un tip inadecvat de fişier, RAM insuficientă, sau un tip incompatibil de model.
- Sugestii pentru rezolvarea problemei: verifică dacă fişierul modelului are
- un format si un tip compatibile; verifică dacă fişierul modelului este complet
- în folderul dedicat - acest folder este afişat în secţiunea Configurare;
- dacă ai descărcat modelul dinafara programului, asigură-te că fişierul nu e corupt
- după ce îi verifici amprenta MD5 (md5sum)<li>Află mai multe despre care modele sunt compatibile
- în pagina unde am plasat <a
- href="https://docs.gpt4all.io/">documentaţia</a> pentru
- interfaţa gráfică<li>poţi parcurge <a
+ de erori pot apărea din mai multe cauze, dintre care cele mai comune
+ includ un format inadecvat al fişierului, un download incomplet sau Întrerupt,
+ un tip inadecvat de fişier, RAM insuficientă, sau un tip incompatibil de model.
+ Sugestii pentru rezolvarea problemei: verifică dacă fişierul modelului are
+ un format si un tip compatibile; verifică dacă fişierul modelului este complet
+ în folderul dedicat - acest folder este afişat în secţiunea Configurare;
+ dacă ai descărcat modelul dinafara programului, asigură-te că fişierul nu e corupt
+ după ce îi verifici amprenta MD5 (md5sum)<li>Află mai multe despre care modele sunt compatibile
+ în pagina unde am plasat <a
+ href="https://docs.gpt4all.io/">documentaţia</a> pentru
+ interfaţa gráfică<li>poţi parcurge <a
href="https://discord.gg/4M2QFmTt2k">canalul nostru Discord</a> unde
- se oferă ajutor
+ se oferă ajutor
@@ -1273,19 +1273,19 @@ model to get started
- Reîncărcare · %1
+ Reîncărcare · %1
- Încărcare · %1
+ Încărcare · %1
- Încarcă · %1 (implicit) →
+ Încarcă · %1 (implicit) →
@@ -1303,7 +1303,7 @@ model to get started
- se caută în LocalDocs: %1 ...
+ se caută în LocalDocs: %1 ...
@@ -1315,13 +1315,13 @@ model to get started
- Încarcă un model pentru a continua...
+ Încarcă un model pentru a continua...
- Trimite mesaje/prompt-uri către model
+ Trimite mesaje/prompt-uri către model
@@ -1351,7 +1351,7 @@ model to get started
- Trimite modelului mesajul/prompt-ul din câmpul-text
+ Trimite modelului mesajul/prompt-ul din câmpul-text
@@ -1360,16 +1360,16 @@ model to get started
- Atenţie: căutarea în Colecţii în timp ce sunt Indexate poate întoarce rezultate incomplete
+ Atenţie: căutarea în Colecţii în timp ce sunt Indexate poate întoarce rezultate incomplete
- %n fişier
- %n fişiere
- %n fişiere
+ %n fişier
+ %n fişiere
+ %n fişiere
@@ -1377,7 +1377,7 @@ model to get started
- %n cuvânt
+ %n cuvânt%n cuvinte%n cuvinte
@@ -1398,7 +1398,7 @@ model to get started
- Selectează o Colecţie pentru ca modelul să o poată accesa.
+ Selectează o Colecţie pentru ca modelul să o poată accesa.
@@ -1416,7 +1416,7 @@ model to get started
- EROARE: $API_KEY absentă
+ EROARE: $API_KEY absentă
@@ -1436,7 +1436,7 @@ model to get started
- Modelul "%1" - îndepărtat
+ Modelul "%1" - îndepărtat
@@ -1445,31 +1445,31 @@ model to get started
- Bun venit în GPT4All
+ Bun venit în GPT4All
- Programul ce prioritizează confidenţialitatea (privacy)
+ Programul ce prioritizează confidenţialitatea (privacy)
- Începe o conversaţie
+ Începe o conversaţie
- Începe o conversaţie
+ Începe o conversaţie
- Dialoghează cu orice LLM
+ Dialoghează cu orice LLM
@@ -1481,43 +1481,43 @@ model to get started
- Dialoghează cu fişiere locale
+ Dialoghează cu fişiere locale
- Caută modele
+ Caută modele
- Explorează şi descarcă modele
+ Explorează şi descarcă modele
- Ultimele ştiri
+ Ultimele ştiri
- Ultimele ştiri de la GPT4All
+ Ultimele ştiri de la GPT4All
- Despre această versiune
+ Despre această versiune
- Documentaţie
+ Documentaţie
@@ -1534,8 +1534,12 @@ model to get started
+
+
+
+
- GitHub
+ GitHub
@@ -1574,13 +1578,13 @@ model to get started
- Extensii compatibile de fişier
+ Extensii compatibile de fişier
- Extensiile, separate prin virgulă. LocalDocs va Încerca procesarea
- numai a fişierelor cu aceste extensii.
+ Extensiile, separate prin virgulă. LocalDocs va Încerca procesarea
+ numai a fişierelor cu aceste extensii.
@@ -1597,7 +1601,7 @@ model to get started
- Embedding pe documente folosind API de la Nomic în locul unui model local. Necesită repornire.
+ Embedding pe documente folosind API de la Nomic în locul unui model local. Necesită repornire.
@@ -1609,7 +1613,7 @@ model to get started
- Cheia API de utilizat cu Nomic Embed. Obţine o cheie prin Atlas: <a href="https://atlas.nomic.ai/cli-login">pagina cheilor API</a> Necesită repornire.
+ Cheia API de utilizat cu Nomic Embed. Obţine o cheie prin Atlas: <a href="https://atlas.nomic.ai/cli-login">pagina cheilor API</a> Necesită repornire.
@@ -1618,81 +1622,82 @@ model to get started
Dispozitivul pentru Embeddings
-
- Dispozitivul pentru Embeddings. "Auto" apelează la CPU. Necesită repornire
+
+
+
+ Dispozitivul pentru Embeddings. Necesită repornire.
- Extensiile, separate prin virgulă. LocalDocs va încerca procesarea numai a fişierelor cu aceste extensii.
+ Extensiile, separate prin virgulă. LocalDocs va încerca procesarea numai a fişierelor cu aceste extensii.
- Embedding pe documente folosind API de la Nomic în locul unui model local. Necesită repornire.
+ Embedding pe documente folosind API de la Nomic în locul unui model local. Necesită repornire.
- Cheia API de utilizat cu Nomic Embed. Obţine o cheie prin Atlas: <a href="https://atlas.nomic.ai/cli-login">pagina cheilor API</a> Necesită repornire.
+ Cheia API de utilizat cu Nomic Embed. Obţine o cheie prin Atlas: <a href="https://atlas.nomic.ai/cli-login">pagina cheilor API</a> Necesită repornire.
-
-
-
- Dispozitivul pentru Embeddings. "Auto" apelează la CPU. Necesită repornire.
+
+
+
+ Implicit
-
-
+
+ Vizualizare
-
-
+
+
- Afişarea Surselor
+ Afişarea Surselor
-
-
+
+
- Afişează Sursele utilizate pentru fiecare replică.
+ Afişează Sursele utilizate pentru fiecare replică.
-
-
+
+ Avansate
-
-
+
+
- Atenţie: Numai pentru utilizare avansată.
+ Atenţie: Numai pentru utilizare avansată.
-
-
+
+
- Valori prea mari pot cauza erori cu LocalDocs, replici foarte lente sau chiar absenţa lor. În mare, numărul {N caractere x N citate} este adăugat la Context Window/Size/Length a modelului. Mai multe informaţii: <a href="https://docs.gpt4all.io/gpt4all_desktop/localdocs.html">aici</a>.
+ Valori prea mari pot cauza erori cu LocalDocs, replici foarte lente sau chiar absenţa lor. În mare, numărul {N caractere x N citate} este adăugat la Context Window/Size/Length a modelului. Mai multe informaţii: <a href="https://docs.gpt4all.io/gpt4all_desktop/localdocs.html">aici</a>.
-
-
+
+
- Numărul caracterelor din fiecare citat. Numere mari amplifică probabilitatea unor replici corecte, dar de asemenea cauzează generare lentă.
+ Numărul caracterelor din fiecare citat. Numere mari amplifică probabilitatea unor replici corecte, dar de asemenea cauzează generare lentă.
-
-
+
+
- Numărul maxim al citatelor ce corespund şi care vor fi adăugate la contextul pentru prompt. Numere mari amplifică probabilitatea unor replici corecte, dar de asemenea cauzează generare lentă.
+ Numărul maxim al citatelor ce corespund şi care vor fi adăugate la contextul pentru prompt. Numere mari amplifică probabilitatea unor replici corecte, dar de asemenea cauzează generare lentă.
the model's context window. More info <a
href="https://docs.gpt4all.io/gpt4all_desktop/localdocs.html">here</a>.
- Valori prea mari pot cauza erori cu LocalDocs, replici lente sau absenţa lor completă. în mare, numărul {N caractere x N citate} este adăugat la Context Window/Size/Length a modelului. Mai multe informaţii: <a href="https://docs.gpt4all.io/gpt4all_desktop/localdocs.html">aici</a>.
+ Valori prea mari pot cauza erori cu LocalDocs, replici lente sau absenţa lor completă. în mare, numărul {N caractere x N citate} este adăugat la Context Window/Size/Length a modelului. Mai multe informaţii: <a href="https://docs.gpt4all.io/gpt4all_desktop/localdocs.html">aici</a>.
-
-
+
+
- Lungimea (în caractere) a citatelor din documente
+ Lungimea (în caractere) a citatelor din documente
- numărul caracterelor din fiecare citat. Numere mari amplifică probabilitatea unor replici corecte, dar de asemenea pot cauza generare lentă.
+ numărul caracterelor din fiecare citat. Numere mari amplifică probabilitatea unor replici corecte, dar de asemenea pot cauza generare lentă.
-
-
+
+
- Numărul maxim de citate per prompt
+ Numărul maxim de citate per prompt
- Numărul maxim al citatelor ce corespund şi care vor fi adăugate la contextul pentru prompt. Numere mari amplifică probabilitatea unor replici corecte, dar de asemenea pot cauza generare lentă.
+ Numărul maxim al citatelor ce corespund şi care vor fi adăugate la contextul pentru prompt. Numere mari amplifică probabilitatea unor replici corecte, dar de asemenea pot cauza generare lentă.
@@ -1739,59 +1744,59 @@ model to get started
- Dialoghează cu fişiere locale
+ Dialoghează cu fişiere locale
- + Adaugă o Colecţie
+ + Adaugă o Colecţie
- EROARE: Baza de date LocalDocs nu e validă.
+ EROARE: Baza de date LocalDocs nu e validă.
- EROARE: Baza de date LocalDocs nu poate fi accesată sau nu e validă. Programul trebuie repornit după ce se încearcă oricare din următoarele remedii sugerate.</i><br><ul><li>Asigură-te că folderul pentru <b>Download Path</b> există în sistemul de fişiere.</li><li>Verifică permisiunile şi apartenenţa folderului pentru <b>Download Path</b>.</li><li>Dacă există fişierul <b>localdocs_v2.db</b>, verifică-i apartenenţa şi permisiunile citire/scriere (read/write).</li></ul><br>Dacă problema persistă şi există vreun fişier 'localdocs_v*.db', ca ultimă soluţie poţi<br>încerca duplicarea (backup) şi apoi ştergerea lor. Oricum, va trebui să re-creezi Colecţiile.
+ EROARE: Baza de date LocalDocs nu poate fi accesată sau nu e validă. Programul trebuie repornit după ce se încearcă oricare din următoarele remedii sugerate.</i><br><ul><li>Asigură-te că folderul pentru <b>Download Path</b> există în sistemul de fişiere.</li><li>Verifică permisiunile şi apartenenţa folderului pentru <b>Download Path</b>.</li><li>Dacă există fişierul <b>localdocs_v2.db</b>, verifică-i apartenenţa şi permisiunile citire/scriere (read/write).</li></ul><br>Dacă problema persistă şi există vreun fişier 'localdocs_v*.db', ca ultimă soluţie poţi<br>încerca duplicarea (backup) şi apoi ştergerea lor. Oricum, va trebui să re-creezi Colecţiile.
- Nu există Colecţii instalate
+ Nu există Colecţii instalate
- Instalează o Colecţie de documente pentru a putea utiliza funcţionalitatea aceasta
+ Instalează o Colecţie de documente pentru a putea utiliza funcţionalitatea aceasta
- + Adaugă o Colecţie de documente
+ + Adaugă o Colecţie de documente
- Afişează secţiunea de adăugare a unui model
+ Afişează secţiunea de adăugare a unui model
- Bara de progresie a Indexării
+ Bara de progresie a Indexării
- Afişează progresia Indexării
+ Afişează progresia Indexării
@@ -1803,7 +1808,7 @@ model to get started
- ...SE INDEXEAZă...
+ ...SE INDEXEAZă...
@@ -1815,7 +1820,7 @@ model to get started
- NECESITă UPDATE
+ NECESITă UPDATE
@@ -1833,31 +1838,31 @@ model to get started
- Se Indexează...
+ Se Indexează...
- ...Se calculează Embeddings...
+ ...Se calculează Embeddings...
- Această Colecţie necesită update după schimbarea versiunii
+ Această Colecţie necesită update după schimbarea versiunii
- Se reindexează automat după schimbări ale folderului
+ Se reindexează automat după schimbări ale folderului
- ...Instalare în curs...
+ ...Instalare în curs...
@@ -1870,9 +1875,9 @@ model to get started
- %n fişier
- %n fişiere
- %n fişiere
+ %n fişier
+ %n fişiere
+ %n fişiere
@@ -1880,7 +1885,7 @@ model to get started
- %n cuvânt
+ %n cuvânt%n cuvinte%n cuvinte
@@ -1889,19 +1894,19 @@ model to get started
- Şterg
+ Şterg
- Reconstrucţie
+ Reconstrucţie
- Reindexează de la zero acest folder. Procesul e lent şi de obicei inutil.
+ Reindexează de la zero acest folder. Procesul e lent şi de obicei inutil.
@@ -1913,7 +1918,7 @@ model to get started
- Actualizează Colecţia la noua versiune. Această procedură e lentă.
+ Actualizează Colecţia la noua versiune. Această procedură e lentă.
@@ -1927,7 +1932,7 @@ model to get started
OpenAI</li><li>You can apply for an API key <a
href="https://platform.openai.com/account/api-keys">here.</a></li>
- <ul><li>Necesită o cheie API OpenAI personală. </li><li>ATENţIE: Conversaţiile tale vor fi trimise la OpenAI! </li><li>Cheia ta API va fi stocată pe disc (local) </li><li>Va fi utilizată numai pentru comunicarea cu OpenAI</li><li>Poţi solicita o cheie API aici: <a href="https://platform.openai.com/account/api-keys">aici.</a></li>
+ <ul><li>Necesită o cheie API OpenAI personală. </li><li>ATENţIE: Conversaţiile tale vor fi trimise la OpenAI! </li><li>Cheia ta API va fi stocată pe disc (local) </li><li>Va fi utilizată numai pentru comunicarea cu OpenAI</li><li>Poţi solicita o cheie API aici: <a href="https://platform.openai.com/account/api-keys">aici.</a></li>
- <ul><li>Necesită o cheie API OpenAI personală. </li><li>ATENŢIE: Conversaţiile tale vor fi trimise la OpenAI!</li><li>Cheia ta API va fi stocată pe disc (local) </li><li>Va fi utilizată numai pentru comunicarea cu OpenAI</li><li>Poţi solicita o cheie API aici: <a href="https://platform.openai.com/account/api-keys">aici.</a></li>
+ <ul><li>Necesită o cheie API OpenAI personală. </li><li>ATENŢIE: Conversaţiile tale vor fi trimise la OpenAI!</li><li>Cheia ta API va fi stocată pe disc (local) </li><li>Va fi utilizată numai pentru comunicarea cu OpenAI</li><li>Poţi solicita o cheie API aici: <a href="https://platform.openai.com/account/api-keys">aici.</a></li>
@@ -1957,7 +1962,7 @@ model to get started
- <br><br><i>* Chiar dacă plăteşti la OpenAI pentru ChatGPT-4, aceasta nu garantează accesul la cheia API. Contactează OpenAI pentru mai multe informaţii.
+ <br><br><i>* Chiar dacă plăteşti la OpenAI pentru ChatGPT-4, aceasta nu garantează accesul la cheia API. Contactează OpenAI pentru mai multe informaţii.
@@ -1967,7 +1972,7 @@ model to get started
- <ul><li>Necesită cheia personală Mistral API. </li><li>ATENŢIE: Conversaţiile tale vor fi trimise la Mistral!</li><li>Cheia ta API va fi stocată pe disc (local)</li><li>Va fi utilizată numai pentru comunicarea cu Mistral</li><li>Poţi solicita o cheie API aici: <a href="https://console.mistral.ai/user/api-keys">aici</a>.</li>
+ <ul><li>Necesită cheia personală Mistral API. </li><li>ATENŢIE: Conversaţiile tale vor fi trimise la Mistral!</li><li>Cheia ta API va fi stocată pe disc (local)</li><li>Va fi utilizată numai pentru comunicarea cu Mistral</li><li>Poţi solicita o cheie API aici: <a href="https://console.mistral.ai/user/api-keys">aici</a>.</li>
@@ -1987,7 +1992,7 @@ model to get started
- <ul><li>Necesită cheia personală API si base-URL a API.</li><li>ATENŢIE: Conversaţiile tale vor fi trimise la serverul API compatibil cu OpenAI specificat!</li><li>Cheia ta API va fi stocată pe disc (local)</li><li>Va fi utilizată numai pentru comunicarea cu serverul API compatibil cu OpenAI</li>
+ <ul><li>Necesită cheia personală API si base-URL a API.</li><li>ATENŢIE: Conversaţiile tale vor fi trimise la serverul API compatibil cu OpenAI specificat!</li><li>Cheia ta API va fi stocată pe disc (local)</li><li>Va fi utilizată numai pentru comunicarea cu serverul API compatibil cu OpenAI</li>
@@ -1997,12 +2002,12 @@ model to get started
- <strong>Creat de către %1.</strong><br><ul><li>Publicat in: %2.<li>Acest model are %3 Likes.<li>Acest model are %4 download-uri.<li>Mai multe informaţii pot fi găsite la: <a href="https://huggingface.co/%5">aici.</a></ul>
+ <strong>Creat de către %1.</strong><br><ul><li>Publicat in: %2.<li>Acest model are %3 Likes.<li>Acest model are %4 download-uri.<li>Mai multe informaţii pot fi găsite la: <a href="https://huggingface.co/%5">aici.</a></ul>
- <br><br><i>* Chiar dacă plăteşti la OpenAI pentru ChatGPT-4, aceasta nu garantează accesul la cheia API. Contactează OpenAI pentru mai multe informaţii.
+ <br><br><i>* Chiar dacă plăteşti la OpenAI pentru ChatGPT-4, aceasta nu garantează accesul la cheia API. Contactează OpenAI pentru mai multe informaţii.
Mistral</li><li>You can apply for an API key <a
href="https://console.mistral.ai/user/api-keys">here</a>.</li>
- <ul><li>Necesită cheia personală Mistral API. </li><li>ATENţIE: Conversaţiile tale vor fi trimise la Mistral!</li><li>Cheia ta API va fi stocată pe disc (local)</li><li>Va fi utilizată numai pentru comunicarea cu Mistral</li><li>Poţi solicita o cheie API aici: <a href="https://console.mistral.ai/user/api-keys">aici</a>.</li>
+ <ul><li>Necesită cheia personală Mistral API. </li><li>ATENţIE: Conversaţiile tale vor fi trimise la Mistral!</li><li>Cheia ta API va fi stocată pe disc (local)</li><li>Va fi utilizată numai pentru comunicarea cu Mistral</li><li>Poţi solicita o cheie API aici: <a href="https://console.mistral.ai/user/api-keys">aici</a>.</li>
- <strong>Creat de către %1.</strong><br><ul><li>Publicat in: %2.<li>Acest model are %3 Likes.<li>Acest model are %4 download-uri.<li>Mai multe informaţii pot fi găsite la: <a href="https://huggingface.co/%5">aici.</a></ul>
+ <strong>Creat de către %1.</strong><br><ul><li>Publicat in: %2.<li>Acest model are %3 Likes.<li>Acest model are %4 download-uri.<li>Mai multe informaţii pot fi găsite la: <a href="https://huggingface.co/%5">aici.</a></ul>
@@ -2047,7 +2052,7 @@ model to get started
- Şterg
+ Şterg
@@ -2059,7 +2064,7 @@ model to get started
- Fişierul modelului
+ Fişierul modelului
@@ -2070,7 +2075,7 @@ model to get started
- Plasat la Începutul fiecărei conversaţii. Trebuie să conţină token-uri(le) adecvate de Încadrare.
+ Plasat la Începutul fiecărei conversaţii. Trebuie să conţină token-uri(le) adecvate de Încadrare.
@@ -2082,24 +2087,24 @@ model to get started
- Standardul de formulare a fiecărui prompt.
+ Standardul de formulare a fiecărui prompt.
- Trebuie să conţină textul "%1" care va fi Înlocuit cu ceea ce scrie utilizatorul.
+ Trebuie să conţină textul "%1" care va fi Înlocuit cu ceea ce scrie utilizatorul.
- Denumirea conversaţiei
+ Denumirea conversaţiei
- Standardul de formulare a denumirii conversaţiilor.
+ Standardul de formulare a denumirii conversaţiilor.
@@ -2111,7 +2116,7 @@ model to get started
- Prompt-ul folosit pentru generarea Întrebărilor de continuare.
+ Prompt-ul folosit pentru generarea Întrebărilor de continuare.
@@ -2123,13 +2128,13 @@ model to get started
- Numărul token-urilor de input şi de output văzute de model.
+ Numărul token-urilor de input şi de output văzute de model.
- Numărul maxim combinat al token-urilor în prompt+replică Înainte de a se pierde informaţie. Utilizarea unui context mai mare decât cel cu care a fost instruit modelul va întoarce rezultate mai slabe. NOTă: Nu are efect până la reincărcarea modelului.
+ Numărul maxim combinat al token-urilor în prompt+replică Înainte de a se pierde informaţie. Utilizarea unui context mai mare decât cel cu care a fost instruit modelul va întoarce rezultate mai slabe. NOTă: Nu are efect până la reincărcarea modelului.
@@ -2141,12 +2146,12 @@ model to get started
- Libertatea/Confuzia din replica modelului. Mai mare -> mai multă libertate.
+ Libertatea/Confuzia din replica modelului. Mai mare -> mai multă libertate.
- Temperatura creşte probabilitatea de alegere a unor token-uri puţin probabile. NOTă: O temperatură tot mai Înaltă determinÎ replici tot mai creative şi mai puţin predictibile.
+ Temperatura creşte probabilitatea de alegere a unor token-uri puţin probabile. NOTă: O temperatură tot mai Înaltă determinÎ replici tot mai creative şi mai puţin predictibile.
@@ -2163,19 +2168,19 @@ model to get started
- Pot fi alese numai cele mai probabile token-uri a căror probabilitate totală este Top-P. NOTă: Se evită selectarea token-urilor foarte improbabile.
+ Pot fi alese numai cele mai probabile token-uri a căror probabilitate totală este Top-P. NOTă: Se evită selectarea token-urilor foarte improbabile.
- Plasat la începutul fiecărei conversaţii. Trebuie să conţină token-uri(le) adecvate de încadrare.
+ Plasat la începutul fiecărei conversaţii. Trebuie să conţină token-uri(le) adecvate de încadrare.
- Trebuie să conţină textul "%1" care va fi înlocuit cu ceea ce scrie utilizatorul.
+ Trebuie să conţină textul "%1" care va fi înlocuit cu ceea ce scrie utilizatorul.
@@ -2183,21 +2188,21 @@ model to get started
- Numărul maxim combinat al token-urilor în prompt+replică înainte de a se pierde informaţie. Utilizarea unui context mai mare decât cel cu care a fost instruit modelul va întoarce rezultate mai slabe. NOTĂ: Nu are efect până la reîncărcarea modelului.
+ Numărul maxim combinat al token-urilor în prompt+replică înainte de a se pierde informaţie. Utilizarea unui context mai mare decât cel cu care a fost instruit modelul va întoarce rezultate mai slabe. NOTĂ: Nu are efect până la reîncărcarea modelului.
- Temperatura creşte probabilitatea de alegere a unor token-uri puţin probabile. NOTĂ: O temperatură tot mai înaltă determinî replici tot mai creative şi mai puţin predictibile.
+ Temperatura creşte probabilitatea de alegere a unor token-uri puţin probabile. NOTĂ: O temperatură tot mai înaltă determinî replici tot mai creative şi mai puţin predictibile.
- Pot fi alese numai cele mai probabile token-uri a căror probabilitate totală este Top-P. NOTĂ: Se evită selectarea token-urilor foarte improbabile.
+ Pot fi alese numai cele mai probabile token-uri a căror probabilitate totală este Top-P. NOTĂ: Se evită selectarea token-urilor foarte improbabile.
@@ -2209,13 +2214,13 @@ NOTE: Prevents choosing highly unlikely tokens.
- Probabilitatea mínimă a unui token. Mai mare -> mai predictibil.
+ Probabilitatea mínimă a unui token. Mai mare -> mai predictibil.
- Stabileşte probabilitatea minimă relativă a unui token de luat în considerare.
+ Stabileşte probabilitatea minimă relativă a unui token de luat în considerare.
@@ -2239,13 +2244,13 @@ NOTE: Prevents choosing highly unlikely tokens.
- Lungimea maximă
+ Lungimea maximă
- Lungimea maximă - în token-uri - a replicii.
+ Lungimea maximă - în token-uri - a replicii.
@@ -2264,7 +2269,7 @@ NOTE: Prevents choosing highly unlikely tokens.
- Numărul token-urilor procesate simultan. NOTĂ: Valori tot mai mari pot accelera citirea prompt-urilor, dar şi utiliza mai multă RAM.
+ Numărul token-urilor procesate simultan. NOTĂ: Valori tot mai mari pot accelera citirea prompt-urilor, dar şi utiliza mai multă RAM.
@@ -2272,12 +2277,12 @@ NOTE: Higher values can speed up reading prompts but will use more RAM.
- Cât de multe layere ale modelului să fie încărcate în VRAM. Valori mici trebuie folosite dacă GPT4All rămâne fără VRAM în timp ce încarcă modelul. Valorile tot mai mici cresc utilizarea CPU şi a RAM şi încetinesc inferenţa. NOTĂ: Nu are efect până la reîncărcarea modelului.
+ Cât de multe layere ale modelului să fie încărcate în VRAM. Valori mici trebuie folosite dacă GPT4All rămâne fără VRAM în timp ce încarcă modelul. Valorile tot mai mici cresc utilizarea CPU şi a RAM şi încetinesc inferenţa. NOTĂ: Nu are efect până la reîncărcarea modelului.
- numărul token-urilor procesate simultan. NOTă: Valori tot mai mari pot accelera citirea prompt-urilor, dar şi utiliza mai multă RAM.
+ numărul token-urilor procesate simultan. NOTă: Valori tot mai mari pot accelera citirea prompt-urilor, dar şi utiliza mai multă RAM.
@@ -2289,38 +2294,38 @@ NOTE: Does not take effect until you reload the model.
- Factorul de penalizare a repetării ce se dezactivează cu valoarea 1.
+ Factorul de penalizare a repetării ce se dezactivează cu valoarea 1.
- Token-uri pentru penalzare a repetării
+ Token-uri pentru penalzare a repetării
- Numărul token-urilor anterioare considerate pentru penalizare.
+ Numărul token-urilor anterioare considerate pentru penalizare.
- Layere în GPU
+ Layere în GPU
- Numărul layerelor modelului ce vor fi Încărcate în VRAM.
+ Numărul layerelor modelului ce vor fi Încărcate în VRAM.
- Cât de multe layere ale modelului să fie Încărcate în VRAM. Valori mici trebuie folosite dacă GPT4All rămâne fără VRAM în timp ce Încarcă modelul. Valorile tot mai mici cresc utilizarea CPU şi a RAM şi Încetinesc inferenţa. NOTă: Nu are efect până la reÎncărcarea modelului.
+ Cât de multe layere ale modelului să fie Încărcate în VRAM. Valori mici trebuie folosite dacă GPT4All rămâne fără VRAM în timp ce Încarcă modelul. Valorile tot mai mici cresc utilizarea CPU şi a RAM şi Încetinesc inferenţa. NOTă: Nu are efect până la reÎncărcarea modelului.
@@ -2329,13 +2334,13 @@ NOTE: Does not take effect until you reload the model.
- Nu există modele instalate
+ Nu există modele instalate
- Instalează un model pentru a Începe să foloseşti GPT4All
+ Instalează un model pentru a Începe să foloseşti GPT4All
@@ -2343,13 +2348,13 @@ NOTE: Does not take effect until you reload the model.
- + Adaugă un model
+ + Adaugă un model
- Afişează secţiunea de adăugare a unui model
+ Afişează secţiunea de adăugare a unui model
@@ -2361,19 +2366,19 @@ NOTE: Does not take effect until you reload the model.
- Modele conversaţionale instalate local
+ Modele conversaţionale instalate local
- Fişierul modelului
+ Fişierul modelului
- Fişierul modelului ce va fi descărcat
+ Fişierul modelului ce va fi descărcat
@@ -2385,7 +2390,7 @@ NOTE: Does not take effect until you reload the model.
- Descrierea fişierului
+ Descrierea fişierului
@@ -2403,19 +2408,19 @@ NOTE: Does not take effect until you reload the model.
- Oprirea/Repornirea/Initierea descărcării
+ Oprirea/Repornirea/Initierea descărcării
- Şterg
+ Şterg
- Şterg modelul din sistemul de fişiere
+ Şterg modelul din sistemul de fişiere
@@ -2423,7 +2428,7 @@ NOTE: Does not take effect until you reload the model.
- Instalează
+ Instalează
@@ -2440,7 +2445,7 @@ NOTE: Does not take effect until you reload the model.
- <strong><font size="2">ATENţIE: Nerecomandat pentru acest hardware. Modelul necesită mai multă memorie (%1 GB) decât are sistemul tău(%2).</strong></font>
+ <strong><font size="2">ATENţIE: Nerecomandat pentru acest hardware. Modelul necesită mai multă memorie (%1 GB) decât are sistemul tău(%2).</strong></font>
@@ -2458,7 +2463,7 @@ NOTE: Does not take effect until you reload the model.
- Descrie o eroare apărută la download
+ Descrie o eroare apărută la download
@@ -2470,7 +2475,7 @@ NOTE: Does not take effect until you reload the model.
- <strong><font size="2">ATENŢIE: Nerecomandat pentru acest hardware. Modelul necesită mai multă memorie (%1 GB) decât are sistemul tău(%2).</strong></font>
+ <strong><font size="2">ATENŢIE: Nerecomandat pentru acest hardware. Modelul necesită mai multă memorie (%1 GB) decât are sistemul tău(%2).</strong></font>
@@ -2482,13 +2487,13 @@ NOTE: Does not take effect until you reload the model.
- Bara de progresie a descărcării
+ Bara de progresie a descărcării
- Afişează progresia descărcării
+ Afişează progresia descărcării
@@ -2500,13 +2505,13 @@ NOTE: Does not take effect until you reload the model.
- Viteza de download în bytes/kilobytes/megabytes pe secundă
+ Viteza de download în bytes/kilobytes/megabytes pe secundă
- ...Se calculează...
+ ...Se calculează...
@@ -2518,7 +2523,7 @@ NOTE: Does not take effect until you reload the model.
- Dacă se va calcula hash-ul fişierului
+ Dacă se va calcula hash-ul fişierului
@@ -2530,13 +2535,13 @@ NOTE: Does not take effect until you reload the model.
- Afişat când se calculează hash-ul unui fişier
+ Afişat când se calculează hash-ul unui fişier
- EROARE: $API_KEY absentă.
+ EROARE: $API_KEY absentă.
@@ -2548,7 +2553,7 @@ NOTE: Does not take effect until you reload the model.
- EROARE: $BASE_URL absentă.
+ EROARE: $BASE_URL absentă.
@@ -2572,13 +2577,13 @@ NOTE: Does not take effect until you reload the model.
- Dimensiunea fişierului
+ Dimensiunea fişierului
- RAM necesară
+ RAM necesară
@@ -2620,7 +2625,7 @@ NOTE: Does not take effect until you reload the model.
- Selectează un director (folder)
+ Selectează un director (folder)
@@ -2635,7 +2640,7 @@ NOTE: Does not take effect until you reload the model.
- Restaurez secţiunea de configurare la starea sa implicită
+ Restaurez secţiunea de configurare la starea sa implicită
@@ -2644,7 +2649,7 @@ NOTE: Does not take effect until you reload the model.
- Contribuie cu date/informaţii la componenta Open-source DataLake a GPT4All.
+ Contribuie cu date/informaţii la componenta Open-source DataLake a GPT4All.
used by Nomic AI to improve future GPT4All models. Nomic AI will retain all
attribution information attached to your data and you will be credited as a
contributor to any GPT4All model release that uses your data!
- Dacă activezi această funcţionalitate, vei participa la procesul democratic
- de instruire a unui model LLM prin contribuţia ta cu date la îmbunătăţirea modelului.
+ Dacă activezi această funcţionalitate, vei participa la procesul democratic
+ de instruire a unui model LLM prin contribuţia ta cu date la îmbunătăţirea modelului.
- Când un model în GPT4All Îţi răspunde şi îi accepţi replica, atunci conversaţia va fi
- trimisă la componenta Open-source DataLake a GPT4All. Mai mult - îi poţi aprecia replica,
- Dacă răspunsul Nu Îti Place, poţi sugera unul alternativ.
- Aceste date vor fi colectate şi agregate în componenta DataLake a GPT4All.
+ Când un model în GPT4All Îţi răspunde şi îi accepţi replica, atunci conversaţia va fi
+ trimisă la componenta Open-source DataLake a GPT4All. Mai mult - îi poţi aprecia replica,
+ Dacă răspunsul Nu Îti Place, poţi sugera unul alternativ.
+ Aceste date vor fi colectate şi agregate în componenta DataLake a GPT4All.
- NOTă: Dacă activezi această funcţionalitate, vei trimite datele tale la componenta
- DataLake a GPT4All. Atunci nu te vei putea aştepta la intimitatea (privacy) conversaţiei dacă activezi
- această funcţionalitate. Totuşi, te poţi aştepta la a beneficia de apreciere - opţional, dacă doreşti.
- Datele din conversaţie vor fi disponibile pentru oricine vrea să le descarce şi vor fi
- utilizate de către Nomic AI pentru a îmbunătăţi modele viitoare în GPT4All. Nomic AI va păstra
- toate informaţiile despre atribuire asociate datelor tale şi vei fi menţionat ca
- participant contribuitor la orice lansare a unui model GPT4All care foloseşte datele tale!
+ NOTă: Dacă activezi această funcţionalitate, vei trimite datele tale la componenta
+ DataLake a GPT4All. Atunci nu te vei putea aştepta la intimitatea (privacy) conversaţiei dacă activezi
+ această funcţionalitate. Totuşi, te poţi aştepta la a beneficia de apreciere - opţional, dacă doreşti.
+ Datele din conversaţie vor fi disponibile pentru oricine vrea să le descarce şi vor fi
+ utilizate de către Nomic AI pentru a îmbunătăţi modele viitoare în GPT4All. Nomic AI va păstra
+ toate informaţiile despre atribuire asociate datelor tale şi vei fi menţionat ca
+ participant contribuitor la orice lansare a unui model GPT4All care foloseşte datele tale!
@@ -2687,21 +2692,21 @@ NOTE: Does not take effect until you reload the model.
When a GPT4All model responds to you and you have opted-in, your conversation will be sent to the GPT4All Open Source Datalake. Additionally, you can like/dislike its response. If you dislike a response, you can suggest an alternative response. This data will be collected and aggregated in the GPT4All Datalake.
NOTE: By turning on this feature, you will be sending your data to the GPT4All Open Source Datalake. You should have no expectation of chat privacy when this feature is enabled. You should; however, have an expectation of an optional attribution if you wish. Your chat data will be openly available for anyone to download and will be used by Nomic AI to improve future GPT4All models. Nomic AI will retain all attribution information attached to your data and you will be credited as a contributor to any GPT4All model release that uses your data!
- Dacă activezi această funcţionalitate, vei participa la procesul democratic
- de instruire a unui model LLM prin contribuţia ta cu date la îmbunătăţirea modelului.
+ Dacă activezi această funcţionalitate, vei participa la procesul democratic
+ de instruire a unui model LLM prin contribuţia ta cu date la îmbunătăţirea modelului.
- Când un model în GPT4All îţi răspunde şi îi accepţi replica, atunci conversaţia va fi
- trimisă la componenta Open-source DataLake a GPT4All. Mai mult - îi poţi aprecia replica,
- Dacă răspunsul Nu Îti Place, poţi sugera unul alternativ.
- Aceste date vor fi colectate şi agregate în componenta DataLake a GPT4All.
+ Când un model în GPT4All îţi răspunde şi îi accepţi replica, atunci conversaţia va fi
+ trimisă la componenta Open-source DataLake a GPT4All. Mai mult - îi poţi aprecia replica,
+ Dacă răspunsul Nu Îti Place, poţi sugera unul alternativ.
+ Aceste date vor fi colectate şi agregate în componenta DataLake a GPT4All.
- NOTĂ: Dacă activezi această funcţionalitate, vei trimite datele tale la componenta
- DataLake a GPT4All. Atunci nu te vei putea aştepta la intimitatea (privacy) conversaţiei dacă activezi
- această funcţionalitate. Totuşi, te poţi aştepta la a beneficia de apreciere - opţional, dacă doreşti.
- Datele din conversaţie vor fi disponibile pentru oricine vrea să le descarce şi vor fi
- utilizate de către Nomic AI pentru a îmbunătăţi modele viitoare în GPT4All. Nomic AI va păstra
- toate informaţiile despre atribuire asociate datelor tale şi vei fi menţionat ca
- participant contribuitor la orice lansare a unui model GPT4All care foloseşte datele tale!
+ NOTĂ: Dacă activezi această funcţionalitate, vei trimite datele tale la componenta
+ DataLake a GPT4All. Atunci nu te vei putea aştepta la intimitatea (privacy) conversaţiei dacă activezi
+ această funcţionalitate. Totuşi, te poţi aştepta la a beneficia de apreciere - opţional, dacă doreşti.
+ Datele din conversaţie vor fi disponibile pentru oricine vrea să le descarce şi vor fi
+ utilizate de către Nomic AI pentru a îmbunătăţi modele viitoare în GPT4All. Nomic AI va păstra
+ toate informaţiile despre atribuire asociate datelor tale şi vei fi menţionat ca
+ participant contribuitor la orice lansare a unui model GPT4All care foloseşte datele tale!
@@ -2713,37 +2718,37 @@ NOTE: By turning on this feature, you will be sending your data to the GPT4All O
- Descrie ce se Întâmplă când participi
+ Descrie ce se Întâmplă când participi
- Specifică o denumire pentru această apreciere (optional)
+ Specifică o denumire pentru această apreciere (optional)
- Apreciere (opţional)
+ Apreciere (opţional)
- Apreciază
+ Apreciază
- Activează
+ Activează
- Activează participarea
+ Activează participarea
@@ -2755,7 +2760,7 @@ NOTE: By turning on this feature, you will be sending your data to the GPT4All O
- Anulează participarea
+ Anulează participarea
@@ -2764,7 +2769,7 @@ NOTE: By turning on this feature, you will be sending your data to the GPT4All O
- O nouă versiune disponibilă!
+ O nouă versiune disponibilă!
@@ -2776,7 +2781,7 @@ NOTE: By turning on this feature, you will be sending your data to the GPT4All O
- Actualizează la noua versiune
+ Actualizează la noua versiune
@@ -2785,7 +2790,7 @@ NOTE: By turning on this feature, you will be sending your data to the GPT4All O
- Afisează un mesaj scurt de asistenţă
+ Afisează un mesaj scurt de asistenţă
@@ -2797,7 +2802,7 @@ NOTE: By turning on this feature, you will be sending your data to the GPT4All O
- Se afişează când procedura este în desfăşurare
+ Se afişează când procedura este în desfăşurare
@@ -2814,7 +2819,7 @@ NOTE: By turning on this feature, you will be sending your data to the GPT4All O
- Conţine setări ale programului
+ Conţine setări ale programului
@@ -2861,7 +2866,7 @@ NOTE: By turning on this feature, you will be sending your data to the GPT4All O
- Despre această versiune
+ Despre această versiune
- ### Acceptul pentru analizarea utilizării anonime şi pentru DataLake
- Activând aceste functionalităţi vei putea participa la procesul democratic
+ ### Acceptul pentru analizarea utilizării anonime şi pentru DataLake
+ Activând aceste functionalităţi vei putea participa la procesul democratic
de instruire a unui
- model conversaţional prin contribuirea cu date/informaţii pentru îmbunătăţirea unor modele.
- Când un model în GPT4All Îţi răspunde şi îi accepţi răspunsul, conversaţia este
- trimisă la componenta
- Open-source DataLake a GPT4All. Mai mult - poţi aprecia (Like/Dislike) răspunsul. Dacă
- un răspuns Nu Îţi Place. poţi
- sugera un răspuns alternativ. Aceste date vor fi colectate şi agregate În
+ model conversaţional prin contribuirea cu date/informaţii pentru îmbunătăţirea unor modele.
+ Când un model în GPT4All Îţi răspunde şi îi accepţi răspunsul, conversaţia este
+ trimisă la componenta
+ Open-source DataLake a GPT4All. Mai mult - poţi aprecia (Like/Dislike) răspunsul. Dacă
+ un răspuns Nu Îţi Place. poţi
+ sugera un răspuns alternativ. Aceste date vor fi colectate şi agregate În
componenta DataLake a GPT4All.
- NOTă: Dacă activezi această funcţionalitate, vei trimite datele tale la componenta
+ NOTă: Dacă activezi această funcţionalitate, vei trimite datele tale la componenta
DataLake a GPT4All.
- Atunci nu te vei putea aştepta la intimitatea (privacy) conversaţiei dacă activezi această funcţionalitate.
- Totuşi, te poţi aştepta la a beneficia de apreciere -
- opţional, dacă doreşti. Datele din conversaţie vor fi disponibile
- pentru oricine vrea să le descarce şi vor fi utilizate de către Nomic AI
- pentru a îmbunătăţi modele viitoare în GPT4All.
- Nomic AI va păstra
- toate informaţiile despre atribuire asociate datelor tale şi vei fi menţionat ca
+ Atunci nu te vei putea aştepta la intimitatea (privacy) conversaţiei dacă activezi această funcţionalitate.
+ Totuşi, te poţi aştepta la a beneficia de apreciere -
+ opţional, dacă doreşti. Datele din conversaţie vor fi disponibile
+ pentru oricine vrea să le descarce şi vor fi utilizate de către Nomic AI
+ pentru a îmbunătăţi modele viitoare în GPT4All.
+ Nomic AI va păstra
+ toate informaţiile despre atribuire asociate datelor tale şi vei fi menţionat ca
participant contribuitor la orice lansare a unui model GPT4All
- care foloseşte datele tale!
+ care foloseşte datele tale!
@@ -2937,25 +2942,25 @@ an expectation of an optional attribution if you wish. Your chat data will be op
to download and will be used by Nomic AI to improve future GPT4All models. Nomic AI will retain all
attribution information attached to your data and you will be credited as a contributor to any GPT4All
model release that uses your data!
- ### Acordul pentru analizarea utilizării anonime şi pentru DataLake
- Activând aceste functionalităţi vei putea participa la procesul democratic de instruire
-a unui model conversaţional prin contribuirea cu date/informaţii pentru îmbunătăţirea unor modele.
+ ### Acordul pentru analizarea utilizării anonime şi pentru DataLake
+ Activând aceste functionalităţi vei putea participa la procesul democratic de instruire
+a unui model conversaţional prin contribuirea cu date/informaţii pentru îmbunătăţirea unor modele.
-Când un model în GPT4All îţi răspunde şi îi accepţi răspunsul, conversaţia este
-trimisă la componenta Open-source DataLake a GPT4All. Mai mult - poţi aprecia (Bravo/Aiurea) răspunsul. Dacă
-un răspuns e Aiurea. poţi sugera un răspuns alternativ. Aceste date vor fi colectate şi agregate în
+Când un model în GPT4All îţi răspunde şi îi accepţi răspunsul, conversaţia este
+trimisă la componenta Open-source DataLake a GPT4All. Mai mult - poţi aprecia (Bravo/Aiurea) răspunsul. Dacă
+un răspuns e Aiurea. poţi sugera un răspuns alternativ. Aceste date vor fi colectate şi agregate în
componenta DataLake a GPT4All.
-NOTĂ: Dacă activezi această funcţionalitate, vei trimite datele tale la componenta DataLake a GPT4All.
-Atunci nu te vei putea aştepta la intimitatea (privacy) conversaţiei dacă activezi această funcţionalitate.
-Totuşi, te poţi aştepta la a beneficia de apreciere -
-opţional, dacă doreşti. Datele din conversaţie vor fi disponibile
-pentru oricine vrea să le descarce şi vor fi utilizate de către Nomic AI
-pentru a îmbunătăţi modele viitoare în GPT4All.
-Nomic AI va păstra
-toate informaţiile despre atribuire asociate datelor tale şi vei fi menţionat ca
+NOTĂ: Dacă activezi această funcţionalitate, vei trimite datele tale la componenta DataLake a GPT4All.
+Atunci nu te vei putea aştepta la intimitatea (privacy) conversaţiei dacă activezi această funcţionalitate.
+Totuşi, te poţi aştepta la a beneficia de apreciere -
+opţional, dacă doreşti. Datele din conversaţie vor fi disponibile
+pentru oricine vrea să le descarce şi vor fi utilizate de către Nomic AI
+pentru a îmbunătăţi modele viitoare în GPT4All.
+Nomic AI va păstra
+toate informaţiile despre atribuire asociate datelor tale şi vei fi menţionat ca
participant contribuitor la orice lansare a unui model GPT4All
-care foloseşte datele tale!
+care foloseşte datele tale!
@@ -2967,7 +2972,7 @@ care foloseşte datele tale!
- Descrie ce se Întâmplă când participi
+ Descrie ce se Întâmplă când participi
@@ -2975,7 +2980,7 @@ care foloseşte datele tale!
- Acceptă colectarea de statistici despre utilizare anonmă
+ Acceptă colectarea de statistici despre utilizare anonmă
@@ -2989,7 +2994,7 @@ care foloseşte datele tale!
- Acceptă participarea la colectarea de statistici despre utilizare -anonimă-
+ Acceptă participarea la colectarea de statistici despre utilizare -anonimă-
@@ -3003,13 +3008,13 @@ care foloseşte datele tale!
- Anulează participarea la colectarea de statistici despre utilizare -anonimă-
+ Anulează participarea la colectarea de statistici despre utilizare -anonimă-
- Permite anularea participării la colectarea de statistici despre utilizare -anonimă-
+ Permite anularea participării la colectarea de statistici despre utilizare -anonimă-
@@ -3017,31 +3022,31 @@ care foloseşte datele tale!
- Acceptă pentru reţea
+ Acceptă pentru reţea
- Permite participarea pentru reţea
+ Permite participarea pentru reţea
- Permite participarea la partajarea (share) anonimă a conversaţiilor către DataLake a GPT4All
+ Permite participarea la partajarea (share) anonimă a conversaţiilor către DataLake a GPT4All
- Refuz participarea, pentru reţea
+ Refuz participarea, pentru reţea
- Permite anularea participării la partajarea anonimă a conversaţiilor către DataLake a GPT4All
+ Permite anularea participării la partajarea anonimă a conversaţiilor către DataLake a GPT4All
@@ -3049,25 +3054,25 @@ care foloseşte datele tale!
- <b>Atenţie:</b> schimbarea modelului va sterge conversaţia curentă. Confirmi aceasta?
+ <b>Atenţie:</b> schimbarea modelului va sterge conversaţia curentă. Confirmi aceasta?
- <b>Atenţie:</b> schimbarea modelului va şterge conversaţia curentă. Confirmi aceasta?
+ <b>Atenţie:</b> schimbarea modelului va şterge conversaţia curentă. Confirmi aceasta?
- Continuă
+ Continuă
- Continuă cu Încărcarea modelului
+ Continuă cu Încărcarea modelului
@@ -3084,13 +3089,13 @@ care foloseşte datele tale!
- Te rog, editează textul de mai jos pentru a oferi o replică mai bună (opţional).
+ Te rog, editează textul de mai jos pentru a oferi o replică mai bună (opţional).
- Te rog, oferă o replică mai bună...
+ Te rog, oferă o replică mai bună...
@@ -3102,7 +3107,7 @@ care foloseşte datele tale!
- Trimite răspunsul dat de utilizator
+ Trimite răspunsul dat de utilizator
@@ -3114,7 +3119,7 @@ care foloseşte datele tale!
- Închide dialogul răspunsului
+ Închide dialogul răspunsului
@@ -3126,11 +3131,11 @@ care foloseşte datele tale!
detected."</i><br><br>Unfortunately, your CPU does not meet
the minimal requirements to run this program. In particular, it does not support AVX
intrinsics which this program requires to successfully run a modern large language
- model. The only soluţion at this time is to upgrade your hardware to a more modern
+ model. The only soluţion at this time is to upgrade your hardware to a more modern
CPU.<br><br>See here for more information: <a
href="https://en.wikipedia.org/wiki/Advanced_Vector_Extensions">https://en.wikipedia.org/wiki/Advanced_Vector_Extensions</a>
- <h3>A apărut o eroare la iniţializare:; </h3><br><i>"Hardware incompatibil. "</i><br><br>Din păcate, procesorul (CPU) nu Întruneşte condiţiile minime pentru a rula acest program. în particular, nu suportă instrucţiunile AVX pe care programul le necesită pentru a integra un model conversaţional modern. în acest moment, unica soluţie este să Îţi aduci la zi sistemul hardware cu un CPU mai recent.<br><br>Aici sunt mai multe informaţii: <a href="https://en.wikipedia.org/wiki/Advanced_Vector_Extensions">https://en.wikipedia.org/wiki/Advanced_Vector_Extensions</a>
+ <h3>A apărut o eroare la iniţializare:; </h3><br><i>"Hardware incompatibil. "</i><br><br>Din păcate, procesorul (CPU) nu Întruneşte condiţiile minime pentru a rula acest program. în particular, nu suportă instrucţiunile AVX pe care programul le necesită pentru a integra un model conversaţional modern. în acest moment, unica soluţie este să Îţi aduci la zi sistemul hardware cu un CPU mai recent.<br><br>Aici sunt mai multe informaţii: <a href="https://en.wikipedia.org/wiki/Advanced_Vector_Extensions">https://en.wikipedia.org/wiki/Advanced_Vector_Extensions</a>
@@ -3146,79 +3151,83 @@ care foloseşte datele tale!
permissions in the local app config directory where the settings file is located.
Check out our <a href="https://discord.gg/4M2QFmTt2k">discord
channel</a> for help.
- <h3>A apărut o eroare la iniţializare:; </h3><br><i>"Nu poate fi accesat fişierul de configurare a programului."</i><br><br>Din păcate, ceva împiedică programul în a accesa acel fişier. Cauza poate fi un set de permisiuni incorecte În/pe directorul/folderul local de configurare unde se află acel fişier. Poţi parcurge canalul nostru <a href="https://discord.gg/4M2QFmTt2k">Discord</a> unde vei putea primi asistenţă.
+ <h3>A apărut o eroare la iniţializare:; </h3><br><i>"Nu poate fi accesat fişierul de configurare a programului."</i><br><br>Din păcate, ceva împiedică programul în a accesa acel fişier. Cauza poate fi un set de permisiuni incorecte În/pe directorul/folderul local de configurare unde se află acel fişier. Poţi parcurge canalul nostru <a href="https://discord.gg/4M2QFmTt2k">Discord</a> unde vei putea primi asistenţă.
+
+
+
+ <h3>A apărut o eroare la iniţializare:; </h3><br><i>"Hardware incompatibil. "</i><br><br>Din păcate, procesorul (CPU) nu întruneşte condiţiile minime pentru a rula acest program. În particular, nu suportă instrucţiunile AVX pe care programul le necesită pentru a integra un model conversaţional modern. În acest moment, unica soluţie este să îţi aduci la zi sistemul hardware cu un CPU mai recent.<br><br>Aici sunt mai multe informaţii: <a href="https://en.wikipedia.org/wiki/Advanced_Vector_Extensions">https://en.wikipedia.org/wiki/Advanced_Vector_Extensions</a>
-
- <h3>A apărut o eroare la iniţializare:; </h3><br><i>"Hardware incompatibil. "</i><br><br>Din păcate, procesorul (CPU) nu întruneşte condiţiile minime pentru a rula acest program. În particular, nu suportă instrucţiunile AVX pe care programul le necesită pentru a integra un model conversaţional modern. În acest moment, unica soluţie este să îţi aduci la zi sistemul hardware cu un CPU mai recent.<br><br>Aici sunt mai multe informaţii: <a href="https://en.wikipedia.org/wiki/Advanced_Vector_Extensions">https://en.wikipedia.org/wiki/Advanced_Vector_Extensions</a>
+
+
- <h3>A apărut o eroare la iniţializare:; </h3><br><i>"Nu poate fi accesat fişierul de configurare a programului."</i><br><br>Din păcate, ceva împiedică programul în a accesa acel fişier. Cauza poate fi un set de permisiuni incorecte în/pe directorul/folderul local de configurare unde se află acel fişier. Poţi parcurge canalul nostru <a href="https://discord.gg/4M2QFmTt2k">Discord</a> unde vei putea primi asistenţă.
+ <h3>A apărut o eroare la iniţializare:; </h3><br><i>"Nu poate fi accesat fişierul de configurare a programului."</i><br><br>Din păcate, ceva împiedică programul în a accesa acel fişier. Cauza poate fi un set de permisiuni incorecte în/pe directorul/folderul local de configurare unde se află acel fişier. Poţi parcurge canalul nostru <a href="https://discord.gg/4M2QFmTt2k">Discord</a> unde vei putea primi asistenţă.
- Conectarea la DataLake a eşuat.
+ Conectarea la DataLake a eşuat.
- Se salvează conversaţiile.
+ Se salvează conversaţiile.
- Dialogul despre reţea
+ Dialogul despre reţea
- acceptă partajarea (share) de comentarii/conversaţii
+ acceptă partajarea (share) de comentarii/conversaţii
- Secţiunea de Început
+ Secţiunea de Început
- Secţiunea de Început a programului
+ Secţiunea de Început a programului
- Prima<br>pagină
+ Prima<br>pagină
- Secţiunea conversaţiilor
+ Secţiunea conversaţiilor
- Secţiunea de chat pentru interacţiune cu modele
+ Secţiunea de chat pentru interacţiune cu modele
- Conversaţii
+ Conversaţii
@@ -3232,7 +3241,7 @@ care foloseşte datele tale!
- Secţiunea modelelor instalate
+ Secţiunea modelelor instalate
@@ -3246,7 +3255,7 @@ care foloseşte datele tale!
- Secţiunea LocalDocs de configurare şi folosire a Documentelor Locale
+ Secţiunea LocalDocs de configurare şi folosire a Documentelor Locale
@@ -3260,7 +3269,7 @@ care foloseşte datele tale!
- Secţiunea de configurare a programului
+ Secţiunea de configurare a programului
@@ -3272,7 +3281,7 @@ care foloseşte datele tale!
- Se foloseşte un model pe reţea
+ Se foloseşte un model pe reţea
@@ -3290,7 +3299,7 @@ care foloseşte datele tale!
- Secţiunea modelelor instalate
+ Secţiunea modelelor instalate
diff --git a/gpt4all-chat/translations/gpt4all_zh_CN.ts b/gpt4all-chat/translations/gpt4all_zh_CN.ts
index c2f0cf88..422e7940 100644
--- a/gpt4all-chat/translations/gpt4all_zh_CN.ts
+++ b/gpt4all-chat/translations/gpt4all_zh_CN.ts
@@ -119,26 +119,26 @@
触发模型的发现和筛选
-
-
+
+ 默认
-
-
+
+ 喜欢
-
-
+
+ 下载
-
-
+
+ 近期
@@ -147,14 +147,14 @@
排序:
-
-
+
+ 升序
-
-
+
+ 倒序
@@ -163,8 +163,8 @@
排序目录:
-
-
+
+ 无
@@ -183,170 +183,170 @@
搜索中 · %1
-
-
+
+ 排序: %1
-
-
+
+ 排序目录: %1
-
-
+
+ 数量: %1
-
-
+
+ 网络错误:无法检索 %1
-
-
-
-
+
+
+
+ 繁忙程度
-
-
+
+ 在模型请求进行中时显示
-
-
+
+ 模型文件
-
-
+
+ 待下载模型
-
-
+
+ 描述
-
-
+
+ 文件描述
-
-
+
+ 取消
-
-
+
+ 继续
-
-
+
+ 下载
-
-
+
+ 停止/重启/开始下载
-
-
+
+ 删除
-
-
+
+ 从系统中删除模型
-
-
-
-
+
+
+
+ 安装
-
-
+
+ 安装在线模型
-
-
+
+ <strong><font size="1"><a href="#error">错误</a></strong></font>
-
-
+
+ <strong><font size="2">警告: 你的设备硬件不推荐 ,模型需要的内存 (%1 GB)比你的系统还要多 (%2).</strong></font>
-
-
+
+ 错误:$API_KEY 为空
-
-
+
+ 错误:$BASE_URL 为空
-
-
+
+ 输入 $BASE_URL
-
-
+
+ 错误:$MODEL_NAME为空
-
-
+
+ 输入:$MODEL_NAME
-
-
+
+ %1 GB
-
-
-
-
+
+
+
+ ?
@@ -355,8 +355,8 @@
<a href="#error">错误</a>
-
-
+
+ 描述下载过程中发生的错误
@@ -373,74 +373,74 @@
你的系统需要 (
-
-
+
+ 硬件不兼容的错误
-
-
+
+ 下载进度
-
-
+
+ 显示下载进度
-
-
+
+ 下载速度
-
-
+
+ 下载速度 b/kb/mb /s
-
-
+
+ 计算中
-
-
-
-
-
-
-
-
+
+
+
+
+
+
+
+ 是否正在计算文件哈希
-
-
+
+ 在计算文件哈希时显示
-
-
+
+ 输入$API_KEY
-
-
+
+ 文件大小
-
-
+
+ RAM 需要
@@ -449,20 +449,20 @@
GB
-
-
+
+ 参数
-
-
+
+ 量化
-
-
+
+ 类型
@@ -533,74 +533,74 @@
应用的主题颜色
-
-
+
+ 深色
-
-
+
+ 亮色
-
-
+
+ LegacyDark
-
-
+
+ 字体大小
-
-
+
+ 应用中的文本大小。
-
-
+
+ 小
-
-
+
+ 中
-
-
+
+ 大
-
-
+
+ 语言和本地化
-
-
+
+ 你想使用的语言
-
-
+
+ 系统语言
-
-
+
+ 设备
@@ -609,166 +609,166 @@
用于文本生成的计算设备. "自动" 使用 Vulkan or Metal.
-
-
+
+ 设备用于文本生成
-
-
-
-
+
+
+
+ 程序默认
-
-
+
+ 默认模型
-
-
+
+ 新聊天的首选模式。也用作本地服务器回退。
-
-
+
+ 建议模式
-
-
+
+ 在答复结束时生成建议的后续问题。
-
-
+
+ 本地文档检索
-
-
+
+ 只要有可能
-
-
+
+ 从不
-
-
+
+ 下载目录
-
-
+
+ 本地模型和本地文档数据库存储目录
-
-
+
+ 查看
-
-
+
+ 模型下载目录
-
-
+
+ 开启数据湖
-
-
+
+ 发送对话和反馈给GPT4All 的开源数据湖。
-
-
+
+ 高级
-
-
+
+ CPU线程
-
-
+
+ 用于推理和嵌入的CPU线程数
-
-
+
+ 保存对话上下文
-
-
+
+ 保存模型's 状态以提供更快加载速度. 警告: 需用 ~2GB 每个对话.
-
-
+
+ 开启本地服务
-
-
+
+ 将OpenAI兼容服务器暴露给本地主机。警告:导致资源使用量增加。
-
-
+
+ API 服务端口
-
-
+
+ 使用本地服务的端口,需要重启
-
-
+
+ 检查更新
-
-
+
+ 手动检查更新
-
-
+
+ 更新
@@ -1621,66 +1621,72 @@ model to get started
-
- 技术设备用于embeddings. "自动" 使用.需要重启.
+
+ 技术设备用于embeddings. 需要重启.
-
-
+
+
+
+ 程序默认
+
+
+
+ 显示
-
-
+
+ 查看源码
-
-
+
+ 显示每个响应所使用的源。
-
-
+
+ 高级
-
-
+
+ 提示: 仅限高级使用。
-
-
+
+ 值过大可能会导致 localdocs 失败、响应速度极慢或根本无法响应。粗略地说,{N 个字符 x N 个片段} 被添加到模型的上下文窗口中。更多信息请见<a href="https://docs.gpt4all.io/gpt4all_desktop/localdocs.html">此处</a>。
-
-
+
+ 文档粘贴大小 (字符)
-
-
+
+ 每个文档片段的字符数。较大的数值增加了事实性响应的可能性,但也会导致生成速度变慢。
-
-
+
+ 每个提示的最大文档片段数
-
-
+
+ 检索到的文档片段最多添加到提示上下文中的前 N 个最佳匹配项。较大的数值增加了事实性响应的可能性,但也会导致生成速度变慢。
diff --git a/gpt4all-chat/translations/gpt4all_zh_TW.ts b/gpt4all-chat/translations/gpt4all_zh_TW.ts
index 19fbc6f5..144541fb 100644
--- a/gpt4all-chat/translations/gpt4all_zh_TW.ts
+++ b/gpt4all-chat/translations/gpt4all_zh_TW.ts
@@ -121,309 +121,309 @@
觸發探索與過濾模型
-
-
+
+ 預設
-
-
+
+ 讚
-
-
+
+ 下載次數
-
-
+
+ 最新
-
-
+
+ 排序依據:%1
-
-
+
+ 升序
-
-
+
+ 降序
-
-
+
+ 排序順序:%1
-
-
+
+ 無
-
-
+
+ 上限:%1
-
-
+
+ 網路錯誤:無法取得 %1
-
-
+
+ <strong><font size="1"><a href="#error">錯誤</a></strong></font>
-
-
+
+ <strong><font size="2">警告:不推薦在您的硬體上運作。模型需要比較多的記憶體(%1 GB),但您的系統記憶體空間不足(%2)。</strong></font>
-
-
+
+ %1 GB
-
-
-
-
+
+
+
+ ?
-
-
-
-
+
+
+
+ 參考自 https://terms.naer.edu.tw忙線指示器
-
-
+
+ 當模型請求正在進行時顯示
-
-
+
+ 模型檔案
-
-
+
+ 即將下載的模型檔案
-
-
+
+ 描述
-
-
+
+ 檔案描述
-
-
+
+ 取消
-
-
+
+ 恢復
-
-
+
+ 下載
-
-
+
+ 停止/重啟/開始下載
-
-
+
+ 移除
-
-
+
+ 從檔案系統移除模型
-
-
-
-
+
+
+
+ 安裝
-
-
+
+ 安裝線上模型
-
-
+
+ 解釋下載時發生的錯誤
-
-
+
+ 錯誤,不相容的硬體
-
-
+
+ 下載進度條
-
-
+
+ 顯示下載進度
-
-
+
+ 下載速度
-
-
+
+ 下載速度每秒 bytes/kilobytes/megabytes
-
-
+
+ 計算中......
-
-
-
-
-
-
-
-
+
+
+
+
+
+
+
+ 是否正在計算檔案雜湊
-
-
+
+ 計算檔案雜湊值時顯示
-
-
+
+ 錯誤:$API_KEY 未填寫。
-
-
+
+ 請輸入 $API_KEY
-
-
+
+ 錯誤:$BASE_URL 未填寫。
-
-
+
+ 請輸入 $BASE_URL
-
-
+
+ 錯誤:$MODEL_NAME 未填寫。
-
-
+
+ 請輸入 $MODEL_NAME
-
-
+
+ 檔案大小
-
-
+
+ 所需的記憶體
-
-
+
+ 參數
-
-
+
+ 量化
-
-
+
+ 類型
@@ -495,238 +495,238 @@
應用程式的配色方案。
-
-
+
+ 暗色
-
-
+
+ 亮色
-
-
+
+ 傳統暗色
-
-
+
+ 字體大小
-
-
+
+ 應用程式中的字體大小。
-
-
+
+ 小
-
-
+
+ 中
-
-
+
+ 大
-
-
+
+ 語言與區域設定
-
-
+
+ 您希望使用的語言與區域設定。
-
-
+
+ 系統語系
-
-
+
+ 裝置
-
-
+
+ 預設模型
-
-
+
+ 用於新交談的預設模型。也用於作為本機伺服器後援使用。
-
-
+
+ 建議模式
-
-
+
+ 當使用「我的文件」交談時
-
-
+
+ 視情況允許
-
-
+
+ 永不
-
-
+
+ 在回覆末尾生成後續建議的問題。
-
-
+
+ 用於生成文字的計算設備。
-
-
-
-
+
+
+
+ 應用程式預設值
-
-
+
+ 下載路徑
-
-
+
+ 儲存本機模型與「我的文件」資料庫的位置。
-
-
+
+ 瀏覽
-
-
+
+ 選擇儲存模型檔案的位置
-
-
+
+ 啟用資料湖泊
-
-
+
+ 將交談與回饋傳送到 GPT4All 開放原始碼資料湖泊。
-
-
+
+ 進階
-
-
+
+ 中央處理器(CPU)線程
-
-
+
+ 用於推理與嵌入的中央處理器線程數。
-
-
+
+ 儲存交談語境
-
-
+
+ 將交談模型的狀態儲存到磁碟以加快載入速度。警告:每次交談使用約 2GB。
-
-
+
+ 啟用本機伺服器
-
-
+
+ 將 OpenAI 相容伺服器公開給本機。警告:導致資源使用增加。
-
-
+
+ API 伺服器埠口
-
-
+
+ 用於本機伺服器的埠口。需要重新啟動。
-
-
+
+ 檢查更新
-
-
+
+ 手動檢查 GPT4All 的更新。
-
-
+
+ 更新
@@ -1524,66 +1524,72 @@ model to get started
-
- 用於嵌入的計算裝置。「Auto」將自動使用中央處理器。需要重新啟動。
+
+ 用於嵌入的計算裝置。需要重新啟動。
-
-
+
+
+
+ 應用程式預設值
+
+
+
+ 顯示
-
-
+
+ 查看來源
-
-
+
+ 顯示每則回覆所使用的來源。
-
-
+
+ 進階
-
-
+
+ 警告:僅限進階使用。
-
-
+
+ 設定太大的數值可能會導致「我的文件」處理失敗、反應速度極慢或根本無法回覆。簡單地說,這會將 {N 個字元 x N 個片段} 被添加到模型的語境視窗中。更多資訊<a href="https://docs.gpt4all.io/gpt4all_desktop/localdocs.html">此處</a>。
-
-
+
+ 文件片段大小(字元)
-
-
+
+ 每個文件片段的字元數。較大的數字會增加實際反應的可能性,但也會導致生成速度變慢。
-
-
+
+ 每個提示詞的最大文件片段
-
-
+
+ 新增至提示詞語境中的檢索到的文件片段的最大 N 個符合的項目。較大的數字會增加實際反應的可能性,但也會導致生成速度變慢。