diff --git a/gpt4all-chat/CHANGELOG.md b/gpt4all-chat/CHANGELOG.md
index f5df9944..808648d5 100644
--- a/gpt4all-chat/CHANGELOG.md
+++ b/gpt4all-chat/CHANGELOG.md
@@ -15,6 +15,7 @@ The format is based on [Keep a Changelog](https://keepachangelog.com/en/1.1.0/).
- Correct typos in Traditional Chinese translation (by [@supersonictw](https://github.com/supersonictw) in [#2852](https://github.com/nomic-ai/gpt4all/pull/2852))
- Set the window icon on Linux ([#2880](https://github.com/nomic-ai/gpt4all/pull/2880))
- Corrections to the Romanian translation (by [@SINAPSA-IC](https://github.com/SINAPSA-IC) in [#2890](https://github.com/nomic-ai/gpt4all/pull/2890))
+- Fix singular/plural forms of LocalDocs "x Sources" (by [@cosmic-snow](https://github.com/cosmic-snow) in [#2885](https://github.com/nomic-ai/gpt4all/pull/2885))
## [3.2.1] - 2024-08-13
diff --git a/gpt4all-chat/qml/ChatView.qml b/gpt4all-chat/qml/ChatView.qml
index 920e2759..f62b6654 100644
--- a/gpt4all-chat/qml/ChatView.qml
+++ b/gpt4all-chat/qml/ChatView.qml
@@ -1142,7 +1142,7 @@ Rectangle {
}
Text {
- text: qsTr("%1 Sources").arg(consolidatedSources.length)
+ text: qsTr("%n Source(s)", "", consolidatedSources.length)
padding: 0
font.pixelSize: theme.fontSizeLarge
font.bold: true
diff --git a/gpt4all-chat/translations/gpt4all_en_US.ts b/gpt4all-chat/translations/gpt4all_en_US.ts
index b8944c0c..0221d4e7 100644
--- a/gpt4all-chat/translations/gpt4all_en_US.ts
+++ b/gpt4all-chat/translations/gpt4all_en_US.ts
@@ -5,73 +5,61 @@
AddCollectionView
-
-
-
-
-
-
-
-
-
-
-
-
@@ -80,295 +68,244 @@
AddModelView
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
@@ -377,52 +314,41 @@
-
-
-
-
-
-
-
-
-
-
-
@@ -431,25 +357,21 @@
ApplicationSettings
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
@@ -757,73 +634,61 @@
ChatDrawer
-
-
-
-
-
-
-
-
-
-
-
-
@@ -865,392 +730,328 @@
ChatView
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
+
-
-
-
+
+
+ %n Source
+ %n Sources
+
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
@@ -1259,13 +1060,11 @@ model to get started
CollectionsDrawer
-
- %n file
@@ -1274,7 +1073,6 @@ model to get started
- %n word
@@ -1283,19 +1081,16 @@ model to get started
-
-
-
@@ -1342,109 +1137,91 @@ model to get started
HomeView
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
@@ -1453,139 +1230,116 @@ model to get started
LocalDocsSettings
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
@@ -1594,139 +1348,116 @@ model to get started
LocalDocsView
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
- %n file
@@ -1735,7 +1466,6 @@ model to get started
- %n word
@@ -1744,31 +1474,26 @@ model to get started
-
-
-
-
-
@@ -1845,109 +1570,91 @@ model to get started
ModelSettings
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
@@ -1955,148 +1662,124 @@ NOTE: Does not take effect until you reload the model.
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
@@ -2107,203 +1790,168 @@ NOTE: Does not take effect until you reload the model.
ModelsView
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
@@ -2312,58 +1960,46 @@ NOTE: Does not take effect until you reload the model.
-
-
-
-
-
-
-
-
-
-
-
-
@@ -2372,13 +2008,11 @@ NOTE: Does not take effect until you reload the model.
MyFancyLink
-
-
@@ -2387,7 +2021,6 @@ NOTE: Does not take effect until you reload the model.
MySettingsStack
-
@@ -2396,13 +2029,11 @@ NOTE: Does not take effect until you reload the model.
MySettingsTab
-
-
@@ -2411,13 +2042,11 @@ NOTE: Does not take effect until you reload the model.
NetworkDialog
-
-
-
-
-
-
-
-
-
-
-
@@ -2484,19 +2104,16 @@ NOTE: By turning on this feature, you will be sending your data to the GPT4All O
NewVersionDialog
-
-
-
@@ -2505,19 +2122,16 @@ NOTE: By turning on this feature, you will be sending your data to the GPT4All O
PopupDialog
-
-
-
@@ -2527,32 +2141,26 @@ NOTE: By turning on this feature, you will be sending your data to the GPT4All O
-
-
-
-
-
-
@@ -2561,13 +2169,11 @@ NOTE: By turning on this feature, you will be sending your data to the GPT4All O
StartupDialog
-
-
@@ -2575,19 +2181,16 @@ NOTE: By turning on this feature, you will be sending your data to the GPT4All O
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
@@ -2695,27 +2281,22 @@ model release that uses your data!
SwitchModelDialog
-
-
-
-
-
@@ -2724,37 +2305,31 @@ model release that uses your data!
ThumbsDownDialog
-
-
-
-
-
-
@@ -2763,151 +2338,124 @@ model release that uses your data!
main
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
diff --git a/gpt4all-chat/translations/gpt4all_es_MX.ts b/gpt4all-chat/translations/gpt4all_es_MX.ts
index 433d514a..a3498c43 100644
--- a/gpt4all-chat/translations/gpt4all_es_MX.ts
+++ b/gpt4all-chat/translations/gpt4all_es_MX.ts
@@ -5,73 +5,61 @@
AddCollectionView
- ← Colecciones existentes
- Agregar colección de documentos
- Agregue una carpeta que contenga archivos de texto plano, PDFs o Markdown. Configure extensiones adicionales en Configuración.
- Por favor, elija un directorio
- Nombre
- Nombre de la colección...
- Nombre de la colección a agregar (Requerido)
- Carpeta
- Ruta de la carpeta...
- Ruta de la carpeta de documentos (Requerido)
- Explorar
- Crear colección
@@ -80,265 +68,219 @@
AddModelView
- ← Modelos existentes
- Explorar modelos
- Descubre y descarga modelos mediante búsqueda por palabras clave...
- Campo de texto para descubrir y filtrar modelos descargables
- Iniciar descubrimiento y filtrado de modelos
- Activa el descubrimiento y filtrado de modelos
- Predeterminado
- Me gusta
- Descargas
- Reciente
- Asc
- Desc
- Ninguno
- Buscando · %1
- Ordenar por: %1
- Dirección de ordenamiento: %1
- Límite: %1
- Error de red: no se pudo recuperar %1
-
- Indicador de ocupado
- Se muestra cuando la solicitud de modelos está en curso
- Archivo del modelo
- Archivo del modelo a descargar
- Descripción
- Descripción del archivo
- Cancelar
- Reanudar
- Descargar
- Detener/reiniciar/iniciar la descarga
- Eliminar
- Eliminar modelo del sistema de archivos
-
- Instalar
- Instalar modelo en línea
- <strong><font size="1"><a href="#error">Error</a></strong></font>
- <strong><font size="2">ADVERTENCIA: No recomendado para tu hardware. El modelo requiere más memoria (%1 GB) de la que tu sistema tiene disponible (%2).</strong></font>
- %1 GB
-
- ?
- Describe un error que ocurrió durante la descarga
- Error por hardware incompatible
- Barra de progreso de descarga
- Muestra el progreso realizado en la descarga
- Velocidad de descarga
- Velocidad de descarga en bytes/kilobytes/megabytes por segundo
- Calculando...
@@ -347,82 +289,66 @@
-
-
-
- Si se está calculando el hash del archivo
- Se muestra cuando se está calculando el hash del archivo
- ingrese $API_KEY
- Tamaño del archivo
- RAM requerida
- Parámetros
- Cuantificación
- Tipo
- ERROR: $API_KEY está vacío.
- ERROR: $BASE_URL está vacío.
- ingrese $BASE_URL
- ERROR: $MODEL_NAME está vacío.
- ingrese $MODEL_NAME
@@ -431,25 +357,21 @@
ApplicationSettings
- Aplicación
- Diálogo de red
- optar por compartir comentarios/conversaciones
-
- Diálogo de error
- Configuración de la aplicación
- General
- Tema
- El esquema de colores de la aplicación.
- Oscuro
- Claro
- Oscuro legado
- Tamaño de fuente
- El tamaño del texto en la aplicación.
- Dispositivo
@@ -531,151 +442,126 @@
- Pequeño
- Mediano
- Grande
- Idioma y configuración regional
- El idioma y la configuración regional que deseas usar.
- Modelo predeterminado
- El modelo preferido para nuevos chats. También se utiliza como respaldo del servidor local.
- Modo de sugerencia
- Generar preguntas de seguimiento sugeridas al final de las respuestas.
- Al chatear con LocalDocs
- Siempre que sea posible
- Nunca
- Ruta de descarga
- Dónde almacenar los modelos locales y la base de datos de LocalDocs.
- Explorar
- Elegir dónde guardar los archivos del modelo
- Habilitar Datalake
- Enviar chats y comentarios al Datalake de código abierto de GPT4All.
- Avanzado
- Hilos de CPU
- El número de hilos de CPU utilizados para inferencia e incrustación.
- Guardar contexto del chat
- Guardar el estado del modelo de chat en el disco para una carga más rápida. ADVERTENCIA: Usa ~2GB por chat.
- Exponer un servidor compatible con OpenAI a localhost. ADVERTENCIA: Resulta en un mayor uso de recursos.
- Habilitar servidor local
@@ -687,51 +573,42 @@
- Puerto del servidor API
- El puerto a utilizar para el servidor local. Requiere reinicio.
- Buscar actualizaciones
- Buscar manualmente una actualización para GPT4All.
- Actualizaciones
- Regional del sistema
- El dispositivo de cómputo utilizado para la generación de texto.
-
- Predeterminado de la aplicación
@@ -783,73 +660,61 @@
ChatDrawer
- Cajón
- Cajón de navegación principal
- + Nuevo chat
- Crear un nuevo chat
- Seleccionar el chat actual o editar el chat cuando esté en modo de edición
- Editar nombre del chat
- Guardar nombre del chat
- Eliminar chat
- Confirmar eliminación del chat
- Cancelar eliminación del chat
- Lista de chats
- Lista de chats en el diálogo del cajón
@@ -891,177 +756,147 @@
ChatView
- <h3>Advertencia</h3><p>%1</p>
- Diálogo para cambiar de modelo
- Advertir al usuario si cambia de modelo, entonces se borrará el contexto
- Conversación copiada al portapapeles.
- Código copiado al portapapeles.
- Panel de chat
- Panel de chat con opciones
- Recargar el modelo actualmente cargado
- Expulsar el modelo actualmente cargado
- No hay modelo instalado.
- Error al cargar el modelo.
- Esperando al modelo...
- Cambiando contexto...
- Elige un modelo...
- No encontrado: %1
- El elemento superior es el modelo actual
-
- DocumentosLocales
- Agregar documentos
- agregar colecciones de documentos al chat
- Cargar el modelo predeterminado
- Carga el modelo predeterminado que se puede cambiar en la configuración
- No hay modelo instalado
- <h3>Se encontró un error al cargar el modelo:</h3><br><i>"%1"</i><br><br>Los fallos en la carga de modelos pueden ocurrir por varias razones, pero las causas más comunes incluyen un formato de archivo incorrecto, una descarga incompleta o corrupta, un tipo de archivo equivocado, RAM del sistema insuficiente o un tipo de modelo incompatible. Aquí hay algunas sugerencias para resolver el problema:<br><ul><li>Asegúrate de que el archivo del modelo tenga un formato y tipo compatibles<li>Verifica que el archivo del modelo esté completo en la carpeta de descargas<li>Puedes encontrar la carpeta de descargas en el diálogo de configuración<li>Si has cargado el modelo manualmente, asegúrate de que el archivo no esté corrupto verificando el md5sum<li>Lee más sobre qué modelos son compatibles en nuestra <a href="https://docs.gpt4all.io/">documentación</a> para la interfaz gráfica<li>Visita nuestro <a href="https://discord.gg/4M2QFmTt2k">canal de discord</a> para obtener ayuda
- Instalar un modelo
- Muestra la vista de agregar modelo
- Conversación con el modelo
- pares de pregunta / respuesta de la conversación
- GPT4All
- Tú
@@ -1071,209 +906,176 @@
- respuesta detenida ...
- procesando ...
- generando respuesta ...
- generando preguntas ...
-
- Copiar
- Copiar mensaje
- Desactivar markdown
- Activar markdown
- Me gusta
- Da un me gusta a la respuesta
- No me gusta
- Abre el diálogo de no me gusta
-
-
-
-
- %1 Fuentes
-
- Seguimientos sugeridos
- Borrar y reiniciar sesión de chat
- Copiar sesión de chat al portapapeles
- Rehacer última respuesta del chat
- Detener generación
- Detener la generación de la respuesta actual
- Recarga el modelo
-
- Recargar · %1
- Cargando · %1
- Cargar · %1 (predeterminado) →
- recuperando documentos locales: %1 ...
- buscando en documentos locales: %1 ...
+
+
+
+
+ %n Fuente
+ %n Fuentes
+
+
- Enviar un mensaje...
- Carga un modelo para continuar...
- Enviar mensajes/indicaciones al modelo
- Cortar
- Pegar
- Seleccionar todo
- Enviar mensaje
- Envía el mensaje/indicación contenido en el campo de texto al modelo
- GPT4All requiere que instale al menos un
@@ -1282,7 +1084,6 @@ modelo para comenzar
- restaurando desde texto ...
@@ -1291,13 +1092,11 @@ modelo para comenzar
CollectionsDrawer
- Advertencia: buscar en colecciones mientras se indexan puede devolver resultados incompletos
- %n archivo
@@ -1306,7 +1105,6 @@ modelo para comenzar
- %n palabra
@@ -1315,19 +1113,16 @@ modelo para comenzar
- Actualizando
- + Agregar documentos
- Seleccione una colección para hacerla disponible al modelo de chat.
@@ -1374,109 +1169,91 @@ modelo para comenzar
HomeView
- Bienvenido a GPT4All
- La aplicación de chat LLM que prioriza la privacidad
- Comenzar a chatear
- Iniciar chat
- Chatear con cualquier LLM
- DocumentosLocales
- Chatear con tus archivos locales
- Buscar modelos
- Explorar y descargar modelos
- Últimas noticias
- Últimas noticias de GPT4All
- Notas de la versión
- Documentación
- Discord
- X (Twitter)
- Github
- GPT4All.io
- Suscribirse al boletín
@@ -1485,25 +1262,21 @@ modelo para comenzar
LocalDocsSettings
- DocumentosLocales
- Configuración de DocumentosLocales
- Indexación
- Extensiones de archivo permitidas
@@ -1515,13 +1288,11 @@ modelo para comenzar
- Incrustación
- Usar API de incrustación Nomic
@@ -1533,91 +1304,76 @@ modelo para comenzar
- Clave API de Nomic
- Clave API para usar con Nomic Embed. Obtén una en la <a href="https://atlas.nomic.ai/cli-login">página de claves API</a> de Atlas. Requiere reinicio.
- Dispositivo de incrustaciones
- El dispositivo de cómputo utilizado para las incrustaciones. Requiere reinicio.
- Lista separada por comas. LocalDocs solo intentará procesar archivos con estas extensiones.
- Incrustar documentos usando la API rápida de Nomic en lugar de un modelo local privado. Requiere reinicio.
- Predeterminado de la aplicación
- Visualización
- Mostrar fuentes
- Mostrar las fuentes utilizadas para cada respuesta.
- Avanzado
- Advertencia: Solo para uso avanzado.
- Valores demasiado grandes pueden causar fallos en localdocs, respuestas extremadamente lentas o falta de respuesta. En términos generales, los {N caracteres x N fragmentos} se añaden a la ventana de contexto del modelo. Más información <a href="https://docs.gpt4all.io/gpt4all_desktop/localdocs.html">aquí</a>.
- Número de caracteres por fragmento de documento. Números más grandes aumentan la probabilidad de respuestas verídicas, pero también resultan en una generación más lenta.
- Máximo de N mejores coincidencias de fragmentos de documentos recuperados para añadir al contexto del prompt. Números más grandes aumentan la probabilidad de respuestas verídicas, pero también resultan en una generación más lenta.
@@ -1628,13 +1384,11 @@ modelo para comenzar
- Tamaño del fragmento de documento (caracteres)
- Máximo de fragmentos de documento por indicación
@@ -1643,19 +1397,16 @@ modelo para comenzar
LocalDocsView
- DocumentosLocales
- Chatea con tus archivos locales
- + Agregar colección
@@ -1665,115 +1416,96 @@ modelo para comenzar
- No hay colecciones instaladas
- Instala una colección de documentos locales para comenzar a usar esta función
- + Agregar colección de documentos
- Muestra la vista de agregar modelo
- Barra de progreso de indexación
- Muestra el progreso realizado en la indexación
- ERROR
- INDEXANDO
- INCRUSTANDO
- REQUIERE ACTUALIZACIÓN
- LISTO
- INSTALANDO
- Indexación en progreso
- Incrustación en progreso
- Esta colección requiere una actualización después del cambio de versión
- Reindexación automática al cambiar la carpeta
- Instalación en progreso
- %
- %n archivo
@@ -1782,7 +1514,6 @@ modelo para comenzar
- %n palabra
@@ -1791,37 +1522,31 @@ modelo para comenzar
- Eliminar
- Reconstruir
- Reindexar esta carpeta desde cero. Esto es lento y generalmente no es necesario.
- Actualizar
- Actualizar la colección a la nueva versión. Esta es una operación lenta.
- <h3>ERROR: No se puede acceder a la base de datos LocalDocs o no es válida.</h3><br><i>Nota: Necesitará reiniciar después de intentar cualquiera de las siguientes soluciones sugeridas.</i><br><ul><li>Asegúrese de que la carpeta establecida como <b>Ruta de Descarga</b> exista en el sistema de archivos.</li><li>Verifique la propiedad y los permisos de lectura y escritura de la <b>Ruta de Descarga</b>.</li><li>Si hay un archivo <b>localdocs_v2.db</b>, verifique también su propiedad y permisos de lectura/escritura.</li></ul><br>Si el problema persiste y hay archivos 'localdocs_v*.db' presentes, como último recurso puede<br>intentar hacer una copia de seguridad y eliminarlos. Sin embargo, tendrá que recrear sus colecciones.
@@ -1904,103 +1629,86 @@ modelo para comenzar
ModelSettings
- Modelo
- Configuración del modelo
- Clonar
- Eliminar
- Nombre
- Archivo del modelo
- Indicación del sistema
- Prefijado al inicio de cada conversación. Debe contener los tokens de encuadre apropiados.
- Plantilla de indicación
- La plantilla que envuelve cada indicación.
- Debe contener la cadena "%1" para ser reemplazada con la entrada del usuario.
- Indicación para el nombre del chat
- Indicación utilizada para generar automáticamente nombres de chat.
- Indicación de seguimiento sugerida
- Indicación utilizada para generar preguntas de seguimiento sugeridas.
- Longitud del contexto
- Número de tokens de entrada y salida que el modelo ve.
@@ -2012,19 +1720,16 @@ NOTA: No tiene efecto hasta que recargues el modelo.
- Temperatura
- Aleatoriedad de la salida del modelo. Mayor -> más variación.
- La temperatura aumenta las probabilidades de elegir tokens menos probables.
@@ -2032,19 +1737,16 @@ NOTA: Una temperatura más alta da resultados más creativos pero menos predecib
- Top-P
- Factor de muestreo de núcleo. Menor -> más predecible.
- Solo se pueden elegir los tokens más probables hasta una probabilidad total de top_p.
@@ -2052,67 +1754,56 @@ NOTA: Evita elegir tokens altamente improbables.
- Min-P
- Probabilidad mínima del token. Mayor -> más predecible.
- Establece la probabilidad relativa mínima para que un token sea considerado.
- Top-K
- Tamaño del grupo de selección para tokens.
- Solo se elegirán los K tokens más probables.
- Longitud máxima
- Longitud máxima de respuesta, en tokens.
- Tamaño del lote de indicaciones
- El tamaño del lote utilizado para el procesamiento de indicaciones.
- Cantidad de tokens de prompt a procesar de una vez.
@@ -2120,43 +1811,36 @@ NOTA: Valores más altos pueden acelerar la lectura de prompts, pero usarán má
- Penalización por repetición
- Factor de penalización por repetición. Establecer a 1 para desactivar.
- Tokens de penalización por repetición
- Número de tokens anteriores utilizados para la penalización.
- Capas de GPU
- Número de capas del modelo a cargar en la VRAM.
-
@@ -2166,7 +1850,6 @@ NOTA: No surtirá efecto hasta que recargue el modelo.
-
@@ -2179,173 +1862,143 @@ NOTA: No surte efecto hasta que recargue el modelo.
ModelsView
- No hay modelos instalados
- Instala un modelo para empezar a usar GPT4All
-
- + Agregar modelo
- Muestra la vista de agregar modelo
- Modelos instalados
- Modelos de chat instalados localmente
- Archivo del modelo
- Archivo del modelo a descargar
- Descripción
- Descripción del archivo
- Cancelar
- Reanudar
- Detener/reiniciar/iniciar la descarga
- Eliminar
- Eliminar modelo del sistema de archivos
-
- Instalar
- Instalar modelo en línea
- <strong><font size="1"><a href="#error">Error</a></strong></font>
- <strong><font size="2">ADVERTENCIA: No recomendado para su hardware. El modelo requiere más memoria (%1 GB) de la que su sistema tiene disponible (%2).</strong></font>
- %1 GB
- ?
- Describe un error que ocurrió durante la descarga
- Error por hardware incompatible
- Barra de progreso de descarga
- Muestra el progreso realizado en la descarga
- Velocidad de descarga
- Velocidad de descarga en bytes/kilobytes/megabytes por segundo
- Calculando...
@@ -2354,88 +2007,71 @@ NOTA: No surte efecto hasta que recargue el modelo.
-
-
-
- Si se está calculando el hash del archivo
- Indicador de ocupado
- Se muestra cuando se está calculando el hash del archivo
- ingrese $API_KEY
- Tamaño del archivo
- RAM requerida
- Parámetros
- Cuantificación
- Tipo
- ERROR: $API_KEY está vacía.
- ERROR: $BASE_URL está vacía.
- ingrese $BASE_URL
- ERROR: $MODEL_NAME está vacío.
- ingrese $MODEL_NAME
@@ -2444,13 +2080,11 @@ NOTA: No surte efecto hasta que recargue el modelo.
MyFancyLink
- Enlace elegante
- Un enlace estilizado
@@ -2459,7 +2093,6 @@ NOTA: No surte efecto hasta que recargue el modelo.
MySettingsStack
- Por favor, elija un directorio
@@ -2468,13 +2101,11 @@ NOTA: No surte efecto hasta que recargue el modelo.
MySettingsTab
- Restaurar valores predeterminados
- Restaura el diálogo de configuración a su estado predeterminado
@@ -2483,7 +2114,6 @@ NOTA: No surte efecto hasta que recargue el modelo.
NetworkDialog
- Contribuir datos al Datalake de código abierto de GPT4All.
@@ -2502,7 +2132,6 @@ NOTA: Al activar esta función, enviará sus datos al Datalake de código abiert
-
- Términos para optar por participar
- Describe lo que sucederá cuando opte por participar
- Por favor, proporcione un nombre para la atribución (opcional)
- Atribución (opcional)
- Proporcionar atribución
- Habilitar
- Habilitar participación
- Cancelar
- Cancelar participación
@@ -2573,19 +2193,16 @@ NOTA: Al activar esta función, estarás enviando tus datos al Datalake de Códi
NewVersionDialog
- Nueva versión disponible
- Actualizar
- Actualizar a nueva versión
@@ -2594,19 +2211,16 @@ NOTA: Al activar esta función, estarás enviando tus datos al Datalake de Códi
PopupDialog
- Muestra un globo de ayuda de corta duración
- Indicador de ocupado
- Se muestra cuando la ventana emergente está ocupada
@@ -2623,32 +2237,26 @@ NOTA: Al activar esta función, estarás enviando tus datos al Datalake de Códi
-
- Configuración
- Contiene varias configuraciones de la aplicación
- Aplicación
- Modelo
- DocumentosLocales
@@ -2657,19 +2265,16 @@ NOTA: Al activar esta función, estarás enviando tus datos al Datalake de Códi
StartupDialog
- ¡Bienvenido!
- Notas de la versión
- Notas de la versión para esta versión
@@ -2696,93 +2301,75 @@ NOTA: Al activar esta función, estarás enviando tus datos al Datalake de Códi
- Términos para aceptar
- Describe lo que sucederá cuando acepte
-
- Aceptar estadísticas de uso anónimas
-
- Sí
- Permitir aceptación de estadísticas de uso anónimas
-
- No
- Rechazar estadísticas de uso anónimas
- Permitir rechazo de estadísticas de uso anónimas
-
- Aceptar para la red
- Permitir aceptación para la red
- Permitir compartir anónimamente los chats con el Datalake de GPT4All
- Rechazar para la red
- Permitir rechazar el compartir anónimo de chats con el Datalake de GPT4All
-
@@ -2793,7 +2380,6 @@ NOTA: Al activar esta función, estarás enviando tus datos al Datalake de Códi
-
- <b>Advertencia:</b> cambiar el modelo borrará la conversación actual. ¿Deseas continuar?
- Continuar
- Continuar con la carga del modelo
-
- Cancelar
@@ -2863,38 +2444,32 @@ lanzamiento de modelo GPT4All que utilice sus datos.
ThumbsDownDialog
- Por favor, edite el texto a continuación para proporcionar una mejor
respuesta. (opcional)
- Por favor, proporcione una mejor respuesta...
- Enviar
- Envía la respuesta del usuario
- Cancelar
- Cierra el diálogo de respuesta
@@ -2903,152 +2478,125 @@ lanzamiento de modelo GPT4All que utilice sus datos.
main
- GPT4All v%1
- <h3>Se encontró un error al iniciar:</h3><br><i>"Se detectó hardware incompatible."</i><br><br>Desafortunadamente, tu CPU no cumple con los requisitos mínimos para ejecutar este programa. En particular, no soporta instrucciones AVX, las cuales este programa requiere para ejecutar con éxito un modelo de lenguaje grande moderno. La única solución en este momento es actualizar tu hardware a una CPU más moderna.<br><br>Consulta aquí para más información: <a href="https://en.wikipedia.org/wiki/Advanced_Vector_Extensions">https://en.wikipedia.org/wiki/Advanced_Vector_Extensions</a>
- <h3>Se encontró un error al iniciar:</h3><br><i>"No se puede acceder al archivo de configuración."</i><br><br>Desafortunadamente, algo está impidiendo que el programa acceda al archivo de configuración. Esto podría ser causado por permisos incorrectos en el directorio de configuración local de la aplicación donde se encuentra el archivo de configuración. Visita nuestro <a href="https://discord.gg/4M2QFmTt2k">canal de Discord</a> para obtener ayuda.
- La conexión al datalake falló.
- Guardando chats.
- Diálogo de red
- optar por compartir comentarios/conversaciones
- Vista de inicio
- Vista de inicio de la aplicación
- Inicio
- Vista de chat
- Vista de chat para interactuar con modelos
- Chats
-
- Modelos
- Vista de modelos para modelos instalados
-
- Docs
Locales
- Vista de DocumentosLocales para configurar y usar documentos locales
-
- Config.
- Vista de configuración para la configuración de la aplicación
- El datalake está habilitado
- Usando un modelo de red
- El modo servidor está habilitado
- Modelos instalados
- Vista de modelos instalados
diff --git a/gpt4all-chat/translations/gpt4all_it_IT.ts b/gpt4all-chat/translations/gpt4all_it_IT.ts
index e1d63a34..e3615035 100644
--- a/gpt4all-chat/translations/gpt4all_it_IT.ts
+++ b/gpt4all-chat/translations/gpt4all_it_IT.ts
@@ -5,73 +5,61 @@
AddCollectionView
- ← Raccolte esistenti
- Aggiungi raccolta documenti
- Aggiungi una cartella contenente file di testo semplice, PDF o Markdown. Configura estensioni aggiuntive in Settaggi.
- Scegli una cartella
- Nome
- Nome della raccolta...
- Nome della raccolta da aggiungere (Obbligatorio)
- Cartella
- Percorso cartella...
- Percorso della cartella dei documenti (richiesto)
- Esplora
- Crea raccolta
@@ -80,295 +68,244 @@
AddModelView
- ← Modelli esistenti
- Esplora modelli
- Scopri e scarica i modelli tramite ricerca per parole chiave...
- Campo di testo per scoprire e filtrare i modelli scaricabili
- Avvia rilevamento e filtraggio dei modelli
- Attiva la scoperta e il filtraggio dei modelli
- Predefinito
- Mi piace
- Scaricamenti
- Recenti
- Asc
- Disc
- Niente
- Ricerca · %1
- Ordina per: %1
- Direzione ordinamento: %1
- Limite: %1
- Errore di rete: impossibile recuperare %1
-
- Indicatore di occupato
- Visualizzato quando la richiesta dei modelli è in corso
- File del modello
- File del modello da scaricare
- Descrizione
- Descrizione del file
- Annulla
- Riprendi
- Scarica
- Arresta/riavvia/avvia il download
- Rimuovi
- Rimuovi il modello dal sistema dei file
-
- Installa
- Installa il modello online
- <strong><font size="2">AVVERTENZA: non consigliato per il tuo hardware. Il modello richiede più memoria (%1 GB) di quella disponibile nel sistema (%2).</strong></font>
- ERRORE: $API_KEY è vuoto.
- ERRORE: $BASE_URL non è valido.
- inserisci $BASE_URL
- ERRORE: $MODEL_NAME è vuoto.
- inserisci $MODEL_NAME
-
-
-
- Descrive un errore che si è verificato durante lo scaricamento
- <strong><font size="1"><a href="#error">Errore</a></strong></font>
- Errore per hardware incompatibile
- Barra di avanzamento dello scaricamento
- Mostra lo stato di avanzamento dello scaricamento
- Velocità di scaricamento
- Velocità di scaricamento in byte/kilobyte/megabyte al secondo
- Calcolo in corso...
@@ -377,52 +314,41 @@
-
-
-
- Se viene calcolato l'hash del file
- Visualizzato durante il calcolo dell'hash del file
- Inserire $API_KEY
- Dimensione del file
- RAM richiesta
- Parametri
- Quant
- Tipo
@@ -431,25 +357,21 @@
ApplicationSettings
- Applicazione
- Dialogo di rete
- aderisci per condividere feedback/conversazioni
-
- Dialogo d'errore
- Settaggi applicazione
- Generale
- Tema
- La combinazione di colori dell'applicazione.
- Scuro
- Chiaro
- Scuro Legacy
- Dimensioni del Font
- La dimensione del testo nell'applicazione.
- Piccolo
- Medio
- Grande
- Lingua e settaggi locali
- La lingua e i settaggi locali che vuoi utilizzare.
- Settaggi locali del sistema
- Dispositivo
@@ -567,166 +472,138 @@
- Il dispositivo di calcolo utilizzato per la generazione del testo.
-
- Applicazione predefinita
- Modello predefinito
- Il modello preferito per le nuove chat. Utilizzato anche come ripiego del server locale.
- Modalità suggerimento
- Genera le domande di approfondimento suggerite alla fine delle risposte.
- Quando chatti con LocalDocs
- Quando possibile
- Mai
- Percorso di scarico
- Dove archiviare i modelli locali e il database LocalDocs.
- Esplora
- Scegli dove salvare i file del modello
- Abilita Datalake
- Invia chat e commenti al Datalake Open Source GPT4All.
- Avanzate
- Thread della CPUTread CPU
- Il numero di thread della CPU utilizzati per l'inferenza e l'incorporamento.
- Salva il contesto della chat
- Salva lo stato del modello di chat su disco per un caricamento più rapido. ATTENZIONE: utilizza circa 2 GB per chat.
- Abilita server locale
- Esporre un server compatibile con OpenAI a localhost. ATTENZIONE: comporta un maggiore utilizzo delle risorse.
- Porta del server API
- La porta da utilizzare per il server locale. Richiede il riavvio.
- Controlla gli aggiornamenti
- Verifica manualmente l'aggiornamento di GPT4All.
- Aggiornamenti
@@ -762,73 +639,61 @@
ChatDrawer
- Cassetto
- Cassetto di navigazione principale
- + Nuova Chat
- Crea una nuova chat
- Seleziona la chat corrente o modifica la chat in modalità modifica
- Modifica il nome della chat
- Salva il nome della chat
- Elimina chat
- Conferma l'eliminazione della chat
- Annulla l'eliminazione della chat
- Elenco delle chat
- Elenco delle chat nella finestra di dialogo del cassetto
@@ -870,141 +735,117 @@
ChatView
- <h3>Avviso</h3><p>%1</p>
- Finestra di dialogo Cambia modello
- Avvisa l'utente che se cambia modello, il contesto verrà cancellato
- Conversazione copiata negli appunti.
- Codice copiato negli appunti.
- Pannello chat
- Pannello chat con opzioni
- Ricarica il modello attualmente caricato
- Espelli il modello attualmente caricato
- Nessun modello installato.
- Errore di caricamento del modello.
- In attesa del modello...
- Cambio contesto...
- Scegli un modello...
- Non trovato: %1
- L'elemento in alto è il modello attuale
-
-
- Aggiungi documenti
- aggiungi raccolte di documenti alla chat
- Carica il modello predefinito
- Carica il modello predefinito che può essere modificato nei settaggi
- Nessun modello installato
- GPT4All richiede l'installazione di almeno un
@@ -1012,37 +853,31 @@ modello per iniziare
- Installa un modello
- Mostra la vista aggiungi modello
- Conversazione con il modello
- coppie prompt/risposta dalla conversazione
-
- Tu
@@ -1052,215 +887,181 @@ modello per iniziare
- risposta interrotta ...
- elaborazione ...
- generazione risposta ...
- generarzione domande ...
-
- Copia
- Copia messaggio
- Disabilita Markdown
- Abilita Markdown
- Mi piace
- Dà un mi piace alla risposta
- Non mi piace
- Apre la finestra di dialogo "Non mi piace"
-
-
-
-
- %1 Fonti
-
- Approfondimenti suggeriti
- Cancella e ripristina la sessione di chat
- Copia la sessione di chat negli appunti
- Riesegui l'ultima risposta della chat
- Interrompi la generazione
- Arresta la generazione della risposta corrente
- Ricarica il modello
- <h3>Si è verificato un errore durante il caricamento del modello:</h3><br><i>"%1"</i><br><br>Gli errori di caricamento del modello possono verificarsi per diversi motivi, ma le cause più comuni includono un formato di file non valido, un download incompleto o danneggiato, il tipo di file sbagliato, RAM di sistema insufficiente o un tipo di modello incompatibile. Ecco alcuni suggerimenti per risolvere il problema:<br><ul><li>Assicurati che il file del modello abbia un formato e un tipo compatibili<li>Verifica che il file del modello sia completo nella cartella di download<li>Puoi trovare la cartella di download nella finestra di dialogo dei settaggi<li>Se hai scaricato manualmente il modello, assicurati che il file non sia danneggiato controllando md5sum<li>Leggi ulteriori informazioni su quali modelli sono supportati nella nostra <a href="https://docs.gpt4all.io/ ">documentazione</a> per la GUI<li>Consulta il nostro <a href="https://discord.gg/4M2QFmTt2k">canale Discord</a> per assistenza
-
- Ricarica · %1
- Caricamento · %1
- Carica · %1 (predefinito) →
- ripristino dal testo ...
- recupero documenti locali: %1 ...
- ricerca in documenti locali: %1 ...
+
+
+
+
+ %n Fonte
+ %n Fonti
+
+
- Manda un messaggio...
- Carica un modello per continuare...
- Invia messaggi/prompt al modello
- Taglia
- Incolla
- Seleziona tutto
- Invia messaggio
- Invia il messaggio/prompt contenuto nel campo di testo al modello
@@ -1269,13 +1070,11 @@ modello per iniziare
CollectionsDrawer
- Avviso: la ricerca nelle raccolte durante l'indicizzazione può restituire risultati incompleti
- %n file
@@ -1284,7 +1083,6 @@ modello per iniziare
- %n parola
@@ -1293,19 +1091,16 @@ modello per iniziare
- In aggiornamento
- + Aggiungi documenti
- Seleziona una raccolta per renderla disponibile al modello in chat.
@@ -1352,109 +1147,91 @@ modello per iniziare
HomeView
- Benvenuto in GPT4All
- L'applicazione di chat LLM che mette al primo posto la privacy
- Inizia a chattare
- Inizia a Chattare
- Chatta con qualsiasi LLM
-
- Chatta con i tuoi file locali
- Trova modelli
- Esplora e scarica i modelli
- Ultime notizie
- Ultime notizie da GPT4All
- Note di rilascio
- Documentazione
-
-
-
-
- Iscriviti alla Newsletter
@@ -1463,140 +1240,117 @@ modello per iniziare
LocalDocsSettings
-
- Settaggi LocalDocs
- Indicizzazione
- Estensioni di file consentite
- Elenco separato da virgole. LocalDocs tenterà di elaborare solo file con queste estensioni.
- Questo termine si dovrebbe tradurre come "Incorporamento". This term has been translated in other applications like A1111 and InvokeAI as "Incorporamento"Incorporamento
- Utilizza l'API di incorporamento Nomic Embed
- Incorpora documenti utilizzando la veloce API di Nomic invece di un modello locale privato. Richiede il riavvio.
- Chiave API di Nomic
- Chiave API da utilizzare per Nomic Embed. Ottienine una dalla <a href="https://atlas.nomic.ai/cli-login">pagina delle chiavi API</a> di Atlas. Richiede il riavvio.
- Dispositivo per incorporamenti
- Il dispositivo di calcolo utilizzato per gli incorporamenti. Richiede il riavvio.
- Applicazione predefinita
- Mostra
- Mostra le fonti
- Visualizza le fonti utilizzate per ciascuna risposta.
- Avanzate
- Avvertenza: solo per uso avanzato.
- Valori troppo grandi possono causare errori di Localdocs, risposte estremamente lente o l'impossibilità di rispondere. In parole povere, {N caratteri x N frammenti} vengono aggiunti alla finestra di contesto del modello. Maggiori informazioni <a href="https://docs.gpt4all.io/gpt4all_desktop/localdocs.html">qui</a>.
- Dimensioni del frammento di documento (caratteri)
- Numero di caratteri per frammento di documento. Numeri più grandi aumentano la probabilità di risposte basate sui fatti, ma comportano anche una generazione più lenta.
- Numero massimo di frammenti di documento per prompt
- Numero massimo di N corrispondenze migliori di frammenti di documento recuperati da aggiungere al contesto del prompt. Numeri più grandi aumentano la probabilità di risposte basate sui fatti, ma comportano anche una generazione più lenta.
@@ -1605,19 +1359,16 @@ modello per iniziare
LocalDocsView
-
- Chatta con i tuoi file locali
- + Aggiungi raccolta
@@ -1627,121 +1378,101 @@ modello per iniziare
- <h3>ERRORE: Impossibile accedere al database LocalDocs o non è valido.</h3><br><i>Nota: sarà necessario riavviare dopo aver provato una delle seguenti soluzioni suggerite.</i><br><ul><li>Assicurati che la cartella impostata come <b>Percorso di download</b> esista nel file system.</li><li>Controlla la proprietà e i permessi di lettura e scrittura del <b>Percorso di download</b>.</li><li>Se è presente un file <b>localdocs_v2.db</b>, controlla anche la sua proprietà e i permessi di lettura/scrittura.</li></ul><br>Se il problema persiste e sono presenti file 'localdocs_v*.db', come ultima risorsa puoi<br>provare a eseguirne il backup e a rimuoverli. Tuttavia, dovrai ricreare le tue raccolte.
- Nessuna raccolta installata
- Installa una raccolta di documenti locali per iniziare a utilizzare questa funzionalità
- + Aggiungi raccolta di documenti
- Mostra la vista aggiungi modello
- Barra di avanzamento indicizzazione
- Mostra lo stato di avanzamento dell'indicizzazione
- ERRORE
- INDICIZZAZIONE
- INCORPORAMENTO
- RICHIEDE AGGIORNAMENTO
- PRONTO
- INSTALLAZIONE
- Indicizzazione in corso
- Incorporamento in corso
- Questa raccolta richiede un aggiornamento dopo il cambio di versione
- Reindicizza automaticamente in caso di modifiche alla cartella
- Installazione in corso
- %
- %n file
@@ -1750,7 +1481,6 @@ modello per iniziare
- %n parola
@@ -1759,31 +1489,26 @@ modello per iniziare
- Rimuovi
- Ricostruisci
- Reindicizzare questa cartella da zero. Lento e di solito non necessario.
- Aggiorna
- Aggiorna la raccolta alla nuova versione. Questa è un'operazione lenta.
@@ -1860,109 +1585,91 @@ modello per iniziare
ModelSettings
- Modello
- Settaggi modello
- Clona
- Rimuovi
- Nome
- File del modello
- Prompt di sistema
- Prefisso all'inizio di ogni conversazione. Deve contenere i token di inquadramento appropriati.
- Schema del prompt
- Lo schema che incorpora ogni prompt.
- Deve contenere la stringa "%1" da sostituire con l'input dell'utente.
- Prompt del nome della chat
- Prompt utilizzato per generare automaticamente nomi di chat.
- Prompt di approfondimento suggerito
- Prompt utilizzato per generare le domande di approfondimento suggerite.
- Lunghezza del contesto
- Numero di token di input e output visualizzati dal modello.
-
@@ -1972,19 +1679,16 @@ NOTA: non ha effetto finché non si ricarica il modello.
- Temperatura
- Casualità dell'uscita del modello. Più alto -> più variazione.
- La temperatura aumenta le possibilità di scegliere token meno probabili.
@@ -1992,19 +1696,16 @@ NOTA: una temperatura più elevata offre risultati più creativi ma meno prevedi
-
- Fattore di campionamento del nucleo. Inferiore -> più prevedibile.
- Possono essere scelti solo i token più probabili fino ad una probabilità totale di top_p.
@@ -2012,67 +1713,56 @@ NOTA: impedisce la scelta di token altamente improbabili.
-
- Probabilità minima del token. Più alto -> più prevedibile.
- Imposta la probabilità relativa minima che un token venga considerato.
-
- Dimensione del pool di selezione per i token.
- Solo i token Top-K più probabili verranno scelti.
- Lunghezza massima
- Lunghezza massima della risposta, in token.
- Dimensioni del lotto di prompt
- La dimensione del lotto usata per l'elaborazione dei prompt.
- Quantità di token del prompt da elaborare contemporaneamente.
@@ -2080,43 +1770,36 @@ NOTA: valori più alti possono velocizzare la lettura dei prompt ma utilizzerann
- Penalità di ripetizione
- Fattore di penalità di ripetizione. Impostare su 1 per disabilitare.
- Token di penalità ripetizione
- Numero di token precedenti utilizzati per la penalità.
- Livelli GPU
- Numero di livelli del modello da caricare nella VRAM.
-
@@ -2129,203 +1812,168 @@ NOTA: non ha effetto finché non si ricarica il modello.
ModelsView
- Nessun modello installato
- Installa un modello per iniziare a utilizzare GPT4All
-
- + Aggiungi Modello
- Mostra la vista aggiungi modello
- Modelli installati
- Modelli per chat installati localmente
- File del modello
- File del modello da scaricare
- Descrizione
- Descrizione del file
- Annulla
- Riprendi
- Arresta/riavvia/avvia il download
- Rimuovi
- Rimuovi il modello dal sistema dei file
-
- Installa
- Installa il modello online
- <strong><font size="1"><a href="#error">Errore</a></strong></font>
- <strong><font size="2">AVVISO: non consigliato per il tuo hardware. Il modello richiede più memoria (%1 GB) di quella disponibile nel sistema (%2).</strong></font>
- ERRORE: $API_KEY è vuoto.
- ERRORE: $BASE_URL non è valido.
- inserisci $BASE_URL
- ERRORE: $MODEL_NAME è vuoto.
- inserisci $MODEL_NAME
-
-
- Descrive un errore che si è verificato durante lo scaricamento
- Errore per hardware incompatibile
- Barra di avanzamento dello scaricamento
- Mostra lo stato di avanzamento dello scaricamento
- Velocità di scaricamento
- Velocità di scaricamento in byte/kilobyte/megabyte al secondo
- Calcolo in corso...
@@ -2334,58 +1982,46 @@ NOTA: non ha effetto finché non si ricarica il modello.
-
-
-
- Se viene calcolato l'hash del file
- Indicatore di occupato
- Visualizzato durante il calcolo dell'hash del file
- Inserire $API_KEY
- Dimensione del file
- RAM richiesta
- Parametri
- Quant
- Tipo
@@ -2394,13 +2030,11 @@ NOTA: non ha effetto finché non si ricarica il modello.
MyFancyLink
- Mio link
- Un link d'esempio
@@ -2409,7 +2043,6 @@ NOTA: non ha effetto finché non si ricarica il modello.
MySettingsStack
- Scegli una cartella
@@ -2418,13 +2051,11 @@ NOTA: non ha effetto finché non si ricarica il modello.
MySettingsTab
- Riprista i valori predefiniti
- Ripristina la finestra di dialogo dei settaggi a uno stato predefinito
@@ -2433,13 +2064,11 @@ NOTA: non ha effetto finché non si ricarica il modello.
NetworkDialog
- Contribuisci con i tuoi dati al Datalake Open Source di GPT4All.
-
- Termini per l'adesione
- Descrive cosa accadrà quando effettuerai l'adesione
- Fornisci un nome per l'attribuzione (facoltativo)
- Attribuzione (facoltativo)
- Fornire attribuzione
- Abilita
- Abilita l'adesione
- Annulla
- Annulla l'adesione
@@ -2510,19 +2130,16 @@ NOTA: attivando questa funzione, invierai i tuoi dati al Datalake Open Source di
NewVersionDialog
- Nuova versione disponibile
- Aggiorna
- Aggiorna alla nuova versione
@@ -2531,19 +2148,16 @@ NOTA: attivando questa funzione, invierai i tuoi dati al Datalake Open Source di
PopupDialog
- Rivela un messaggio di aiuto di breve durata
- Indicatore di occupato
- Visualizzato quando la finestra a comparsa risulta occupata
@@ -2553,32 +2167,26 @@ NOTA: attivando questa funzione, invierai i tuoi dati al Datalake Open Source di
-
- Settaggi
- Contiene vari settaggi dell'applicazione
- Applicazione
- Modello
-
@@ -2587,13 +2195,11 @@ NOTA: attivando questa funzione, invierai i tuoi dati al Datalake Open Source di
StartupDialog
- Benvenuto!
-
@@ -2603,19 +2209,16 @@ NOTA: attivando questa funzione, invierai i tuoi dati al Datalake Open Source di
- Note di rilascio
- Note di rilascio per questa versione
-
- Termini per l'adesione
- Descrive cosa accadrà quando effettuerai l'adesione
-
- Attiva le statistiche di utilizzo anonime
-
- Si
- Consenti l'attivazione di statistiche di utilizzo anonime
-
- No
- Disattiva le statistiche di utilizzo anonime
- Consenti la disattivazione per le statistiche di utilizzo anonime
-
- Aderisci per la rete
- Consenti l'adesione per la rete
- Consenti la condivisione anonima delle chat su GPT4All Datalake
- Disattiva per la rete
- Consenti la non adesione alla condivisione anonima delle chat nel GPT4All Datalake
@@ -2728,27 +2314,22 @@ NOTA: attivando questa funzione, invierai i tuoi dati al Datalake Open Source di
SwitchModelDialog
- <b>Avviso:</b> la modifica del modello cancellerà la conversazione corrente. Vuoi continuare?
- Continua
- Continuare con il caricamento del modello
-
- Annulla
@@ -2757,37 +2338,31 @@ NOTA: attivando questa funzione, invierai i tuoi dati al Datalake Open Source di
ThumbsDownDialog
- Modifica il testo seguente per fornire una risposta migliore. (opzionale)
- Si prega di fornire una risposta migliore...
- Invia
- Invia la risposta dell'utente
- Annulla
- Chiude la finestra di dialogo della risposta
@@ -2796,151 +2371,124 @@ NOTA: attivando questa funzione, invierai i tuoi dati al Datalake Open Source di
main
- <h3>Si è verificato un errore all'avvio:</h3><br><i>"Rilevato hardware incompatibile."</i><br><br>Sfortunatamente, la tua CPU non soddisfa i requisiti minimi per eseguire questo programma. In particolare, non supporta gli elementi intrinseci AVX richiesti da questo programma per eseguire con successo un modello linguistico moderno e di grandi dimensioni. L'unica soluzione in questo momento è aggiornare il tuo hardware con una CPU più moderna.<br><br>Vedi qui per ulteriori informazioni: <a href="https://en.wikipedia.org/wiki/Advanced_Vector_Extensions">https ://en.wikipedia.org/wiki/Advanced_Vector_Extensions</a>
-
- <h3>Si è verificato un errore all'avvio:</h3><br><i>"Impossibile accedere al file dei settaggi."</i><br><br>Sfortunatamente, qualcosa impedisce al programma di accedere al file dei settaggi. Ciò potrebbe essere causato da autorizzazioni errate nella cartella di configurazione locale dell'app in cui si trova il file dei settaggi. Dai un'occhiata al nostro <a href="https://discord.gg/4M2QFmTt2k">canale Discord</a> per ricevere assistenza.
- La connessione al Datalake non è riuscita.
- Salvataggio delle chat.
- Dialogo di rete
- aderisci per condividere feedback/conversazioni
- Vista iniziale
- Vista iniziale dell'applicazione
- Inizia
- Vista chat
- Vista chat per interagire con i modelli
- Chat
-
- Modelli
- Vista modelli per i modelli installati
-
-
- Vista LocalDocs per configurare e utilizzare i documenti locali
-
- Settaggi
- Vista dei settaggi per la configurazione dell'applicazione
- Il Datalake è abilitato
- Utilizzando un modello di rete
- La modalità server è abilitata
- Modelli installati
- Vista dei modelli installati
diff --git a/gpt4all-chat/translations/gpt4all_pt_BR.ts b/gpt4all-chat/translations/gpt4all_pt_BR.ts
index 7697a400..b9bb47b5 100644
--- a/gpt4all-chat/translations/gpt4all_pt_BR.ts
+++ b/gpt4all-chat/translations/gpt4all_pt_BR.ts
@@ -5,73 +5,61 @@
AddCollectionView
- ← Minhas coleções
- Adicionar Coleção de Documentos
- Adicione uma pasta contendo arquivos de texto simples, PDFs ou Markdown. Configure extensões adicionais nas Configurações.
- Escolha um diretório
- Nome
- Nome da coleção...
- Nome da coleção (obrigatório)
- Pasta
- Caminho da pasta...
- Caminho da pasta com os documentos (obrigatório)
- Procurar
- Criar Coleção
@@ -80,295 +68,244 @@
AddModelView
- ← Meus Modelos
- Descobrir Modelos
- Pesquisar modelos...
- Campo de texto para descobrir e filtrar modelos para download
- Pesquisar e filtrar modelos
- Aciona a descoberta e filtragem de modelos
- Padrão
- Curtidas
- Downloads
- Recentes
- Asc
- Desc
- Nenhum
- Pesquisando · %1
- Ordenar por: %1
- Ordenar diretório: %1
- Limite: %1
- Erro de rede: não foi possível obter %1
-
- Indicador de processamento
- xibido enquanto os modelos estão sendo carregados
- Arquivo do modelo
- Arquivo do modelo a ser baixado
- Descrição
- Descrição do arquivo
- Cancelar
- Retomar
- Baixar
- Parar/reiniciar/iniciar o download
- Remover
- Remover modelo do sistema
-
- Instalar
- Instalar modelo online
- <strong><font size="2">ATENÇÃO: Este modelo não é recomendado para seu hardware. Ele exige mais memória (%1 GB) do que seu sistema possui (%2).</strong></font>
- ERRO: A $API_KEY está vazia.
- ERRO: A $BASE_URL está vazia.
- inserir a $BASE_URL
- ERRO: O $MODEL_NAME está vazio.
- inserir o $MODEL_NAME
- %1 GB
-
- ?
- Mostra informações sobre o erro no download
- <strong><font size="1"><a href="#error">Erro</a></strong></font>
- Aviso: Hardware não compatível
- Progresso do download
- Mostra o progresso do download
- Velocidade de download
- Velocidade de download em bytes/kilobytes/megabytes por segundo
- Calculando...
@@ -377,52 +314,41 @@
-
-
-
- Quando o hash do arquivo está sendo calculado
- Exibido durante o cálculo do hash do arquivo
- inserir $API_KEY
- Tamanho do arquivo
- RAM necessária
- Parâmetros
- Quant
- Tipo
@@ -431,25 +357,21 @@
ApplicationSettings
- Aplicativo
- Mensagens de rede
- Compartilhar feedback e conversas
-
- Mensagens de erro
- Configurações
- Geral
- Tema
- Esquema de cores.
- Modo Escuro
- Modo Claro
- Modo escuro (legado)
- Tamanho da Fonte
- Tamanho do texto.
- Pequeno
- Médio
- Grande
- Idioma e Região
- Selecione seu idioma e região.
- Local do Sistema
- Processador
- I chose to use "Processador" instead of "Dispositivo" (Device) or "Dispositivo de Computação" (Compute Device) to simplify the terminology and make it more straightforward and understandable. "Dispositivo" can be vague and could refer to various types of hardware, whereas "Processador" clearly and specifically indicates the component responsible for processing tasks. This improves usability by avoiding the ambiguity that might arise from using more generic terms like "Dispositivo."Processador usado para gerar texto.
@@ -577,159 +481,132 @@
-
- Aplicativo padrão
- Modelo Padrão
- Modelo padrão para novos chats e em caso de falha do modelo principal.
- Modo de sugestões
- Sugerir perguntas após as respostas.
- Ao conversar com o LocalDocs
- Sempre que possível
- Nunca
- Diretório de Download
- Pasta para modelos e banco de dados do LocalDocs.
- Procurar
- Local para armazenar os modelos
- Habilitar Datalake
- Contribua para o Datalake de código aberto do GPT4All.
- Avançado
- Threads de CPU
- Quantidade de núcleos (threads) do processador usados para processar e responder às suas perguntas.
- I used "Histórico do Chat" (Chat History) instead of "Contexto do Chat" (Chat Context) to clearly convey that it refers to saving past messages, making it more intuitive and avoiding potential confusion with abstract terms.Salvar Histórico do Chat
- Salvar histórico do chat para carregamento mais rápido. (Usa aprox. 2GB por chat).
- Ativar Servidor Local
- Ativar servidor local compatível com OpenAI (uso de recursos elevado).
- Porta da API
- Porta de acesso ao servidor local. (requer reinicialização).
- Procurar por Atualizações
- Verifica se há novas atualizações para o GPT4All.
- Atualizações
@@ -765,73 +642,61 @@
ChatDrawer
- Menu Lateral
- Menu de navegação principal
- + Novo Chat
- Criar um novo chat
- Selecione o chat atual ou edite o chat quando estiver no modo de edição
- Editar nome do chat
- Salvar nome do chat
- Excluir chat
- Confirmar exclusão do chat
- Cancelar exclusão do chat
- Lista de chats
- Lista de chats na caixa de diálogo do menu lateral
@@ -873,141 +738,117 @@
ChatView
- <h3>Aviso</h3><p>%1</p>
- Mensagem ao troca de modelo
- Ao trocar de modelo, o contexto da conversa será apagado
- Conversa copiada.
- Código copiado.
- Painel de chat
- Painel de chat com opções
- Recarregar modelo atual
- Ejetar o modelo carregado atualmente
- Nenhum modelo instalado.
- Erro ao carregar o modelo.
- Aguardando modelo...
- Mudando de contexto...
- Escolha um modelo...
- Não encontrado: %1
- O modelo atual é exibido no topo
-
- LocalDocs
- Adicionar documentos
- Adicionar Coleção de Documentos
- Carregar o modelo padrão
- Carrega o modelo padrão (personalizável nas configurações)
- Nenhum Modelo Instalado
- O GPT4All precisa de pelo menos um modelo
@@ -1015,37 +856,31 @@ modelo instalado para funcionar
- Instalar um Modelo
- Mostra a visualização para adicionar modelo
- Conversa com o modelo
- Pares de pergunta/resposta da conversa
- GPT4All
- Você
@@ -1055,215 +890,181 @@ modelo instalado para funcionar
- resposta interrompida...
- processando...
- gerando resposta...
- gerando perguntas...
-
- Copiar
- Copiar Mensagem
- Desativar markdown
- Ativar markdown
- Resposta boa
- Curte a resposta
- Resposta ruim
- Abrir diálogo de joinha para baixo
-
-
-
-
- %1 Origens
-
- Perguntas relacionadas
- Apagar e redefinir sessão de chat
- Copiar histórico da conversa
- Refazer última resposta
- Parar de gerar
- Parar a geração da resposta atual
- Recarrega modelo
- <h3>Ocorreu um erro ao carregar o modelo:</h3><br><i>"%1"</i><br><br>Falhas no carregamento do modelo podem acontecer por vários motivos, mas as causas mais comuns incluem um formato de arquivo incorreto, um download incompleto ou corrompido, o tipo de arquivo errado, memória RAM do sistema insuficiente ou um tipo de modelo incompatível. Aqui estão algumas sugestões para resolver o problema:<br><ul><li>Certifique-se de que o arquivo do modelo tenha um formato e tipo compatíveis<li>Verifique se o arquivo do modelo está completo na pasta de download<li>Você pode encontrar a pasta de download na caixa de diálogo de configurações<li>Se você carregou o modelo, certifique-se de que o arquivo não esteja corrompido verificando o md5sum<li>Leia mais sobre quais modelos são suportados em nossa <a href="https://docs.gpt4all.io/">documentação</a> para a interface gráfica<li>Confira nosso <a href="https://discord.gg/4M2QFmTt2k">canal do Discord</a> para obter ajuda
-
- Recarregar · %1
- Carregando · %1
- Carregar · %1 (padrão) →
- Recuperando do texto...
- Recuperando dados em LocalDocs: %1 ...
- Buscando em LocalDocs: %1 ...
+
+
+
+
+ %n Origem
+ %n Origens
+
+
- Enviar uma mensagem...
- Carregue um modelo para continuar...
- Enviar mensagens/prompts para o modelo
- Recortar
- Colar
- Selecionar tudo
- Enviar mensagem
- Envia a mensagem/prompt contida no campo de texto para o modelo
@@ -1272,13 +1073,11 @@ modelo instalado para funcionar
CollectionsDrawer
- Aviso: pesquisar coleções durante a indexação pode retornar resultados incompletos
- %n arquivo(s)
@@ -1287,7 +1086,6 @@ modelo instalado para funcionar
- %n palavra(s)
@@ -1296,19 +1094,16 @@ modelo instalado para funcionar
- Atualizando
- + Adicionar Documentos
- Selecione uma coleção para disponibilizá-la ao modelo de chat.
@@ -1355,109 +1150,91 @@ modelo instalado para funcionar
HomeView
- Bem-vindo ao GPT4All
- O aplicativo de chat LLM que prioriza a privacidade
- Iniciar chat
- Iniciar Chat
- Converse com qualquer LLM
- LocalDocs
- Converse com seus arquivos locais
- Encontrar Modelos
- Descubra e baixe modelos
- Últimas novidades
- Últimas novidades do GPT4All
- Notas de versão
- Documentação
- Discord
- X (Twitter)
- Github
- GPT4All.io
- Assine nossa Newsletter
@@ -1466,140 +1243,117 @@ modelo instalado para funcionar
LocalDocsSettings
- LocalDocs
- Configurações do LocalDocs
- Indexação
- Extensões de Arquivo Permitidas
- Lista separada por vírgulas. O LocalDocs tentará processar apenas arquivos com essas extensões.
- Incorporação
- Usar a API Nomic Embed
- Incorporar documentos usando a API Nomic rápida em vez de um modelo local privado. Requer reinicialização.
- Chave da API Nomic
- Chave da API a ser usada para Nomic Embed. Obtenha uma na página de <a href="https://atlas.nomic.ai/cli-login">chaves de API do Atlas</a>. Requer reinicialização.
- Processamento de Incorporações
- Dispositivo usado para processar as incorporações. Requer reinicialização.
- Aplicativo padrão
- Exibir
- Mostrar Fontes
- Mostra as fontes usadas para cada resposta.
- Apenas para usuários avançados
- Atenção: Apenas para usuários avançados.
- Valores muito altos podem causar falhas no LocalDocs, respostas extremamente lentas ou até mesmo nenhuma resposta. De forma geral, o valor {Número de Caracteres x Número de Trechos} é adicionado à janela de contexto do modelo. Clique <a href="https://docs.gpt4all.io/gpt4all_desktop/localdocs.html">aqui</a> para mais informações.
- I translated "snippet" as "trecho" to make the term feel more natural and understandable in Portuguese. "Trecho" effectively conveys the idea of a portion or section of a document, fitting well within the context, whereas a more literal translation might sound less intuitive or awkward for users.Tamanho do trecho de documento (caracteres)
- Número de caracteres por trecho de documento. Valores maiores aumentam a chance de respostas factuais, mas também tornam a geração mais lenta.
- Máximo de Trechos de Documento por Prompt
- Número máximo de trechos de documentos a serem adicionados ao contexto do prompt. Valores maiores aumentam a chance de respostas factuais, mas também tornam a geração mais lenta.
@@ -1608,19 +1362,16 @@ modelo instalado para funcionar
LocalDocsView
- LocalDocs
- Converse com seus arquivos locais
- + Adicionar Coleção
@@ -1630,121 +1381,101 @@ modelo instalado para funcionar
- <h3>ERRO: Não foi possível acessar o banco de dados do LocalDocs ou ele não é válido.</h3><br><i>Observação: Será necessário reiniciar o aplicativo após tentar qualquer uma das seguintes correções sugeridas.</i><br><ul><li>Certifique-se de que a pasta definida como <b>Caminho de Download</b> existe no sistema de arquivos.</li><li>Verifique a propriedade, bem como as permissões de leitura e gravação do <b>Caminho de Download</b>.</li><li>Se houver um arquivo <b>localdocs_v2.db</b>, verifique também sua propriedade e permissões de leitura/gravação.</li></ul><br>Se o problema persistir e houver algum arquivo 'localdocs_v*.db' presente, como último recurso, você pode<br>tentar fazer backup deles e removê-los. No entanto, você terá que recriar suas coleções.
- Nenhuma Coleção Instalada
- Instale uma coleção de documentos locais para começar a usar este recurso
- + Adicionar Coleção de Documentos
- Mostra a visualização para adicionar modelo
- Barra de progresso de indexação
- Mostra o progresso da indexação
- ERRO
- INDEXANDO
- INCORPORANDO
- REQUER ATUALIZAÇÃO
- PRONTO
- INSTALANDO
- Indexação em andamento
- Incorporação em andamento
- Esta coleção precisa ser atualizada após a mudança de versão
- Reindexa automaticamente após alterações na pasta
- Instalação em andamento
- %
- %n arquivo(s)
@@ -1753,7 +1484,6 @@ modelo instalado para funcionar
- %n palavra(s)
@@ -1762,31 +1492,26 @@ modelo instalado para funcionar
- Remover
- Reconstruir
- eindexar pasta do zero. Lento e geralmente desnecessário.
- Atualizar
- Atualizar coleção para nova versão. Pode demorar.
@@ -1863,109 +1588,91 @@ modelo instalado para funcionar
ModelSettings
- Modelo
- Configurações do Modelo
- Clonar
- Remover
- Nome
- Arquivo do Modelo
- Prompt do Sistema
- Prefixado no início de cada conversa. Deve conter os tokens de enquadramento apropriados.
- Modelo de Prompt
- Modelo para cada prompt.
- Deve incluir "%1" para a entrada do usuário.
- Prompt para Nome do Chat
- Prompt usado para gerar automaticamente nomes de chats.
- Prompt de Sugestão de Acompanhamento
- Prompt usado para gerar sugestões de perguntas.
- Tamanho do Contexto
- Tamanho da Janela de Contexto.
-
@@ -1975,19 +1682,16 @@ Obs.: Só entrará em vigor após recarregar o modelo.
- Temperatura
- Aleatoriedade das respostas. Quanto maior, mais variadas.
- Aumenta a chance de escolher tokens menos prováveis.
@@ -1995,19 +1699,16 @@ Obs.: Uma temperatura mais alta gera resultados mais criativos, mas menos previs
- Top-P
- Amostragem por núcleo. Menor valor, respostas mais previsíveis.
- Apenas tokens com probabilidade total até o valor de top_p serão escolhidos.
@@ -2015,67 +1716,56 @@ Obs.: Evita tokens muito improváveis.
- Min-P
- Probabilidade mínima do token. Quanto maior -> mais previsível.
- Define a probabilidade relativa mínima para um token ser considerado.
- Top-K
- Número de tokens considerados na amostragem.
- Serão escolhidos apenas os K tokens mais prováveis.
- Comprimento Máximo
- Comprimento máximo da resposta, em tokens.
- Tamanho do Lote de Processamento
- Tokens processados por lote.
- Quantidade de tokens de prompt para processar de uma vez.
@@ -2083,43 +1773,36 @@ OBS.: Valores mais altos podem acelerar a leitura dos prompts, mas usarão mais
- Penalidade de Repetição
- Penalidade de Repetição (1 para desativar).
- Tokens para penalizar repetição
- Número de tokens anteriores usados para penalidade.
- Camadas na GPU
- Camadas Carregadas na GPU.
-
@@ -2132,203 +1815,168 @@ Obs.: Só entrará em vigor após recarregar o modelo.
ModelsView
- Nenhum Modelo Instalado
- Instale um modelo para começar a usar o GPT4All
-
- + Adicionar Modelo
- Mostra a visualização para adicionar modelo
- Modelos Instalados
- Modelos de chat instalados localmente
- Arquivo do modelo
- Arquivo do modelo a ser baixado
- Descrição
- Descrição do arquivo
- Cancelar
- Retomar
- Parar/reiniciar/iniciar o download
- Remover
- Remover modelo do sistema de arquivos
-
- Instalar
- Instalar modelo online
- <strong><font size="1"><a href="#error">Erro</a></strong></font>
- <strong><font size="2">AVISO: Não recomendado para seu hardware. O modelo requer mais memória (%1 GB) do que seu sistema tem disponível (%2).</strong></font>
- ERRO: A $API_KEY está vazia.
- ERRO: A $BASE_URL está vazia.
- inserir a $BASE_URL
- ERRO: O $MODEL_NAME está vazio.
- inserir o $MODEL_NAME
- %1 GB
- ?
- Descreve um erro que ocorreu durante o download
- Erro para hardware incompatível
- Barra de progresso do download
- Mostra o progresso do download
- Velocidade de download
- Velocidade de download em bytes/kilobytes/megabytes por segundo
- Calculando...
@@ -2337,58 +1985,46 @@ Obs.: Só entrará em vigor após recarregar o modelo.
-
-
-
- Se o hash do arquivo está sendo calculado
- Indicador de ocupado
- Exibido quando o hash do arquivo está sendo calculado
- inserir $API_KEY
- Tamanho do arquivo
- RAM necessária
- Parâmetros
- Quant
- Tipo
@@ -2397,13 +2033,11 @@ Obs.: Só entrará em vigor após recarregar o modelo.
MyFancyLink
- Link personalizado
- Um link personalizado
@@ -2412,7 +2046,6 @@ Obs.: Só entrará em vigor após recarregar o modelo.
MySettingsStack
- Escolha um diretório
@@ -2421,13 +2054,11 @@ Obs.: Só entrará em vigor após recarregar o modelo.
MySettingsTab
- Restaurar Configurações Padrão
- Restaura as configurações para o estado padrão
@@ -2436,13 +2067,11 @@ Obs.: Só entrará em vigor após recarregar o modelo.
NetworkDialog
- Contribuir com dados para o Datalake de código aberto GPT4All.
-
- Termos de participação
- Descrição do que acontece ao participar
- Forneça um nome para atribuição (opcional)
- Atribuição (opcional)
- Fornecer atribuição
- Habilitar
- Ativar participação
- Cancelar
- Cancelar participação
@@ -2513,19 +2133,16 @@ OBS.: Ao ativar este recurso, você estará enviando seus dados para o Datalake
NewVersionDialog
- Atualização disponível
- Atualizar agora
- Baixa e instala a última versão do GPT4All
@@ -2534,20 +2151,17 @@ OBS.: Ao ativar este recurso, você estará enviando seus dados para o Datalake
PopupDialog
- Exibe uma dica rápida
- The literal translation of "busy indicator" as "indicador de ocupado" might create ambiguity in Portuguese, as it doesn't clearly convey whether the system is processing something or simply unavailable. "Progresso" (progress) was chosen to more clearly indicate that an activity is in progress and that the user should wait for its completion.Indicador de progresso
- Visível durante o processamento
@@ -2564,33 +2178,27 @@ OBS.: Ao ativar este recurso, você estará enviando seus dados para o Datalake
-
- I used "Config" instead of "Configurações" to keep the UI concise and visually balanced. "Config" is a widely recognized abbreviation that maintains clarity while saving space, making the interface cleaner and more user-friendly, especially in areas with limited space.Config
- Acessar as configurações do aplicativo
- Aplicativo
- Modelo
- LocalDocs
@@ -2599,13 +2207,11 @@ OBS.: Ao ativar este recurso, você estará enviando seus dados para o Datalake
StartupDialog
- Bem-vindo(a)!
-
@@ -2615,19 +2221,16 @@ OBS.: Ao ativar este recurso, você estará enviando seus dados para o Datalake
- Notas de lançamento
- Notas de lançamento desta versão
-
- Termos de participação
- Descrição do que acontece ao participar
-
- Enviar estatísticas de uso anônimas
-
- Sim
- Permitir o envio de estatísticas de uso anônimas
-
- Não
- Recusar envio de estatísticas de uso anônimas
- Permitir recusar envio de estatísticas de uso anônimas
-
- Aceitar na rede
- Permitir aceitação na rede
- Permitir compartilhamento anônimo de chats no Datalake GPT4All
- Recusar na rede
- Permitir recusar compartilhamento anônimo de chats no Datalake GPT4All
@@ -2748,27 +2334,22 @@ versão do modelo GPT4All que utilize seus dados!
SwitchModelDialog
- <b>Atenção:</b> Ao trocar o modelo a conversa atual será perdida. Continuar?
- Continuar
- Confirma a troca do modelo
-
- Cancelar
@@ -2777,37 +2358,31 @@ versão do modelo GPT4All que utilize seus dados!
ThumbsDownDialog
- Editar resposta (opcional)
- Digite sua resposta...
- Enviar
- Enviar
- Cancelar
- Fecha a caixa de diálogo de resposta
@@ -2816,151 +2391,124 @@ versão do modelo GPT4All que utilize seus dados!
main
- <h3>Ocorreu um erro ao iniciar:</h3><br><i>"Hardware incompatível detectado."</i><br><br>Infelizmente, seu processador não atende aos requisitos mínimos para executar este programa. Especificamente, ele não possui suporte às instruções AVX, que são necessárias para executar modelos de linguagem grandes e modernos. A única solução, no momento, é atualizar seu hardware para um processador mais recente.<br><br>Para mais informações, consulte: <a href="https://pt.wikipedia.org/wiki/Advanced_Vector_Extensions">https://pt.wikipedia.org/wiki/Advanced_Vector_Extensions</a>
- GPT4All v%1
- <h3>Ocorreu um erro ao iniciar:</h3><br><i>"Não foi possível acessar o arquivo de configurações."</i><br><br>Infelizmente, algo está impedindo o programa de acessar o arquivo de configurações. Isso pode acontecer devido a permissões incorretas na pasta de configurações do aplicativo. Para obter ajuda, acesse nosso <a href="https://discord.gg/4M2QFmTt2k">canal no Discord</a>.
- Falha na conexão com o datalake.
- Salvando chats.
- Avisos de rede
- permitir compartilhamento de feedback/conversas
- Tela inicial
- Tela inicial do aplicativo
- Início
- Visualização do Chat
- Visualização do chat para interagir com os modelos
- Chats
-
- Modelos
- Tela de modelos instalados
-
- LocalDocs
- Tela de configuração e uso de documentos locais do LocalDocs
-
- Config
- Tela de configurações do aplicativo
- O datalake está ativado
- Usando um modelo de rede
- Modo servidor ativado
- Modelos instalados
- Exibe os modelos instalados
diff --git a/gpt4all-chat/translations/gpt4all_ro_RO.ts b/gpt4all-chat/translations/gpt4all_ro_RO.ts
index 89c029a6..7ce96011 100644
--- a/gpt4all-chat/translations/gpt4all_ro_RO.ts
+++ b/gpt4all-chat/translations/gpt4all_ro_RO.ts
@@ -5,13 +5,11 @@
AddCollectionView
- ← Colecţiile curente
- Adaugă o Colecţie de documente
@@ -22,61 +20,51 @@
- Adaugă un folder cu fişiere în format text, PDF sau Markdown. Alte extensii pot fi specificate în Configurare.
- Selectează un director/folder
- Denumire
- Denumirea Colecţiei...
- Denumirea Colecţiei de adăugat (necesar)
- Folder
- Calea spre folder...
- Calea spre documente (necesar)
- Căutare
- Creează Colecţia
@@ -85,209 +73,173 @@
AddModelView
- ← Modelele curente/instalate
- Caută modele
- Caută şi descarcă modele după un cuvânt-cheie...
- Câmp pentru căutarea şi filtrarea modelelor ce pot fi descărcate
- Iniţiază căutarea şi filtrarea modelelor
- Activează căutarea şi filtrarea modelelor
- Implicit
- Likes
- Download-uri
- Recent/e
- Asc. (A->Z)
- Desc. (Z->A)
- Niciunul
- Căutare · %1
- Ordonare după: %1
- Sensul ordonării: %1
- Límită: %1
- Eroare de reţea: nu se poate prelua %1
-
- Indicator de activitate
- Afişat în timpul solicitării modelului
- Fişierul modelului
- Fişierul modelului de descărcat
- Descriere
- Descrierea fişierului
- Anulare
- Continuare
- Download
- Opreşte/Reporneşte/Începe descărcarea
- Şterge
- Şterge modelul din sistemul de fişiere
-
- Instalare
- Instalez un model din online
- <strong><font size="1"><a href="#error">Eroare</a></strong></font>
- <strong><font size="2">ATENŢIE: Nerecomandat pentru acest hardware. Modelul necesită mai multă memorie (%1 GB) decât are acest sistem (%2).</strong></font>
@@ -299,21 +251,17 @@
- %1 GB
-
- ?
- Descrie eroarea apărută în timpul descărcării
@@ -324,37 +272,31 @@
- Eroare: hardware incompatibil
- Progresia descărcării
- Afişează progresia descărcării
- Viteza de download
- Viteza de download în bytes/kilobytes/megabytes pe secundă
- Calculare...
@@ -363,82 +305,66 @@
-
-
-
- Dacă se calculează hash-ul fişierului
- Se afişează când se calculează hash-ul fişierului
- EROARE: $API_KEY absentă
- introdu cheia $API_KEY
- EROARE: $BASE_URL absentă
- introdu $BASE_URL
- EROARE: $MODEL_NAME absent
- introdu $MODEL_NAME
- Dimensiunea fişierului
- RAM necesară
- Parametri
- Quant(ificare)
- Tip
@@ -447,19 +373,16 @@
ApplicationSettings
- Aplicaţie/Program
- Reţea
- optional: partajarea (share) de comentarii/conversatii
@@ -476,67 +399,56 @@
- Eroare
- Configurarea programului
- General
- Tema pentru interfaţă
- Schema de culori a programului.
- Întunecat
- Luminos
- Întunecat-vechi
- Dimensiunea textului
- Dimensiunea textului în program.
- Dispozitiv/Device
@@ -547,7 +459,6 @@
-
- Mic
- Mediu
- Mare
- Limbă şi Localizare
- Limba şi Localizarea de utilizat.
- Localizare
- Dispozitivul de calcul utilizat pentru generarea de text.
-
- Implicit
- Modelul implicit
- Modelul preferat pentru noile conversaţii. Va fi folosit drept rezervă pentru serverul local.
- Modul de sugerare
- Generarea de întrebări pentru continuare, la finalul replicilor.
- Când se discută cu LocalDocs
- Oricând e posibil
- Niciodată
- Calea pentru download
- Unde să fie plasate modelele şi baza de date LocalDocs.
- Căutare
- Selectează locul unde vor fi plasate fişierele modelelor
- Activează DataLake
- Trimite conversaţii şi comentarii către componenta Open-source DataLake a GPT4All.
- Avansate
- Thread-uri CPU
- Numărul de thread-uri CPU utilizate pentru inferenţă şi embedding.
- Salvarea contextului conversaţiei
- Salvează pe disc starea modelului pentru încărcare mai rapidă. ATENŢIE: Consumă ~2GB/conversaţie.
- Activează pe localhost un Server compatibil cu Open-AI. ATENŢIE: Creşte consumul de resurse.
@@ -728,7 +611,6 @@
- Activează Serverul local
@@ -739,31 +621,26 @@
- Portul Serverului API
- Portul utilizat pentru Serverul local. Necesită repornirea programului.
- Caută update-uri
- Caută manual update-uri pentru GPT4All.
- Update-uri/Actualizări
@@ -799,73 +676,61 @@
ChatDrawer
- Sertar
- Sertarul principal de navigare
- + Conversaţie nouă
- Creează o Conversaţie nouă
- Selectează conversaţia curentă sau editeaz-o când eşti în modul editare
- Editează denumirea conversaţiei
- Salvează denumirea conversaţiei
- Şterge conversaţia
- CONFIRMĂ ştergerea conversaţiei
- ANULEAZĂ ştergerea conversaţiei
- Lista conversaţiilor
- Lista conversaţiilor în secţiunea-sertar
@@ -907,135 +772,112 @@
ChatView
- <h3>Atenţie</h3><p>%1</p>
- Schimbarea modelului
- Avertizează utilizatorul că la schimbarea modelului va fi şters contextul
- Conversaţia a fost plasată în Clipboard.
- Codul a fost plasat în Clipboard.
- Secţiunea de chat
- Secţiunea de chat cu opţiuni
- Reîncarcă modelul curent
- Ejectează modelul curent
- Niciun model instalat.
- Eroare la încărcarea modelului.
- Se aşteaptă modelul...
- Se schimbă contextul...
- Selectează un model...
- Absent: %1
- Primul element e modelul curent
-
- LocalDocs
- Adaug documente
- adaugă Colecţii de documente la conversaţie
- Încarcă modelul implicit
- Încarcă modelul implicit care poate fi stabilit în Configurare
- Niciun model instalat
@@ -1046,7 +888,6 @@
- <h3>EROARE la încărcarea
modelului:</h3><br><i>"%1"</i><br><br>Astfel
@@ -1066,44 +907,37 @@
- GPT4All necesită cel puţin un model pentru a putea rula
- Instalează un model
- Afişează secţiunea de adăugare a unui model
- Conversaţie cu modelul
- perechi prompt/replică din conversaţie
- GPT4All
- Tu
@@ -1113,123 +947,97 @@ model to get started
- replică întreruptă...
- procesare...
- se generează replica...
- se generează întrebări...
-
- Copiere
- Copiez mesajul
- Dezactivez markdown
- Activez markdown
- Bravo
- Dă un Bravo acestei replici
- Aiurea
- Deschide reacţia Aiurea
-
-
-
-
- %1 Surse
-
- Continuări sugerate
- Şterge şi resetează sesiunea de chat
- Copiez sesiunea de chat (conversaţia) în Clipboard
- Reface ultima replică
- Opreşte generarea
- Opreşte generarea replicii curente
- Reîncarc modelul
@@ -1266,86 +1074,80 @@ model to get started
-
- Reîncărcare · %1
- Încărcare · %1
- Încarcă · %1 (implicit) →
- restaurare din text...
- se preia din LocalDocs: %1 ...
- se caută în LocalDocs: %1 ...
+
+
+
+
+ %n Sursa
+ %n Surse
+ %n de Surse
+
+
- Trimite un mesaj...
- Încarcă un model pentru a continua...
- Trimite mesaje/prompt-uri către model
- Decupare (Cut)
- Alipire (Paste)
- Selectez tot
- Trimit mesajul
- Trimite modelului mesajul/prompt-ul din câmpul-text
@@ -1354,45 +1156,39 @@ model to get started
CollectionsDrawer
- Atenţie: căutarea în Colecţii în timp ce sunt Indexate poate întoarce rezultate incomplete
- %n fişier%n fişiere
- %n fişiere
+ %n de fişiere
- %n cuvânt%n cuvinte
- %n cuvinte
+ %n de cuvinte
- Actualizare
- + Adaug documente
- Selectează o Colecţie pentru ca modelul să o poată accesa.
@@ -1439,97 +1235,81 @@ model to get started
HomeView
- Bun venit în GPT4All
- Programul ce prioritizează confidenţialitatea (privacy)
- Începe o conversaţie
- Începe o conversaţie
- Dialoghează cu orice LLM
- LocalDocs
- Dialoghează cu fişiere locale
- Caută modele
- Explorează şi descarcă modele
- Ultimele ştiri
- Ultimele ştiri de la GPT4All
- Despre această versiune
- Documentaţie
- Discord
- X (Twitter)
- GitHub
@@ -1539,13 +1319,11 @@ model to get started
- GPT4All.io
- Abonare la Newsletter
@@ -1554,25 +1332,21 @@ model to get started
LocalDocsSettings
- LocalDocs
- Configurarea LocalDocs
- Indexare
- Extensii compatibile de fişier
@@ -1583,13 +1357,11 @@ model to get started
- Embedding
- Folosesc Nomic Embed API
@@ -1600,7 +1372,6 @@ model to get started
- Cheia API Nomic
@@ -1612,85 +1383,71 @@ model to get started
- Dispozitivul pentru Embeddings
- Dispozitivul pentru Embeddings. Necesită repornire.
- Extensiile, separate prin virgulă. LocalDocs va încerca procesarea numai a fişierelor cu aceste extensii.
- Embedding pe documente folosind API de la Nomic în locul unui model local. Necesită repornire.
- Cheia API de utilizat cu Nomic Embed. Obţine o cheie prin Atlas: <a href="https://atlas.nomic.ai/cli-login">pagina cheilor API</a> Necesită repornire.
- Implicit
- Vizualizare
- Afişarea Surselor
- Afişează Sursele utilizate pentru fiecare replică.
- Avansate
- Atenţie: Numai pentru utilizare avansată.
- Valori prea mari pot cauza erori cu LocalDocs, replici foarte lente sau chiar absenţa lor. În mare, numărul {N caractere x N citate} este adăugat la Context Window/Size/Length a modelului. Mai multe informaţii: <a href="https://docs.gpt4all.io/gpt4all_desktop/localdocs.html">aici</a>.
- Numărul caracterelor din fiecare citat. Numere mari amplifică probabilitatea unor replici corecte, dar de asemenea cauzează generare lentă.
- Numărul maxim al citatelor ce corespund şi care vor fi adăugate la contextul pentru prompt. Numere mari amplifică probabilitatea unor replici corecte, dar de asemenea cauzează generare lentă.
@@ -1705,7 +1462,6 @@ model to get started
- Lungimea (în caractere) a citatelor din documente
@@ -1716,7 +1472,6 @@ model to get started
- Numărul maxim de citate per prompt
@@ -1731,19 +1486,16 @@ model to get started
LocalDocsView
- LocalDocs
- Dialoghează cu fişiere locale
- + Adaugă o Colecţie
@@ -1753,165 +1505,139 @@ model to get started
- EROARE: Baza de date LocalDocs nu poate fi accesată sau nu e validă. Programul trebuie repornit după ce se încearcă oricare din următoarele remedii sugerate.</i><br><ul><li>Asigură-te că folderul pentru <b>Download Path</b> există în sistemul de fişiere.</li><li>Verifică permisiunile şi apartenenţa folderului pentru <b>Download Path</b>.</li><li>Dacă există fişierul <b>localdocs_v2.db</b>, verifică-i apartenenţa şi permisiunile citire/scriere (read/write).</li></ul><br>Dacă problema persistă şi există vreun fişier 'localdocs_v*.db', ca ultimă soluţie poţi<br>încerca duplicarea (backup) şi apoi ştergerea lor. Oricum, va trebui să re-creezi Colecţiile.
- Nu există Colecţii instalate
- Instalează o Colecţie de documente pentru a putea utiliza funcţionalitatea aceasta
- + Adaugă o Colecţie de documente
- Afişează secţiunea de adăugare a unui model
- Bara de progresie a Indexării
- Afişează progresia Indexării
- EROARE
- ...SE INDEXEAZĂ...
- ...EMBEDDINGs...
- NECESITĂ UPDATE
- GATA
- ...INSTALARE...
- Se Indexează...
- ...Se calculează Embeddings...
- Această Colecţie necesită update după schimbarea versiunii
- Se reindexează automat după schimbări ale folderului
- ...Instalare în curs...
- %
- %n fişier%n fişiere
- %n fişiere
+ %n de fişiere
- %n cuvânt%n cuvinte
- %n cuvinte
+ %n de cuvinte
- Şterg
- Reconstrucţie
- Reindexează de la zero acest folder. Procesul e lent şi de obicei inutil.
- Update/Actualizare
- Actualizează Colecţia la noua versiune. Această procedură e lentă.
@@ -2027,43 +1753,36 @@ model to get started
ModelSettings
- Model
- Configurez modelul
- Clonez
- Şterg
- Denumire
- Fişierul modelului
- System Prompt
@@ -2074,13 +1793,11 @@ model to get started
- Prompt Template
- Standardul de formulare a fiecărui prompt.
@@ -2091,37 +1808,31 @@ model to get started
- Denumirea conversaţiei
- Standardul de formulare a denumirii conversaţiilor.
- Prompt-ul sugerat pentru a continua
- Prompt-ul folosit pentru generarea întrebărilor de continuare.
- Lungimea Contextului
- Numărul token-urilor de input şi de output văzute de model.
@@ -2133,13 +1844,11 @@ model to get started
- Temperatura
- Libertatea/Confuzia din replica modelului. Mai mare -> mai multă libertate.
@@ -2150,13 +1859,11 @@ model to get started
- Top-P
- Factorul de Nucleus Sampling. Mai mic -> predictibilitate mai mare.
@@ -2167,19 +1874,16 @@ model to get started
- Plasat la începutul fiecărei conversaţii. Trebuie să conţină token-uri(le) adecvate de încadrare.
- Trebuie să conţină textul "%1" care va fi înlocuit cu ceea ce scrie utilizatorul.
-
@@ -2187,88 +1891,74 @@ NOTE: Does not take effect until you reload the model.
- Temperatura creşte probabilitatea de alegere a unor token-uri puţin probabile. NOTĂ: O temperatură tot mai înaltă determină replici tot mai creative şi mai puţin predictibile.
- Pot fi alese numai cele mai probabile token-uri a căror probabilitate totală este Top-P. NOTĂ: Se evită selectarea token-urilor foarte improbabile.
- Min-P
- Probabilitatea mínimă a unui token. Mai mare -> mai predictibil.
- Stabileşte probabilitatea minimă relativă a unui token de luat în considerare.
- Top-K
- Dimensiunea setului de token-uri.
- Se va alege numai din cele mai probabile K token-uri.
- Lungimea maximă
- Lungimea maximă - în token-uri - a replicii.
- Prompt Batch Size
- Dimensiunea setului de token-uri citite simultan din prompt.
- Numărul token-urilor procesate simultan. NOTĂ: Valori tot mai mari pot accelera citirea prompt-urilor, dar şi utiliza mai multă RAM.
-
@@ -2281,37 +1971,31 @@ NOTE: Does not take effect until you reload the model.
- Penalizarea pentru repetare
- Factorul de penalizare a repetării ce se dezactivează cu valoarea 1.
- Token-uri pentru penalizare a repetării
- Numărul token-urilor anterioare considerate pentru penalizare.
- Layere în GPU
- Numărul layerelor modelului ce vor fi Încărcate în VRAM.
@@ -2327,107 +2011,88 @@ NOTE: Does not take effect until you reload the model.
ModelsView
- Nu există modele instalate
- Instalează un model pentru a începe să foloseşti GPT4All
-
- + Adaugă un model
- Afişează secţiunea de adăugare a unui model
- Modele instalate
- Modele conversaţionale instalate local
- Fişierul modelului
- Fişierul modelului ce va fi descărcat
- Descriere
- Descrierea fişierului
- Anulare
- Continuare
- Oprirea/Repornirea/Iniţierea descărcării
- Şterg
- Şterg modelul din sistemul de fişiere
-
- Instalează
- Instalez un model din online
@@ -2444,67 +2109,56 @@ NOTE: Does not take effect until you reload the model.
- %1 GB
- ?
- Descrie o eroare apărută la download
- <strong><font size="1"><a href="#eroare">Error</a></strong></font>
- <strong><font size="2">ATENŢIE: Nerecomandat pentru acest hardware. Modelul necesită mai multă memorie (%1 GB) decât are sistemul tău(%2).</strong></font>
- Eroare - hardware incompatibil
- Bara de progresie a descărcării
- Afişează progresia descărcării
- Viteza de download
- Viteza de download în bytes/kilobytes/megabytes pe secundă
- ...Se calculează...
@@ -2513,88 +2167,71 @@ NOTE: Does not take effect until you reload the model.
-
-
-
- Dacă se va calcula hash-ul fişierului
- Indicator de activitate
- Afişat când se calculează hash-ul unui fişier
- EROARE: $API_KEY absentă.
- introdu cheia $API_KEY
- EROARE: $BASE_URL absentă.
- introdu $BASE_URL
- EROARE: $MODEL_NAME absent.
- introdu $MODEL_NAME
- Dimensiunea fişierului
- RAM necesară
- Parametri
- Quant(ificare)
- Tip
@@ -2603,13 +2240,11 @@ NOTE: Does not take effect until you reload the model.
MyFancyLink
- Link haios
- Un link cu stil
@@ -2618,7 +2253,6 @@ NOTE: Does not take effect until you reload the model.
MySettingsStack
- Selectează un director (folder)
@@ -2627,13 +2261,11 @@ NOTE: Does not take effect until you reload the model.
MySettingsTab
- Restaurez valorile implicite
- Restaurez secţiunea de configurare la starea sa implicită
@@ -2642,7 +2274,6 @@ NOTE: Does not take effect until you reload the model.
NetworkDialog
- Contribuie cu date/informaţii la componenta Open-source DataLake a GPT4All.
@@ -2681,7 +2312,6 @@ NOTE: Does not take effect until you reload the model.
-
- Termenii pentru participare
- Descrie ce se întâmplă când participi
- Specifică o denumire pentru această apreciere (opţional)
- Apreciere (opţional)
- Apreciază
- Activează
- Activează participarea
- Anulare
- Anulează participarea
@@ -2762,19 +2383,16 @@ NOTE: By turning on this feature, you will be sending your data to the GPT4All O
NewVersionDialog
- O nouă versiune disponibilă!
- Update/Actualizare
- Actualizează la noua versiune
@@ -2783,19 +2401,16 @@ NOTE: By turning on this feature, you will be sending your data to the GPT4All O
PopupDialog
- Afişează un mesaj scurt de asistenţă
- Indicator de activitate
- Se afişează când procedura este în desfăşurare
@@ -2805,32 +2420,26 @@ NOTE: By turning on this feature, you will be sending your data to the GPT4All O
-
- Configurare
- Conţine setări ale programului
- Program
- Model
- LocalDocs
@@ -2839,7 +2448,6 @@ NOTE: By turning on this feature, you will be sending your data to the GPT4All O
StartupDialog
- Bun venit!
@@ -2853,13 +2461,11 @@ NOTE: By turning on this feature, you will be sending your data to the GPT4All O
- Despre versiune
- Despre această versiune
@@ -2894,7 +2500,7 @@ NOTE: By turning on this feature, you will be sending your data to the GPT4All O
Când un model în GPT4All îţi răspunde şi îi accepţi răspunsul, conversaţia este
trimisă la componenta
Open-source DataLake a GPT4All. Mai mult - poţi aprecia (Like/Dislike) răspunsul. Dacă
- un răspuns Nu Îţi Place (e "Aiurea"). poţi
+ un răspuns Nu Îţi Place (e "Aiurea"). poţi
sugera un răspuns alternativ. Aceste date vor fi colectate şi agregate în
componenta DataLake a GPT4All.
@@ -2912,7 +2518,6 @@ NOTE: By turning on this feature, you will be sending your data to the GPT4All O
-
@@ -2922,7 +2527,6 @@ NOTE: By turning on this feature, you will be sending your data to the GPT4All O
-
- Termenii pentru participare
- Descrie ce se întâmplă când participi
-
- Acceptă colectarea de statistici despre utilizare -anonimă-
-
- Da
- Acceptă participarea la colectarea de statistici despre utilizare -anonimă-
-
- Nu
- Anulează participarea la colectarea de statistici despre utilizare -anonimă-
- Permite anularea participării la colectarea de statistici despre utilizare -anonimă-
-
- Acceptă pentru reţea
- Permite participarea pentru reţea
- Permite participarea la partajarea (share) -anonimă- a conversaţiilor către DataLake a GPT4All
- Refuz participarea, pentru reţea
- Permite anularea participării la partajarea -anonimă- a conversaţiilor către DataLake a GPT4All
@@ -3053,27 +2640,22 @@ care foloseşte datele tale!
- <b>Atenţie:</b> schimbarea modelului va şterge conversaţia curentă. Confirmi aceasta?
- Continuă
- Continuă încărcarea modelului
-
- Anulare
@@ -3082,37 +2664,31 @@ care foloseşte datele tale!
ThumbsDownDialog
- Te rog, editează textul de mai jos pentru a oferi o replică mai bună (opţional).
- Te rog, oferă o replică mai bună...
- Trimite
- Trimite răspunsul dat de utilizator
- Anulare
- Închide afişarea răspunsului
@@ -3134,7 +2710,6 @@ care foloseşte datele tale!
- GPT4All v%1
@@ -3154,145 +2729,119 @@ care foloseşte datele tale!
- <h3>A apărut o eroare la iniţializare:; </h3><br><i>"Hardware incompatibil. "</i><br><br>Din păcate, procesorul (CPU) nu întruneşte condiţiile minime pentru a rula acest program. În particular, nu suportă instrucţiunile AVX pe care programul le necesită pentru a integra un model conversaţional modern. În acest moment, unica soluţie este să îţi aduci la zi sistemul hardware cu un CPU mai recent.<br><br>Aici sunt mai multe informaţii: <a href="https://en.wikipedia.org/wiki/Advanced_Vector_Extensions">https://en.wikipedia.org/wiki/Advanced_Vector_Extensions</a>
- <h3>A apărut o eroare la iniţializare:; </h3><br><i>"Nu poate fi accesat fişierul de configurare a programului."</i><br><br>Din păcate, ceva împiedică programul în a accesa acel fişier. Cauza poate fi un set de permisiuni incorecte pe directorul/folderul local de configurare unde se află acel fişier. Poţi parcurge canalul nostru <a href="https://discord.gg/4M2QFmTt2k">Discord</a> unde vei putea primi asistenţă.
- Conectarea la DataLake a eşuat.
- Se salvează conversaţiile.
- Dialogul despre reţea
- acceptă partajarea (share) de comentarii/conversaţii
- Secţiunea de Început
- Secţiunea de Început a programului
- Prima<br>pagină
- Secţiunea conversaţiilor
- Secţiunea de chat pentru interacţiune cu modele
- Conversaţii
-
- Modele
- Secţiunea modelelor instalate
-
- LocalDocs
- Secţiunea LocalDocs de configurare şi folosire a Documentelor Locale
-
- Configurare
- Secţiunea de configurare a programului
- DataLake: ACTIV
- Se foloseşte un model pe reţea
- Modul Server: ACTIV
- Modele instalate
- Secţiunea modelelor instalate
diff --git a/gpt4all-chat/translations/gpt4all_zh_CN.ts b/gpt4all-chat/translations/gpt4all_zh_CN.ts
index 422e7940..7f675e62 100644
--- a/gpt4all-chat/translations/gpt4all_zh_CN.ts
+++ b/gpt4all-chat/translations/gpt4all_zh_CN.ts
@@ -5,73 +5,61 @@
AddCollectionView
- ← 存在集合
- 添加文档集合
- 添加一个包含纯文本文件、PDF或Markdown的文件夹。在“设置”中配置其他扩展。
- 请选择一个目录
- 名称
- 集合名称
- 集合名称 (必须)
- 目录
- 目录地址
- 文档的目录地址(必须)
- 查看
- 创建集合
@@ -80,25 +68,21 @@
AddModelView
- ← 存在的模型
- 发现模型
- 通过关键词查找并下载模型 ...
- 用于发现和筛选可下载模型的文本字段
@@ -108,37 +92,31 @@
- 启动模型发现和过滤
- 触发模型的发现和筛选
- 默认
- 喜欢
- 下载
- 近期
@@ -148,13 +126,11 @@
- 升序
- 倒序
@@ -164,7 +140,6 @@
- 无
@@ -178,175 +153,144 @@
- 搜索中 · %1
- 排序: %1
- 排序目录: %1
- 数量: %1
- 网络错误:无法检索 %1
-
- 繁忙程度
- 在模型请求进行中时显示
- 模型文件
- 待下载模型
- 描述
- 文件描述
- 取消
- 继续
- 下载
- 停止/重启/开始下载
- 删除
- 从系统中删除模型
-
- 安装
- 安装在线模型
- <strong><font size="1"><a href="#error">错误</a></strong></font>
- <strong><font size="2">警告: 你的设备硬件不推荐 ,模型需要的内存 (%1 GB)比你的系统还要多 (%2).</strong></font>
- 错误:$API_KEY 为空
- 错误:$BASE_URL 为空
- 输入 $BASE_URL
- 错误:$MODEL_NAME为空
- 输入:$MODEL_NAME
- %1 GB
-
- ?
@@ -356,7 +300,6 @@
- 描述下载过程中发生的错误
@@ -374,37 +317,31 @@
- 硬件不兼容的错误
- 下载进度
- 显示下载进度
- 下载速度
- 下载速度 b/kb/mb /s
- 计算中
@@ -413,34 +350,26 @@
-
-
-
- 是否正在计算文件哈希
- 在计算文件哈希时显示
- 输入$API_KEY
- 文件大小
- RAM 需要
@@ -450,19 +379,16 @@
- 参数
- 量化
- 类型
@@ -471,25 +397,21 @@
ApplicationSettings
- 应用
- 网络对话
- 选择加入以共享反馈/对话
-
- 错误对话
- 应用设置
- 通用设置
- 主题
- 应用的主题颜色
- 深色
- 亮色
- LegacyDark
- 字体大小
- 应用中的文本大小。
- 小
- 中
- 大
- 语言和本地化
- 你想使用的语言
- 系统语言
- 设备
@@ -610,165 +515,137 @@
- 设备用于文本生成
-
- 程序默认
- 默认模型
- 新聊天的首选模式。也用作本地服务器回退。
- 建议模式
- 在答复结束时生成建议的后续问题。
- 本地文档检索
- 只要有可能
- 从不
- 下载目录
- 本地模型和本地文档数据库存储目录
- 查看
- 模型下载目录
- 开启数据湖
- 发送对话和反馈给GPT4All 的开源数据湖。
- 高级
- CPU线程
- 用于推理和嵌入的CPU线程数
- 保存对话上下文
- 保存模型's 状态以提供更快加载速度. 警告: 需用 ~2GB 每个对话.
- 开启本地服务
- 将OpenAI兼容服务器暴露给本地主机。警告:导致资源使用量增加。
- API 服务端口
- 使用本地服务的端口,需要重启
- 检查更新
- 手动检查更新
- 更新
@@ -812,73 +689,61 @@
ChatDrawer
- 抽屉
- 导航
- + 新对话
- 新对话
- 选择当前的聊天或在编辑模式下编辑聊天
- 修改对话名称
- 保存对话名称
- 删除对话
- 确认删除对话
- 取消删除对话
- 对话列表
- 对话框中的聊天列表
@@ -928,31 +793,26 @@
- <h3>警告</h3><p>%1</p>
- 切换模型对话
- 如果用户切换模型,则警告用户,然后上下文将被删除
- 复制对话到剪切板
- 复制代码到剪切板
@@ -962,61 +822,51 @@
- 对话面板
- 对话面板选项
- 重载当前模型
- 弹出当前加载的模型
- 没有安装模型
- 模型加载错误
- 稍等片刻
- 切换上下文
- 选择模型
- 没找到: %1
@@ -1030,27 +880,22 @@
- 当前模型的最佳选项
-
- 本地文档
- 添加文档
- 将文档集合添加到聊天中
@@ -1064,62 +909,52 @@
- 载入默认模型
- 加载默认模型,可以在设置中更改
- 没有下载模型
- GPT4All要求您至少安装一个模型才能开始
- 下载模型
- 查看添加的模型
- 使用此模型对话
- 对话中的提示/响应对
- GPT4All
- 您
@@ -1137,7 +972,6 @@ model to get started
- 响应停止...
@@ -1151,209 +985,175 @@ model to get started
- 处理中
- 响应中...
- 生成响应
-
- 复制
- 复制内容
- 不允许markdown
- 允许markdown
- 点赞
- 点赞响应
- 点踩
- 打开点踩对话框
-
-
-
-
- %1 资源
-
- 建议的后续行动
- 擦除并重置聊天会话
- 复制对话到剪切板
- 重新生成上个响应
- 停止生成
- 停止当前响应
- 重载模型
- <h3>加载模型时遇到错误:</h3><br><i><%1></i><br><br>模型加载失败可能由多种原因引起,但最常见的原因包括文件格式错误、下载不完整或损坏、文件类型错误、系统 RAM 不足或模型类型不兼容。以下是一些解决问题的建议:<br><ul><li>确保模型文件具有兼容的格式和类型<li>检查下载文件夹中的模型文件是否完整<li>您可以在设置对话框中找到下载文件夹<li>如果您已侧载模型,请通过检查 md5sum 确保文件未损坏<li>在我们的 <a href="https://docs.gpt4all.io/">文档</a> 中了解有关 gui 支持哪些模型的更多信息<li>查看我们的 <a href="https://discord.gg/4M2QFmTt2k">discord 频道</a> 以获取帮助
-
- 重载 · %1
- 载入中 · %1
- 载入 · %1 (默认) →
- 从文本恢复中
- 检索本地文档: %1 ...
- 搜索本地文档: %1 ...
+
+
+
+
+ %n 资源
+
+
- 发送消息...
- 选择模型并继续
- 发送消息/提示词给模型
- 剪切
- 粘贴
- 全选
- 发送消息
- 将文本框中包含的消息/提示发送给模型
@@ -1362,13 +1162,11 @@ model to get started
CollectionsDrawer
- 提示: 索引时搜索集合可能会返回不完整的结果
-
@@ -1376,7 +1174,6 @@ model to get started
-
@@ -1384,19 +1181,16 @@ model to get started
- 更新中
- + 添加文档
- 选择一个集合,使其可用于聊天模型。
@@ -1443,109 +1237,91 @@ model to get started
HomeView
- 欢迎
- 隐私至上的大模型咨询应用程序
- 开始聊天
- 开始聊天
- 大预言模型聊天
- 本地文档
- 本地文件聊天
- 查找模型
- 发现并下载模型
- 新闻
- GPT4All新闻
- 发布日志
- 文档
- Discord
- X (Twitter)
- Github
- GPT4All.io
- 订阅信息
@@ -1554,139 +1330,116 @@ model to get started
LocalDocsSettings
- 本地文档
- 本地文档设置
- 索引中
- 添加文档扩展名
- 逗号分隔的列表。LocalDocs 只会尝试处理具有这些扩展名的文件
- Embedding
- 使用 Nomic 内部 API
- 使用快速的 Nomic API 嵌入文档,而不是使用私有本地模型
- Nomic API Key
- Nomic Embed 使用的 API 密钥。请访问官网获取,需要重启。
- Embeddings 设备
- 技术设备用于embeddings. 需要重启.
- 程序默认
- 显示
- 查看源码
- 显示每个响应所使用的源。
- 高级
- 提示: 仅限高级使用。
- 值过大可能会导致 localdocs 失败、响应速度极慢或根本无法响应。粗略地说,{N 个字符 x N 个片段} 被添加到模型的上下文窗口中。更多信息请见<a href="https://docs.gpt4all.io/gpt4all_desktop/localdocs.html">此处</a>。
- 文档粘贴大小 (字符)
- 每个文档片段的字符数。较大的数值增加了事实性响应的可能性,但也会导致生成速度变慢。
- 每个提示的最大文档片段数
- 检索到的文档片段最多添加到提示上下文中的前 N 个最佳匹配项。较大的数值增加了事实性响应的可能性,但也会导致生成速度变慢。
@@ -1695,19 +1448,16 @@ model to get started
LocalDocsView
- 本地文档
- 和本地文件对话
- + 添加集合
@@ -1723,121 +1473,101 @@ model to get started
- <h3>错误:无法访问 LocalDocs 数据库或该数据库无效。</h3><br><i>注意:尝试以下任何建议的修复方法后,您将需要重新启动。</i><br><ul><li>确保设置为<b>下载路径</b>的文件夹存在于文件系统中。</li><li>检查<b>下载路径</b>的所有权以及读写权限。</li><li>如果有<b>localdocs_v2.db</b>文件,请检查其所有权和读/写权限。</li></ul><br>如果问题仍然存在,并且存在任何“localdocs_v*.db”文件,作为最后的手段,您可以<br>尝试备份并删除它们。但是,您必须重新创建您的收藏。
- 没有集合
- 安装一组本地文档以开始使用此功能
- + 添加文档集合
- 查看添加的模型
- 索引进度
- 显示索引进度
- 错误
- 索引
- EMBEDDING
- 需更新
- 准备
- 安装中
- 构建索引中
- Embedding进度
- 此集合需要在版本更改后进行更新
- 在文件夹变动时自动重新索引
- 安装进度
- %
- %n 文件
@@ -1845,7 +1575,6 @@ model to get started
- %n 词
@@ -1853,31 +1582,26 @@ model to get started
- 删除
- 重新构建
- 从头开始重新索引此文件夹。这个过程较慢,通常情况下不需要。
- 更新
- 将集合更新为新版本。这是一个缓慢的操作。
@@ -1974,67 +1698,56 @@ model to get started
ModelSettings
- 模型
- 模型设置
- 克隆
- 删除
- 名称
- 模型文件
- 系统提示词
- 每次对话开始时的前缀
- 提示词模版
- 包装每个提示的模板
- 必须包含字符串 "%1" 替换为用户的's 输入.
@@ -2045,43 +1758,36 @@ optional image
- 聊天名称提示
- 用于自动生成聊天名称的提示。
- 建议的后续提示
- 用于生成建议的后续问题的提示。
- 上下文长度
- 模型看到的输入和输出令牌的数量。
-
@@ -2091,19 +1797,16 @@ NOTE: Does not take effect until you reload the model.
- 温度
- 模型输出的随机性。更高->更多的变化。
- 温度增加了选择不太可能的token的机会。
@@ -2111,19 +1814,16 @@ NOTE: Higher temperature gives more creative but less predictable outputs.
- Top-P
- 核子取样系数。较低->更具可预测性。
- 只能选择总概率高达top_p的最有可能的令牌。
@@ -2131,67 +1831,56 @@ NOTE: Prevents choosing highly unlikely tokens.
- Min-P
- 最小令牌概率。更高 -> 更可预测。
- 设置被考虑的标记的最小相对概率。
- Top-K
- 令牌选择池的大小。
- 仅从最可能的前 K 个标记中选择
- 最大长度
- 最大响应长度(以令牌为单位)
- 提示词大小
- 用于快速处理的批量大小。
- 一次要处理的提示令牌数量。
@@ -2199,43 +1888,36 @@ NOTE: Higher values can speed up reading prompts but will use more RAM.
- 重复惩罚
- 重复处罚系数。设置为1可禁用。
- 重复惩罚数
- 用于惩罚的先前令牌数量。
- GPU 层
- 要加载到VRAM中的模型层数。
-
@@ -2248,161 +1930,133 @@ NOTE: Does not take effect until you reload the model.
ModelsView
- 无模型
- 安装模型并开始使用
-
- + 添加模型
- 查看增加到模型
- 已安装的模型
- 本地安装的聊天
- 模型文件
- 待下载的模型
- 描述
- 文件描述
- 取消
- 继续
- 停止/重启/开始下载
- 删除
- 从系统中删除模型
-
- 按照
- 安装在线模型
- <strong><font size="1"><a href="#error">Error</a></strong></font>
- <strong><font size="2">WARNING: Not recommended for your hardware. Model requires more memory (%1 GB) than your system has available (%2).</strong></font>
- 错误:$API_KEY 为空
- 错误:$BASE_URL 为空
- 输入 $BASE_URL
- 错误:$MODEL_NAME为空
- 输入:$MODEL_NAME
- %1 GB
- ?
@@ -2412,7 +2066,6 @@ NOTE: Does not take effect until you reload the model.
- 描述下载时发生的错误
@@ -2430,37 +2083,31 @@ NOTE: Does not take effect until you reload the model.
- 硬件不兼容的错误
- 下载进度
- 显示下载进度
- 下载速度
- 下载速度 b/kb/mb /s
- 计算中...
@@ -2469,40 +2116,31 @@ NOTE: Does not take effect until you reload the model.
-
-
-
- 是否正在计算文件哈希
- 繁忙程度
- 在计算文件哈希时显示
- 输入 $API_KEY
- 文件大小
- 需要 RAM
@@ -2512,19 +2150,16 @@ NOTE: Does not take effect until you reload the model.
- 参数
- 量化
- 类型
@@ -2533,13 +2168,11 @@ NOTE: Does not take effect until you reload the model.
MyFancyLink
- 精选链接
- 样式化链接
@@ -2548,7 +2181,6 @@ NOTE: Does not take effect until you reload the model.
MySettingsStack
- 请选择目录
@@ -2557,13 +2189,11 @@ NOTE: Does not take effect until you reload the model.
MySettingsTab
- 恢复初始化
- 将设置对话框恢复为默认状态
@@ -2572,13 +2202,11 @@ NOTE: Does not take effect until you reload the model.
NetworkDialog
- 向GPT4All开源数据湖贡献数据
-
- 选择加入的条款
- 描述选择加入时会发生的情况
- 填写名称属性 (可选)
- 属性 (可选)
- 提供属性
- 启用
- 启用选择加入
- 取消
- 取消加入
@@ -2649,19 +2268,16 @@ NOTE: By turning on this feature, you will be sending your data to the GPT4All O
NewVersionDialog
- 新版本可选
- 更新
- 更新到新版本
@@ -2670,19 +2286,16 @@ NOTE: By turning on this feature, you will be sending your data to the GPT4All O
PopupDialog
- 显示一个短暂的帮助气球
- 繁忙程度
- 在弹出窗口显示忙碌时显示
@@ -2699,32 +2312,26 @@ NOTE: By turning on this feature, you will be sending your data to the GPT4All O
-
- 设置
- 包含各种应用程序设置
- 应用
- 模型
- 本地文档
@@ -2733,7 +2340,6 @@ NOTE: By turning on this feature, you will be sending your data to the GPT4All O
StartupDialog
- 欢迎!
@@ -2749,7 +2355,6 @@ NOTE: By turning on this feature, you will be sending your data to the GPT4All O
-
@@ -2759,19 +2364,16 @@ NOTE: By turning on this feature, you will be sending your data to the GPT4All O
- 发布日志
- 本版本发布日志
-
- 选择加入选项
- 描述选择加入时会发生的情况
-
- 允许选择加入匿名使用统计数据
-
- 是
- 允许选择加入匿名使用统计数据
-
- 否
- 退出匿名使用统计数据
- 允许选择退出匿名使用统计数据
-
- 加入网络
- 允许选择加入网络
- 允许选择加入匿名共享聊天至 GPT4All 数据湖
- 取消网络
- 允许选择退出将聊天匿名共享至 GPT4All 数据湖
@@ -2886,27 +2471,22 @@ model release that uses your data!
SwitchModelDialog
- <b>警告:</b> 更改模型将删除当前对话。您想继续吗?
- 继续
- 模型载入时继续
-
- 取消
@@ -2915,37 +2495,31 @@ model release that uses your data!
ThumbsDownDialog
- 请编辑下方文本以提供更好的回复。(可选)
- 提供更好回答...
- 提交
- 提交用户响应
- 取消
- 关闭的对话
@@ -3010,151 +2584,124 @@ model release that uses your data!
- GPT4All v%1
- <h3>启动时遇到错误:</h3><br><i>“检测到不兼容的硬件。”</i><br><br>很遗憾,您的 CPU 不满足运行此程序的最低要求。特别是,它不支持此程序成功运行现代大型语言模型所需的 AVX 内在函数。目前唯一的解决方案是将您的硬件升级到更现代的 CPU。<br><br>有关更多信息,请参阅此处:<a href="https://en.wikipedia.org/wiki/Advanced_Vector_Extensions>>https://en.wikipedia.org/wiki/Advanced_Vector_Extensions</a>
- <h3>启动时遇到错误:</h3><br><i>“无法访问设置文件。”</i><br><br>不幸的是,某些东西阻止程序访问设置文件。这可能是由于设置文件所在的本地应用程序配置目录中的权限不正确造成的。请查看我们的<a href="https://discord.gg/4M2QFmTt2k">discord 频道</a> 以获取帮助。
- 链接数据湖失败
- 保存对话
- 网络对话
- 选择加入以共享反馈/对话
- 主页
- 主页
- 主页
- 对话视图
- 聊天视图可与模型互动
- 对话
-
- 模型
- 已安装模型的页面
-
- 本地文档
- LocalDocs视图可配置和使用本地文档
-
- 设置
- 设置页面
- 数据湖已开启
- 使用联网模型
- 服务器模式已开
- 安装模型
- 查看已安装模型
diff --git a/gpt4all-chat/translations/gpt4all_zh_TW.ts b/gpt4all-chat/translations/gpt4all_zh_TW.ts
index abdbb611..3a4fc4eb 100644
--- a/gpt4all-chat/translations/gpt4all_zh_TW.ts
+++ b/gpt4all-chat/translations/gpt4all_zh_TW.ts
@@ -5,73 +5,61 @@
AddCollectionView
- ← 現有收藏
- 新增收藏文件
- 新增一個含有純文字檔案、PDF 與 Markdown 文件的資料夾。可在設定上增加文件副檔名。
- 請選擇一個資料夾
- 名稱
- 收藏名稱......
- 新增的收藏名稱(必填)
- 資料夾
- 資料夾路徑......
- 文件所屬的資料夾路徑(必填)
- 瀏覽
- 建立收藏
@@ -80,266 +68,220 @@
AddModelView
- ← 現有模型
- 探索模型
- 透過關鍵字搜尋探索並下載模型......
- 用於探索與過濾可下載模型的文字字段
- 搜尋 · %1
- 探索與過濾模型
- 觸發探索與過濾模型
- 預設
- 讚
- 下載次數
- 最新
- 排序依據:%1
- 升序
- 降序
- 排序順序:%1
- 無
- 上限:%1
- 網路錯誤:無法取得 %1
- <strong><font size="1"><a href="#error">錯誤</a></strong></font>
- <strong><font size="2">警告:不推薦在您的硬體上運作。模型需要比較多的記憶體(%1 GB),但您的系統記憶體空間不足(%2)。</strong></font>
- %1 GB
-
- ?
-
- 參考自 https://terms.naer.edu.tw忙線指示器
- 當模型請求正在進行時顯示
- 模型檔案
- 即將下載的模型檔案
- 描述
- 檔案描述
- 取消
- 恢復
- 下載
- 停止/重啟/開始下載
- 移除
- 從檔案系統移除模型
-
- 安裝
- 安裝線上模型
- 解釋下載時發生的錯誤
- 錯誤,不相容的硬體
- 下載進度條
- 顯示下載進度
- 下載速度
- 下載速度每秒 bytes/kilobytes/megabytes
- 計算中......
@@ -348,82 +290,66 @@
-
-
-
- 是否正在計算檔案雜湊
- 計算檔案雜湊值時顯示
- 錯誤:$API_KEY 未填寫。
- 請輸入 $API_KEY
- 錯誤:$BASE_URL 未填寫。
- 請輸入 $BASE_URL
- 錯誤:$MODEL_NAME 未填寫。
- 請輸入 $MODEL_NAME
- 檔案大小
- 所需的記憶體
- 參數
- 量化
- 類型
@@ -432,25 +358,21 @@
ApplicationSettings
- 應用程式
- 資料湖泊計畫對話視窗
- 分享回饋/對話計畫
-
- 錯誤對話視窗
- 應用程式設定
- 一般
- 主題
- 應用程式的配色方案。
- 暗色
- 亮色
- 傳統暗色
- 字體大小
- 應用程式中的字體大小。
- 小
- 中
- 大
- 語言與區域設定
- 您希望使用的語言與區域設定。
- 系統語系
- 裝置
- 預設模型
- 用於新交談的預設模型。也用於作為本機伺服器後援使用。
- 建議模式
- 當使用「我的文件」交談時
- 視情況允許
- 永不
- 在回覆末尾生成後續建議的問題。
- 用於生成文字的計算裝置。
-
- 應用程式預設值
- 下載路徑
- 儲存本機模型與「我的文件」資料庫的位置。
- 瀏覽
- 選擇儲存模型檔案的位置
- 啟用資料湖泊
- 將交談與回饋傳送到 GPT4All 開放原始碼資料湖泊。
- 進階
- 中央處理器(CPU)線程
- 用於推理與嵌入的中央處理器線程數。
- 儲存交談語境
- 將交談模型的狀態儲存到磁碟以加快載入速度。警告:每次交談使用約 2GB。
- 啟用本機伺服器
- 將 OpenAI 相容伺服器公開給本機。警告:導致資源使用增加。
- API 伺服器埠口
- 用於本機伺服器的埠口。需要重新啟動。
- 檢查更新
- 手動檢查 GPT4All 的更新。
- 更新
@@ -762,73 +639,61 @@
ChatDrawer
- 側邊欄
- 主要導航側邊欄
- + 新的交談
- 建立新的交談
- 選擇目前交談或在編輯模式下編輯交談
- 修改對話名稱
- 儲存對話名稱
- 刪除對話
- 確定刪除對話
- 取消刪除對話
- 交談列表
- 側邊欄對話視窗的交談列表
@@ -870,161 +735,133 @@
ChatView
- <h3>警告</h3><p>%1</p>
- 切換模型對話視窗
- 警告使用者如果切換模型,則語境將被刪除
- 對話已複製到剪貼簿。
- 程式碼已複製到剪貼簿。
- 交談面板
- 具有選項的交談面板
- 重新載入目前已載入的模型
- 彈出目前載入的模型
- 沒有已安裝的模型。
- 模型載入時發生錯誤。
- 等待模型中......
- 切換語境中......
- 選擇一個模型......
- 不存在:%1
-
- 重新載入 · %1
- 載入中 · %1
- 載入 · %1 (預設) →
- 最上面的那項是目前使用的模型
-
- 我的文件
- 新增文件
- 將文件集合新增至交談中
- 載入預設模型
- 預設模型可於設定中變更
- 沒有已安裝的模型
- GPT4All 要求您至少安裝一個
@@ -1032,231 +869,194 @@ model to get started
- 安裝一個模型
- 顯示新增模型視圖
- 與模型對話
- 對話中的提示詞 / 回覆組合
- GPT4All
- 您
- 回覆停止......
- 檢索本機文件中:%1 ......
- 搜尋本機文件中:%1 ......
- 處理中......
- 生成回覆......
- 生成問題......
-
- 複製
- 複製訊息
- 停用 Markdown
- 啟用 Markdown
- 讚
- 對這則回覆比讚
- 倒讚
- 開啟倒讚對話視窗
-
-
-
-
- %1 來源
-
- 後續建議
- 刪除並重置交談會話
- 複製交談會議到剪貼簿
- 復原上一個交談回覆
- 停止生成
- 停止當前回覆生成
- 重新載入模型
- <h3>載入模型時發生錯誤:</h3><br><i>"%1"</i><br><br>導致模型載入失敗的原因可能有很多種,但絕大多數的原因是檔案格式損毀、下載的檔案不完整、檔案類型錯誤、系統RAM空間不足或不相容的模型類型。這裡有些建議可供疑難排解:<br><ul><li>確保使用的模型是相容的格式與類型<li>檢查位於下載資料夾的檔案是否完整<li>您可以從設定中找到您所設定的「下載資料夾路徑」<li>如果您有側載模型,請利用 md5sum 等工具確保您的檔案是完整的<li>想了解更多關於我們所支援的模型資訊,煩請詳閱<a href="https://docs.gpt4all.io/">本文件</a>。<li>歡迎洽詢我們的 <a href="https://discord.gg/4M2QFmTt2k">Discord 伺服器</a> 以尋求幫助
- 從文字中恢復......
+
+
+
+
+ %n 來源
+
+
- 傳送一則訊息......
- 載入模型以繼續......
- 向模型傳送訊息/提示詞
- 剪下
- 貼上
- 全選
- 傳送訊息
- 將文字欄位中包含的訊息/提示詞傳送到模型
@@ -1265,13 +1065,11 @@ model to get started
CollectionsDrawer
- 警告:在索引時搜尋收藏可能會傳回不完整的結果
- %n 個檔案
@@ -1279,7 +1077,6 @@ model to get started
- %n 個字
@@ -1287,19 +1084,16 @@ model to get started
- 更新中
- + 新增文件
- 選擇一個收藏以使其可供交談模型使用。
@@ -1346,109 +1140,91 @@ model to get started
HomeView
- 歡迎使用 GPT4All
- 隱私第一的大型語言模型交談應用程式
- 開始交談
- 開始交談
- 與任何大型語言模型交談
- 我的文件
- 使用「我的文件」來交談
- 搜尋模型
- 瀏覽與下載模型
- 最新消息
- 從 GPT4All 來的最新消息
- 版本資訊
- 文件
- Discord
- X (Twitter)
- Github
- GPT4All.io
- 訂閱電子報
@@ -1457,139 +1233,116 @@ model to get started
LocalDocsSettings
- 我的文件
- 我的文件設定
- 索引中
- 允許的副檔名
- 以逗號分隔的列表。「我的文件」將僅嘗試處理具有這些副檔名的檔案。
- 嵌入
- 使用 Nomic 嵌入 API
- 使用快速的 Nomic API 而不是本機私有模型嵌入文件。需要重新啟動。
- Nomic API 金鑰
- 用於 Nomic Embed 的 API 金鑰。從 Atlas <a href="https://atlas.nomic.ai/cli-login">API 金鑰頁面</a>取得一個。需要重新啟動。
- 嵌入裝置
- 用於嵌入的計算裝置。需要重新啟動。
- 應用程式預設值
- 顯示
- 查看來源
- 顯示每則回覆所使用的來源。
- 進階
- 警告:僅限進階使用。
- 設定太大的數值可能會導致「我的文件」處理失敗、反應速度極慢或根本無法回覆。簡單地說,這會將 {N 個字元 x N 個片段} 被添加到模型的語境視窗中。更多資訊<a href="https://docs.gpt4all.io/gpt4all_desktop/localdocs.html">此處</a>。
- 文件片段大小(字元)
- 每個文件片段的字元數。較大的數字會增加實際反應的可能性,但也會導致生成速度變慢。
- 每個提示詞的最大文件片段
- 新增至提示詞語境中的檢索到的文件片段的最大 N 個符合的項目。較大的數字會增加實際反應的可能性,但也會導致生成速度變慢。
@@ -1598,139 +1351,116 @@ model to get started
LocalDocsView
- 我的文件
- 使用「我的文件」來交談
- + 新增收藏
- <h3>錯誤:「我的文件」資料庫已無法存取或已損壞。</h3><br><i>提醒:執行完以下任何疑難排解的動作後,請務必重新啟動應用程式。</i><br><ul><li>請確保<b>「下載路徑」</b>所指向的資料夾確實存在於檔案系統當中。</li><li>檢查 <b>「下載路徑」</b>所指向的資料夾,確保其「擁有者」為您本身,以及確保您對該資料夾擁有讀寫權限。</li><li>如果該資料夾內存在一份名為 <b>localdocs_v2.db</b> 的檔案,請同時確保您對其擁有讀寫權限。</li></ul><br>如果問題依舊存在,且該資料夾內存在與「localdocs_v*.db」名稱相關的檔案,請嘗試備份並移除它們。<br>雖然這樣一來,您恐怕得著手重建您的收藏,但這將或許能夠解決這份錯誤。
- 沒有已安裝的收藏
- 安裝本機文件收藏以開始使用此功能
- + 新增文件收藏
- 查看新增的模型視圖
- 索引進度條
- 顯示索引進度
- 錯誤
- 索引中
- 嵌入中
- 必須更新
- 已就緒
- 安裝中
- 正在索引
- 正在嵌入
- 該收藏需要在版本變更後更新
- 若資料夾有變動,會自動重新索引
- 正在安裝中
- %
- %n 個檔案
@@ -1738,7 +1468,6 @@ model to get started
- %n 個字
@@ -1746,31 +1475,26 @@ model to get started
- 移除
- 重建
- 重新索引該資料夾。這將會耗費許多時間並且通常不太需要這樣做。
- 更新
- 更新收藏。這將會耗費許多時間。
@@ -1847,109 +1571,91 @@ model to get started
ModelSettings
- 模型
- 模型設定
- 複製
- 移除
- 名稱
- 模型檔案
- 系統提示詞
- 在每個對話的開頭加上前綴。必須包含適當的構建符元(framing tokens)。
- 提示詞模板
- 包裝每個提示詞的模板。
- 必須包含要替換為使用者輸入的字串「%1」。
- 交談名稱提示詞
- 用於自動生成交談名稱的提示詞。
- 後續建議提示詞
- 用於生成後續建議問題的提示詞。
- 語境長度(Context Length)
- 模型看見的輸入與輸出的符元數量。
-
@@ -1959,19 +1665,16 @@ NOTE: Does not take effect until you reload the model.
- 語境溫度(Temperature)
- 模型輸出的隨機性。更高 -> 更多變化。
- 語境溫度會提高選擇不容易出現的符元機率。
@@ -1979,19 +1682,16 @@ NOTE: Higher temperature gives more creative but less predictable outputs.
- 核心採樣(Top-P)
- 核心採樣因子。更低 -> 更可預測。
- 只選擇總機率約為核心採樣,最有可能性的符元。
@@ -1999,67 +1699,56 @@ NOTE: Prevents choosing highly unlikely tokens.
- 最小符元機率(Min-P)
- 最小符元機率。更高 -> 更可預測。
- 設定要考慮的符元的最小相對機率。
- 高頻率採樣機率(Top-K)
- 符元選擇池的大小。
- 只選擇前 K 個最有可能性的符元。
- 最大長度(Max Length)
- 最大響應長度(以符元為單位)。
- 提示詞批次大小(Prompt Batch Size)
- 用於即時處理的批量大小。
- 一次處理的提示詞符元數量。
@@ -2067,43 +1756,36 @@ NOTE: Higher values can speed up reading prompts but will use more RAM.
- 重複處罰(Repeat Penalty)
- 重複懲罰因子。設定為 1 以停用。
- 重複懲罰符元(Repeat Penalty Tokens)
- 之前用於懲罰的符元數量。
- 圖形處理器負載層(GPU Layers)
- 要載入到顯示記憶體中的模型層數。
-
@@ -2116,173 +1798,143 @@ NOTE: Does not take effect until you reload the model.
ModelsView
- 沒有已安裝的模型
- 安裝模型以開始使用 GPT4All
-
- + 新增模型
- 顯示新增模型視圖
- 已安裝的模型
- 本機已安裝的交談模型
- 模型檔案
- 即將下載的模型檔案
- 描述
- 檔案描述
- 取消
- 恢復
- 停止/重啟/開始下載
- 移除
- 從檔案系統移除模型
-
- 安裝
- 安裝線上模型
- <strong><font size="1"><a href="#error">錯誤</a></strong></font>
- <strong><font size="2">警告:不推薦在您的硬體上運作。模型需要比較多的記憶體(%1 GB),但您的系統記憶體空間不足(%2)。</strong></font>
- %1 GB
- ?
- 解釋下載時發生的錯誤
- 錯誤,不相容的硬體
- 下載進度條
- 顯示下載進度
- 下載速度
- 下載速度每秒 bytes/kilobytes/megabytes
- 計算中......
@@ -2291,89 +1943,72 @@ NOTE: Does not take effect until you reload the model.
-
-
-
- 是否正在計算檔案雜湊
- 參考自 https://terms.naer.edu.tw忙線指示器
- 計算檔案雜湊值時顯示
- 錯誤:$API_KEY 未填寫。
- 請輸入 $API_KEY
- 錯誤:$BASE_URL 未填寫。
- 請輸入 $BASE_URL
- 錯誤:$MODEL_NAME 未填寫。
- 請輸入 $MODEL_NAME
- 檔案大小
- 所需的記憶體
- 參數
- 量化
- 類型
@@ -2382,13 +2017,11 @@ NOTE: Does not take effect until you reload the model.
MyFancyLink
- 精緻網址
- 個性化網址
@@ -2397,7 +2030,6 @@ NOTE: Does not take effect until you reload the model.
MySettingsStack
- 請選擇一個資料夾
@@ -2406,13 +2038,11 @@ NOTE: Does not take effect until you reload the model.
MySettingsTab
- 恢復預設值
- 恢復設定對話視窗到預設狀態
@@ -2421,13 +2051,11 @@ NOTE: Does not take effect until you reload the model.
NetworkDialog
- 貢獻資料到 GPT4All 的開放原始碼資料湖泊。
-
- 計畫規範
- 解釋當您加入計畫後,會發生什麼事情
- 請提供署名(非必填)
- 署名(非必填)
- 提供署名
- 啟用
- 加入計畫
- 取消
- 拒絕計畫
@@ -2503,19 +2122,16 @@ Nomic AI 將保留附加在您的資料上的所有署名訊息,並且您將
NewVersionDialog
- 發現新版本
- 更新
- 更新版本
@@ -2524,20 +2140,17 @@ Nomic AI 將保留附加在您的資料上的所有署名訊息,並且您將
PopupDialog
- 呼叫提示小幫手
- 參考自 https://terms.naer.edu.tw忙線指示器
- 當彈出視窗忙碌時顯示
@@ -2547,32 +2160,26 @@ Nomic AI 將保留附加在您的資料上的所有署名訊息,並且您將
-
- 設定
- 內含多種應用程式設定
- 應用程式
- 模型
- 我的文件
@@ -2581,25 +2188,21 @@ Nomic AI 將保留附加在您的資料上的所有署名訊息,並且您將
StartupDialog
- 歡迎使用!
- 版本資訊
- 這個版本的版本資訊
-
- 計畫規範
- 解釋當您加入計畫後,會發生什麼事情
-
- 是
-
- 否
-
- 匿名使用統計計畫
-
@@ -2674,51 +2268,42 @@ Nomic AI 將保留附加在您的資料上的所有署名訊息,並且您將
- 加入匿名使用統計計畫
- 退出匿名使用統計計畫
- 終止並退出匿名使用統計計畫
-
- 資料湖泊計畫
- 加入資料湖泊計畫
- 退出資料湖泊計畫
- 開始將交談內容匿名分享到 GPT4All 資料湖泊
- 終止將交談內容匿名分享到 GPT4All 資料湖泊
@@ -2727,27 +2312,22 @@ Nomic AI 將保留附加在您的資料上的所有署名訊息,並且您將
SwitchModelDialog
- <b>警告:</b> 變更模型將會清除目前對話內容。您真的想要繼續嗎?
- 繼續
- 繼續載入模型
-
- 取消
@@ -2756,37 +2336,31 @@ Nomic AI 將保留附加在您的資料上的所有署名訊息,並且您將
ThumbsDownDialog
- 請編輯以下文字,以提供更好的回覆。(非必填)
- 請提供一則更好的回覆......
- 送出
- 送出使用者的回覆
- 取消
- 關閉回覆對話視窗
@@ -2795,151 +2369,124 @@ Nomic AI 將保留附加在您的資料上的所有署名訊息,並且您將
main
- GPT4All v%1
- <h3>啟動時發生錯誤:</h3><br><i>「偵測到不相容的硬體。」</i><br><br>糟糕!您的中央處理器不符合運行所需的最低需求。尤其,它不支援本程式運行現代大型語言模型所需的 AVX 指令集。目前唯一的解決方案,只有更新您的中央處理器及其相關硬體裝置。<br><br>更多資訊請查閱:<a href="https://zh.wikipedia.org/wiki/AVX指令集">AVX 指令集 - 維基百科</a>
- <h3>啟動時發生錯誤:</h3><br><i>「無法存取設定檔。」</i><br><br>糟糕!有些東西正在阻止程式存取設定檔。這極為可能是由於設定檔所在的本機應用程式設定資料夾中的權限設定不正確所造成的。煩請洽詢我們的 <a href="https://discord.gg/4M2QFmTt2k">Discord 伺服器</a> 以尋求協助。
- 連線資料湖泊失敗。
- 儲存交談。
- 資料湖泊計畫對話視窗
- 分享回饋/對話計畫
- 首頁視圖
- 應用程式首頁視圖
- 首頁
- 查看交談
- 模型互動交談視圖
- 交談
-
- 模型
- 已安裝模型的模型視圖
-
- 我的文件
- 用於設定與使用我的文件的「我的文件」視圖
-
- 設定
- 應用程式設定視圖
- 資料湖泊已啟用
- 使用一個網路模型
- 伺服器模式已啟用
- 已安裝的模型
- 已安裝的模型視圖