AddCollectionView← Colecciones existentesAgregar colección de documentosAgregue una carpeta que contenga archivos de texto plano, PDFs o Markdown.
Configure extensiones adicionales en Configuración.Por favor, elija un directorioNombreNombre de la colección...Nombre de la colección a agregar (Requerido)CarpetaRuta de la carpeta...Ruta de la carpeta de documentos (Requerido)ExplorarCrear colecciónAddModelView← Modelos existentesExplorar modelosDescubre y descarga modelos mediante búsqueda por palabras clave...Campo de texto para descubrir y filtrar modelos descargablesIniciar descubrimiento y filtrado de modelosActiva el descubrimiento y filtrado de modelosPredeterminadoMe gustaDescargasRecienteAscDescNingunoBuscando · %1Ordenar por: %1Dirección de ordenamiento: %1Límite: %1Error de red: no se pudo recuperar %1Indicador de ocupadoSe muestra cuando la solicitud de modelos está en cursoArchivo del modeloArchivo del modelo a descargarDescripciónDescripción del archivoCancelarReanudarDescargarDetener/reiniciar/iniciar la descargaEliminarEliminar modelo del sistema de archivosInstalarInstalar modelo en línea<strong><font size="2">ADVERTENCIA: No recomendado
para su hardware. El modelo requiere más memoria (%1 GB) de la que su sistema tiene
disponible
(%2).</strong></font>%1 GB?Describe un error que ocurrió durante la descarga<strong><font size="1"><a
href="#error">Error</a></strong></font>Error por hardware incompatibleBarra de progreso de descargaMuestra el progreso realizado en la descargaVelocidad de descargaVelocidad de descarga en bytes/kilobytes/megabytes por segundoCalculando...Si se está calculando el hash del archivoSe muestra cuando se está calculando el hash del archivoingrese $API_KEYTamaño del archivoRAM requeridaParámetrosCuantificaciónTipoApplicationSettingsAplicaciónDiálogo de redoptar por compartir comentarios/conversacionesERROR: El sistema de actualización no pudo encontrar la herramienta de
mantenimiento utilizada<br>
para buscar actualizaciones<br><br>
¿Instaló esta aplicación utilizando el instalador en línea? Si es así,<br>
el ejecutable de la herramienta de mantenimiento debería estar ubicado un
directorio<br>
por encima de donde reside esta aplicación en su sistema de
archivos.<br><br>
Si no puede iniciarlo manualmente, me temo que tendrá que<br>
reinstalar.Diálogo de errorConfiguración de la aplicaciónGeneralTemaEl esquema de colores de la aplicación.OscuroClaroOscuro legadoTamaño de fuenteEl tamaño del texto en la aplicación.DispositivoEl dispositivo de cómputo utilizado para la generación de texto.
"Auto" utiliza Vulkan o Metal.Modelo predeterminadoEl modelo preferido para nuevos chats. También se utiliza como respaldo del
servidor local.Modo de sugerenciaGenerar preguntas de seguimiento sugeridas al final de las respuestas.Al chatear con LocalDocsSiempre que sea posibleNuncaRuta de descargaDónde almacenar los modelos locales y la base de datos de LocalDocs.ExplorarElegir dónde guardar los archivos del modeloHabilitar DatalakeEnviar chats y comentarios al Datalake de código abierto de GPT4All.AvanzadoHilos de CPUEl número de hilos de CPU utilizados para inferencia e incrustación.Guardar contexto del chatGuardar el estado del modelo de chat en el disco para una carga más rápida.
ADVERTENCIA: Usa ~2GB por chat.Habilitar servidor localExponer un servidor compatible con OpenAI a localhost. ADVERTENCIA: Resulta
en un mayor uso de recursos.Puerto del servidor APIEl puerto a utilizar para el servidor local. Requiere reinicio.Buscar actualizacionesBuscar manualmente una actualización para GPT4All.ActualizacionesChatNuevo chatChat del servidorChatDrawerCajónCajón de navegación principal+ Nuevo chatCrear un nuevo chatSeleccionar el chat actual o editar el chat cuando esté en modo de ediciónEditar nombre del chatGuardar nombre del chatEliminar chatConfirmar eliminación del chatCancelar eliminación del chatLista de chatsLista de chats en el diálogo del cajónChatListModelHOYESTA SEMANAESTE MESÚLTIMOS SEIS MESESESTE AÑOAÑO PASADOChatView<h3>Advertencia</h3><p>%1</p>Diálogo para cambiar de modeloAdvertir al usuario si cambia de modelo, entonces se borrará el contextoConversación copiada al portapapeles.Código copiado al portapapeles.Panel de chatPanel de chat con opcionesRecargar el modelo actualmente cargadoExpulsar el modelo actualmente cargadoNo hay modelo instalado.Error al cargar el modelo.Esperando al modelo...Cambiando contexto...Elige un modelo...No encontrado: %1El elemento superior es el modelo actualDocumentosLocalesAgregar documentosagregar colecciones de documentos al chatCargar el modelo predeterminadoCarga el modelo predeterminado que se puede cambiar en la configuraciónNo hay modelo instaladoGPT4All requiere que instales al menos un
modelo para comenzarInstalar un modeloMuestra la vista de agregar modeloConversación con el modelopares de pregunta / respuesta de la conversaciónGPT4AllTúrecalculando contexto ...respuesta detenida ...procesando ...generando respuesta ...generando preguntas ...CopiarCopiar mensajeDesactivar markdownActivar markdownMe gustaDa un me gusta a la respuestaNo me gustaAbre el diálogo de no me gusta%1 FuentesSeguimientos sugeridosBorrar y reiniciar sesión de chatCopiar sesión de chat al portapapelesRehacer última respuesta del chatDetener generaciónDetener la generación de la respuesta actualRecarga el modelo<h3>Se encontró un error al cargar el
modelo:</h3><br><i>"%1"</i><br><br>Los
fallos de carga de modelos pueden ocurrir por varias razones, pero las causas más
comunes incluyen un formato de archivo incorrecto, una descarga incompleta o
corrupta, un tipo de archivo equivocado, insuficiente RAM del sistema o un tipo de
modelo incompatible. Aquí hay algunas sugerencias para resolver el
problema:<br><ul><li>Asegúrese de que el archivo del modelo tenga
un formato y tipo compatible<li>Verifique que el archivo del modelo esté
completo en la carpeta de descargas<li>Puede encontrar la carpeta de descargas
en el diálogo de configuración<li>Si ha cargado el modelo manualmente,
asegúrese de que el archivo no esté corrupto verificando el md5sum<li>Lea más
sobre qué modelos son compatibles en nuestra <a
href="https://docs.gpt4all.io/">documentación</a> para la
interfaz gráfica<li>Consulte nuestro <a
href="https://discord.gg/4M2QFmTt2k">canal de Discord</a> para
obtener ayudaRecargar · %1Cargando · %1Cargar · %1 (predeterminado) →recuperando documentos locales: %1 ...buscando en documentos locales: %1 ...Enviar un mensaje...Carga un modelo para continuar...Enviar mensajes/indicaciones al modeloCortarPegarSeleccionar todoEnviar mensajeEnvía el mensaje/indicación contenido en el campo de texto al modeloCollectionsDrawerAdvertencia: buscar en colecciones mientras se indexan puede devolver
resultados incompletos%n archivo%n archivos%n palabra%n palabrasActualizando+ Agregar documentosSeleccione una colección para hacerla disponible al modelo de chat.HomeViewBienvenido a GPT4AllLa aplicación de chat LLM que prioriza la privacidadComenzar a chatearIniciar chatChatear con cualquier LLMDocumentosLocalesChatear con tus archivos localesBuscar modelosExplorar y descargar modelosÚltimas noticiasÚltimas noticias de GPT4AllNotas de la versiónDocumentaciónDiscordX (Twitter)GithubGPT4All.ioSuscribirse al boletínLocalDocsSettingsDocumentosLocalesConfiguración de DocumentosLocalesIndexaciónExtensiones de archivo permitidasLista separada por comas. DocumentosLocales solo intentará procesar
archivos con estas extensiones.IncrustaciónUsar API de incrustación NomicIncrustar documentos usando la rápida API de Nomic en lugar de un modelo
local privado. Requiere reinicio.Clave API de NomicClave API para usar con Nomic Embed. Obtén una en la <a
href="https://atlas.nomic.ai/cli-login">página de claves API</a>
de Atlas. Requiere reinicio.Dispositivo de incrustacionesEl dispositivo de cómputo utilizado para las incrustaciones.
"Auto" usa la CPU. Requiere reinicio.VisualizaciónMostrar fuentesMostrar las fuentes utilizadas para cada respuesta.AvanzadoAdvertencia: Solo para uso avanzado.
Valores demasiado grandes pueden causar fallos en documentos locales,
respuestas extremadamente lentas o falta de respuesta. En términos generales, los {N
caracteres x N fragmentos} se agregan a la ventana de contexto del modelo. Más
información <a
href="https://docs.gpt4all.io/gpt4all_desktop/localdocs.html">aquí</a>.Tamaño del fragmento de documento (caracteres)Número de caracteres por fragmento de documento. Números más grandes
aumentan la probabilidad de respuestas fácticas, pero también resultan en una
generación más lenta.Máximo de fragmentos de documento por indicaciónMáximo de los mejores N coincidencias de fragmentos de documento
recuperados para agregar al contexto de la indicación. Números más grandes aumentan
la probabilidad de respuestas fácticas, pero también resultan en una generación más
lenta.LocalDocsViewDocumentosLocalesChatea con tus archivos locales+ Agregar colecciónERROR: La base de datos de DocumentosLocales no es válida.No hay colecciones instaladasInstala una colección de documentos locales para comenzar a usar esta
función+ Agregar colección de documentosMuestra la vista de agregar modeloBarra de progreso de indexaciónMuestra el progreso realizado en la indexaciónERRORINDEXANDOINCRUSTANDOREQUIERE ACTUALIZACIÓNLISTOINSTALANDOIndexación en progresoIncrustación en progresoEsta colección requiere una actualización después del cambio de versiónReindexación automática al cambiar la carpetaInstalación en progreso%%n archivo%n archivos%n palabra%n palabrasEliminarReconstruirReindexar esta carpeta desde cero. Esto es lento y generalmente no es
necesario.ActualizarActualizar la colección a la nueva versión. Esta es una operación lenta.ModelList
<ul><li>Requiere clave API personal de
OpenAI.</li><li>ADVERTENCIA: ¡Enviará sus chats a
OpenAI!</li><li>Su clave API se almacenará en el
disco</li><li>Solo se usará para comunicarse con
OpenAI</li><li>Puede solicitar una clave API <a
href="https://platform.openai.com/account/api-keys">aquí.</a></li><strong>Modelo ChatGPT GPT-3.5 Turbo de
OpenAI</strong><br> %1<strong>Modelo ChatGPT GPT-4 de OpenAI</strong><br> %1 %2<strong>Modelo Mistral Tiny</strong><br> %1<strong>Modelo Mistral Small</strong><br> %1<strong>Modelo Mistral Medium</strong><br> %1<br><br><i>* Aunque pague a OpenAI por ChatGPT-4, esto no
garantiza el acceso a la clave API. Contacte a OpenAI para más información.
<ul><li>Requiere clave API personal de
Mistral.</li><li>ADVERTENCIA: ¡Enviará sus chats a
Mistral!</li><li>Su clave API se almacenará en el
disco</li><li>Solo se usará para comunicarse con
Mistral</li><li>Puede solicitar una clave API <a
href="https://console.mistral.ai/user/api-keys">aquí</a>.</li><strong>Creado por
%1.</strong><br><ul><li>Publicado el %2.<li>Este
modelo tiene %3 me gusta.<li>Este modelo tiene %4 descargas.<li>Puede
encontrar más información <a
href="https://huggingface.co/%5">aquí.</a></ul>ModelSettingsModeloConfiguración del modeloClonarEliminarNombreArchivo del modeloIndicación del sistemaPrefijado al inicio de cada conversación. Debe contener los tokens de
encuadre apropiados.Plantilla de indicaciónLa plantilla que envuelve cada indicación.Debe contener la cadena "%1" para ser reemplazada con la entrada
del usuario.Indicación para el nombre del chatIndicación utilizada para generar automáticamente nombres de chat.Indicación de seguimiento sugeridaIndicación utilizada para generar preguntas de seguimiento sugeridas.Longitud del contextoNúmero de tokens de entrada y salida que el modelo ve.Máximo de tokens combinados de indicación/respuesta antes de que se pierda
información.
Usar más contexto del que se utilizó para entrenar el modelo producirá resultados
pobres.
NOTA: No tiene efecto hasta que recargues el modelo.TemperaturaAleatoriedad de la salida del modelo. Mayor -> más variación.La temperatura aumenta las probabilidades de elegir tokens menos probables.
NOTA: Una temperatura más alta da resultados más creativos pero menos predecibles.Top-PFactor de muestreo de núcleo. Menor -> más predecible.Solo se pueden elegir los tokens más probables hasta una probabilidad total
de top_p.
NOTA: Evita elegir tokens altamente improbables.Min-PProbabilidad mínima del token. Mayor -> más predecible.Establece la probabilidad relativa mínima para que un token sea
considerado.Top-KTamaño del grupo de selección para tokens.Solo se elegirán los K tokens más probables.Longitud máximaLongitud máxima de respuesta, en tokens.Tamaño del lote de indicacionesEl tamaño del lote utilizado para el procesamiento de indicaciones.Cantidad de tokens de indicación para procesar a la vez.
NOTA: Valores más altos pueden acelerar la lectura de indicaciones pero usarán más
RAM.Penalización por repeticiónFactor de penalización por repetición. Establecer a 1 para desactivar.Tokens de penalización por repeticiónNúmero de tokens anteriores utilizados para la penalización.Capas de GPUNúmero de capas del modelo a cargar en la VRAM.Cuántas capas del modelo cargar en la VRAM. Disminuye esto si GPT4All se
queda sin VRAM al cargar este modelo.
Valores más bajos aumentan la carga de CPU y el uso de RAM, y hacen la inferencia
más lenta.
NOTA: No tiene efecto hasta que recargues el modelo.ModelsViewNo hay modelos instaladosInstala un modelo para empezar a usar GPT4All+ Agregar modeloMuestra la vista de agregar modeloModelos instaladosModelos de chat instalados localmenteArchivo del modeloArchivo del modelo a descargarDescripciónDescripción del archivoCancelarReanudarDetener/reiniciar/iniciar la descargaEliminarEliminar modelo del sistema de archivosInstalarInstalar modelo en línea<strong><font size="1"><a
href="#error">Error</a></strong></font><strong><font size="2">ADVERTENCIA: No recomendado
para su hardware. El modelo requiere más memoria (%1 GB) de la que su sistema tiene
disponible (%2).</strong></font>%1 GB?Describe un error que ocurrió durante la descargaError por hardware incompatibleBarra de progreso de descargaMuestra el progreso realizado en la descargaVelocidad de descargaVelocidad de descarga en bytes/kilobytes/megabytes por segundoCalculando...Si se está calculando el hash del archivoIndicador de ocupadoSe muestra cuando se está calculando el hash del archivoingrese $API_KEYTamaño del archivoRAM requeridaParámetrosCuantificaciónTipoMyFancyLinkEnlace eleganteUn enlace estilizadoMySettingsStackPor favor, elija un directorioMySettingsTabRestaurar valores predeterminadosRestaura el diálogo de configuración a su estado predeterminadoNetworkDialogContribuir datos al Datalake de código abierto de GPT4All.Al habilitar esta función, podrá participar en el proceso democrático de
entrenamiento de un modelo de lenguaje grande contribuyendo con datos para futuras
mejoras del modelo.
Cuando un modelo GPT4All le responda y usted haya aceptado, su conversación se
enviará al Datalake de código abierto de GPT4All. Además, puede dar me gusta/no me
gusta a su respuesta. Si no le gusta una respuesta, puede sugerir una alternativa.
Estos datos se recopilarán y agregarán en el Datalake de GPT4All.
NOTA: Al activar esta función, enviará sus datos al Datalake de código abierto de
GPT4All. No debe esperar privacidad en el chat cuando esta función esté habilitada.
Sin embargo, puede esperar una atribución opcional si lo desea. Sus datos de chat
estarán disponibles abiertamente para que cualquiera los descargue y serán
utilizados por Nomic AI para mejorar futuros modelos de GPT4All. Nomic AI conservará
toda la información de atribución adjunta a sus datos y se le acreditará como
contribuyente en cualquier lanzamiento de modelo GPT4All que utilice sus datos.Términos para optar por participarDescribe lo que sucederá cuando opte por participarPor favor, proporcione un nombre para la atribución (opcional)Atribución (opcional)Proporcionar atribuciónHabilitarHabilitar participaciónCancelarCancelar participaciónNewVersionDialogNueva versión disponibleActualizarActualizar a nueva versiónPopupDialogMuestra un globo de ayuda de corta duraciónIndicador de ocupadoSe muestra cuando la ventana emergente está ocupadaQObjectPredeterminadoSettingsViewConfiguraciónContiene varias configuraciones de la aplicaciónAplicaciónModeloDocumentosLocalesStartupDialog¡Bienvenido!### Notas de la versión
%1### Contribuidores
%2Notas de la versiónNotas de la versión para esta versión### Aceptación para análisis de uso anónimo y datalake
Al habilitar estas funciones, podrá participar en el proceso democrático de entrenar
un
modelo de lenguaje grande contribuyendo con datos para futuras mejoras del modelo.
Cuando un modelo GPT4All le responda y usted haya aceptado, su conversación se
enviará al
Datalake de código abierto de GPT4All. Además, puede dar me gusta/no me gusta a su
respuesta. Si no le gusta una respuesta,
puede sugerir una alternativa. Estos datos se recopilarán y agregarán en el Datalake
de GPT4All.
NOTA: Al activar esta función, enviará sus datos al Datalake de código abierto de
GPT4All.
No debe esperar privacidad en el chat cuando esta función esté habilitada. Sin
embargo, puede
esperar una atribución opcional si lo desea. Sus datos de chat estarán disponibles
abiertamente para que cualquiera
los descargue y serán utilizados por Nomic AI para mejorar futuros modelos de
GPT4All. Nomic AI conservará toda la
información de atribución adjunta a sus datos y se le acreditará como contribuyente
en cualquier lanzamiento de modelo GPT4All
que utilice sus datos.Términos para aceptarDescribe lo que sucederá cuando acepteAceptar estadísticas de uso anónimasSíPermitir aceptación de estadísticas de uso anónimasNoRechazar estadísticas de uso anónimasPermitir rechazo de estadísticas de uso anónimasAceptar para la redPermitir aceptación para la redPermitir compartir anónimamente los chats con el Datalake de GPT4AllRechazar para la redPermitir rechazar el compartir anónimo de chats con el Datalake de GPT4AllSwitchModelDialog<b>Advertencia:</b> cambiar el modelo borrará la conversación
actual. ¿Desea continuar?ContinuarContinuar con la carga del modeloCancelarThumbsDownDialogPor favor, edite el texto a continuación para proporcionar una mejor
respuesta. (opcional)Por favor, proporcione una mejor respuesta...EnviarEnvía la respuesta del usuarioCancelarCierra el diálogo de respuestamain
<h3>Se encontró un error al
iniciar:</h3><br><i>"Hardware incompatible
detectado."</i><br><br>Desafortunadamente, su CPU no cumple
con los requisitos mínimos para ejecutar este programa. En particular, no soporta
las instrucciones AVX que este programa requiere para ejecutar con éxito un modelo
de lenguaje grande moderno. La única solución en este momento es actualizar su
hardware a una CPU más moderna.<br><br>Vea aquí para más información:
<a
href="https://en.wikipedia.org/wiki/Advanced_Vector_Extensions">https://en.wikipedia.org/wiki/Advanced_Vector_Extensions</a>GPT4All v%1<h3>Se encontró un error al
iniciar:</h3><br><i>"No se puede acceder al archivo de
configuración."</i><br><br>Desafortunadamente, algo está
impidiendo que el programa acceda al archivo de configuración. Esto podría ser
causado por permisos incorrectos en el directorio de configuración local de la
aplicación donde se encuentra el archivo de configuración. Consulte nuestro <a
href="https://discord.gg/4M2QFmTt2k">canal de Discord</a> para
obtener ayuda.La conexión al datalake falló.Guardando chats.Diálogo de redoptar por compartir comentarios/conversacionesVista de inicioVista de inicio de la aplicaciónInicioVista de chatVista de chat para interactuar con modelosChatsModelosVista de modelos para modelos instaladosDocumentosLocalesVista de DocumentosLocales para configurar y usar documentos localesConfiguraciónVista de configuración para la configuración de la aplicaciónEl datalake está habilitadoUsando un modelo de redEl modo servidor está habilitadoModelos instaladosVista de modelos instalados