AddCollectionView ← Existing Collections ← Colecciones existentes Add Document Collection Agregar colección de documentos Add a folder containing plain text files, PDFs, or Markdown. Configure additional extensions in Settings. Agregue una carpeta que contenga archivos de texto plano, PDFs o Markdown. Configure extensiones adicionales en Configuración. Add a folder containing plain text files, PDFs, or Markdown. Configure additional extensions in Settings. Please choose a directory Por favor, elija un directorio Name Nombre Collection name... Nombre de la colección... Name of the collection to add (Required) Nombre de la colección a agregar (Requerido) Folder Carpeta Folder path... Ruta de la carpeta... Folder path to documents (Required) Ruta de la carpeta de documentos (Requerido) Browse Explorar Create Collection Crear colección AddModelView ← Existing Models ← Modelos existentes Explore Models Explorar modelos Discover and download models by keyword search... Descubre y descarga modelos mediante búsqueda por palabras clave... Text field for discovering and filtering downloadable models Campo de texto para descubrir y filtrar modelos descargables Initiate model discovery and filtering Iniciar descubrimiento y filtrado de modelos Triggers discovery and filtering of models Activa el descubrimiento y filtrado de modelos Default Predeterminado Likes Me gusta Downloads Descargas Recent Reciente Asc Asc Desc Desc None Ninguno Searching · %1 Buscando · %1 Sort by: %1 Ordenar por: %1 Sort dir: %1 Dirección de ordenamiento: %1 Limit: %1 Límite: %1 Network error: could not retrieve %1 Error de red: no se pudo recuperar %1 Busy indicator Indicador de ocupado Displayed when the models request is ongoing Se muestra cuando la solicitud de modelos está en curso Model file Archivo del modelo Model file to be downloaded Archivo del modelo a descargar Description Descripción File description Descripción del archivo Cancel Cancelar Resume Reanudar Download Descargar Stop/restart/start the download Detener/reiniciar/iniciar la descarga Remove Eliminar Remove model from filesystem Eliminar modelo del sistema de archivos Install Instalar Install online model Instalar modelo en línea <strong><font size="1"><a href="#error">Error</a></strong></font> <strong><font size="2">WARNING: Not recommended for your hardware. Model requires more memory (%1 GB) than your system has available (%2).</strong></font> <strong><font size="2">WARNING: Not recommended for your hardware. Model requires more memory (%1 GB) than your system has available (%2).</strong></font> <strong><font size="2">ADVERTENCIA: No recomendado para su hardware. El modelo requiere más memoria (%1 GB) de la que su sistema tiene disponible (%2).</strong></font> %1 GB %1 GB ? ? Describes an error that occurred when downloading Describe un error que ocurrió durante la descarga <strong><font size="1"><a href="#error">Error</a></strong></font> <strong><font size="1"><a href="#error">Error</a></strong></font> Error for incompatible hardware Error por hardware incompatible Download progressBar Barra de progreso de descarga Shows the progress made in the download Muestra el progreso realizado en la descarga Download speed Velocidad de descarga Download speed in bytes/kilobytes/megabytes per second Velocidad de descarga en bytes/kilobytes/megabytes por segundo Calculating... Calculando... Whether the file hash is being calculated Si se está calculando el hash del archivo Displayed when the file hash is being calculated Se muestra cuando se está calculando el hash del archivo enter $API_KEY ingrese $API_KEY File size Tamaño del archivo RAM required RAM requerida Parameters Parámetros Quant Cuantificación Type Tipo ApplicationSettings Application Aplicación Network dialog Diálogo de red opt-in to share feedback/conversations optar por compartir comentarios/conversaciones ERROR: Update system could not find the MaintenanceTool used<br> to check for updates!<br><br> Did you install this application using the online installer? If so,<br> the MaintenanceTool executable should be located one directory<br> above where this application resides on your filesystem.<br><br> If you can't start it manually, then I'm afraid you'll have to<br> reinstall. ERROR: El sistema de actualización no pudo encontrar la herramienta de mantenimiento utilizada<br> para buscar actualizaciones<br><br> ¿Instaló esta aplicación utilizando el instalador en línea? Si es así,<br> el ejecutable de la herramienta de mantenimiento debería estar ubicado un directorio<br> por encima de donde reside esta aplicación en su sistema de archivos.<br><br> Si no puede iniciarlo manualmente, me temo que tendrá que<br> reinstalar. Error dialog Diálogo de error Application Settings Configuración de la aplicación General General Theme Tema The application color scheme. El esquema de colores de la aplicación. Dark Oscuro Light Claro LegacyDark Oscuro legado Font Size Tamaño de fuente The size of text in the application. El tamaño del texto en la aplicación. Device Dispositivo The compute device used for text generation. "Auto" uses Vulkan or Metal. El dispositivo de cómputo utilizado para la generación de texto. "Auto" utiliza Vulkan o Metal. ERROR: Update system could not find the MaintenanceTool used<br> to check for updates!<br><br> Did you install this application using the online installer? If so,<br> the MaintenanceTool executable should be located one directory<br> above where this application resides on your filesystem.<br><br> If you can't start it manually, then I'm afraid you'll have to<br> reinstall. Small Medium Large Language and Locale The language and locale you wish to use. The compute device used for text generation. "Auto" uses Vulkan or Metal. Default Model Modelo predeterminado The preferred model for new chats. Also used as the local server fallback. El modelo preferido para nuevos chats. También se utiliza como respaldo del servidor local. Suggestion Mode Modo de sugerencia Generate suggested follow-up questions at the end of responses. Generar preguntas de seguimiento sugeridas al final de las respuestas. When chatting with LocalDocs Al chatear con LocalDocs Whenever possible Siempre que sea posible Never Nunca Download Path Ruta de descarga Where to store local models and the LocalDocs database. Dónde almacenar los modelos locales y la base de datos de LocalDocs. Browse Explorar Choose where to save model files Elegir dónde guardar los archivos del modelo Enable Datalake Habilitar Datalake Send chats and feedback to the GPT4All Open-Source Datalake. Enviar chats y comentarios al Datalake de código abierto de GPT4All. Advanced Avanzado CPU Threads Hilos de CPU The number of CPU threads used for inference and embedding. El número de hilos de CPU utilizados para inferencia e incrustación. Save Chat Context Guardar contexto del chat Save the chat model's state to disk for faster loading. WARNING: Uses ~2GB per chat. Expose an OpenAI-Compatible server to localhost. WARNING: Results in increased resource usage. Save the chat model's state to disk for faster loading. WARNING: Uses ~2GB per chat. Guardar el estado del modelo de chat en el disco para una carga más rápida. ADVERTENCIA: Usa ~2GB por chat. Enable Local Server Habilitar servidor local Expose an OpenAI-Compatible server to localhost. WARNING: Results in increased resource usage. Exponer un servidor compatible con OpenAI a localhost. ADVERTENCIA: Resulta en un mayor uso de recursos. API Server Port Puerto del servidor API The port to use for the local server. Requires restart. El puerto a utilizar para el servidor local. Requiere reinicio. Check For Updates Buscar actualizaciones Manually check for an update to GPT4All. Buscar manualmente una actualización para GPT4All. Updates Actualizaciones Chat New Chat Nuevo chat Server Chat Chat del servidor ChatDrawer Drawer Cajón Main navigation drawer Cajón de navegación principal + New Chat + Nuevo chat Create a new chat Crear un nuevo chat Select the current chat or edit the chat when in edit mode Seleccionar el chat actual o editar el chat cuando esté en modo de edición Edit chat name Editar nombre del chat Save chat name Guardar nombre del chat Delete chat Eliminar chat Confirm chat deletion Confirmar eliminación del chat Cancel chat deletion Cancelar eliminación del chat List of chats Lista de chats List of chats in the drawer dialog Lista de chats en el diálogo del cajón ChatListModel TODAY HOY THIS WEEK ESTA SEMANA THIS MONTH ESTE MES LAST SIX MONTHS ÚLTIMOS SEIS MESES THIS YEAR ESTE AÑO LAST YEAR AÑO PASADO ChatView <h3>Warning</h3><p>%1</p> <h3>Advertencia</h3><p>%1</p> Switch model dialog Diálogo para cambiar de modelo Warn the user if they switch models, then context will be erased Advertir al usuario si cambia de modelo, entonces se borrará el contexto Conversation copied to clipboard. Conversación copiada al portapapeles. Code copied to clipboard. Código copiado al portapapeles. Chat panel Panel de chat Chat panel with options Panel de chat con opciones Reload the currently loaded model Recargar el modelo actualmente cargado Eject the currently loaded model Expulsar el modelo actualmente cargado No model installed. No hay modelo instalado. Model loading error. Error al cargar el modelo. Waiting for model... Esperando al modelo... Switching context... Cambiando contexto... Choose a model... Elige un modelo... Not found: %1 No encontrado: %1 The top item is the current model El elemento superior es el modelo actual LocalDocs DocumentosLocales Add documents Agregar documentos add collections of documents to the chat agregar colecciones de documentos al chat Load the default model Cargar el modelo predeterminado Loads the default model which can be changed in settings Carga el modelo predeterminado que se puede cambiar en la configuración No Model Installed No hay modelo instalado GPT4All requires that you install at least one model to get started GPT4All requiere que instales al menos un modelo para comenzar <h3>Encountered an error loading model:</h3><br><i>"%1"</i><br><br>Model loading failures can happen for a variety of reasons, but the most common causes include a bad file format, an incomplete or corrupted download, the wrong file type, not enough system RAM or an incompatible model type. Here are some suggestions for resolving the problem:<br><ul><li>Ensure the model file has a compatible format and type<li>Check the model file is complete in the download folder<li>You can find the download folder in the settings dialog<li>If you've sideloaded the model ensure the file is not corrupt by checking md5sum<li>Read more about what models are supported in our <a href="https://docs.gpt4all.io/">documentation</a> for the gui<li>Check out our <a href="https://discord.gg/4M2QFmTt2k">discord channel</a> for help GPT4All requires that you install at least one model to get started Install a Model Instalar un modelo Shows the add model view Muestra la vista de agregar modelo Conversation with the model Conversación con el modelo prompt / response pairs from the conversation pares de pregunta / respuesta de la conversación GPT4All GPT4All You recalculating context ... recalculando contexto ... response stopped ... respuesta detenida ... processing ... procesando ... generating response ... generando respuesta ... generating questions ... generando preguntas ... Copy Copiar Copy Message Copiar mensaje Disable markdown Desactivar markdown Enable markdown Activar markdown Thumbs up Me gusta Gives a thumbs up to the response Da un me gusta a la respuesta Thumbs down No me gusta Opens thumbs down dialog Abre el diálogo de no me gusta %1 Sources %1 Fuentes Suggested follow-ups Seguimientos sugeridos Erase and reset chat session Borrar y reiniciar sesión de chat Copy chat session to clipboard Copiar sesión de chat al portapapeles Redo last chat response Rehacer última respuesta del chat Stop generating Detener generación Stop the current response generation Detener la generación de la respuesta actual Reloads the model Recarga el modelo <h3>Encountered an error loading model:</h3><br><i>"%1"</i><br><br>Model loading failures can happen for a variety of reasons, but the most common causes include a bad file format, an incomplete or corrupted download, the wrong file type, not enough system RAM or an incompatible model type. Here are some suggestions for resolving the problem:<br><ul><li>Ensure the model file has a compatible format and type<li>Check the model file is complete in the download folder<li>You can find the download folder in the settings dialog<li>If you've sideloaded the model ensure the file is not corrupt by checking md5sum<li>Read more about what models are supported in our <a href="https://docs.gpt4all.io/">documentation</a> for the gui<li>Check out our <a href="https://discord.gg/4M2QFmTt2k">discord channel</a> for help <h3>Se encontró un error al cargar el modelo:</h3><br><i>"%1"</i><br><br>Los fallos de carga de modelos pueden ocurrir por varias razones, pero las causas más comunes incluyen un formato de archivo incorrecto, una descarga incompleta o corrupta, un tipo de archivo equivocado, insuficiente RAM del sistema o un tipo de modelo incompatible. Aquí hay algunas sugerencias para resolver el problema:<br><ul><li>Asegúrese de que el archivo del modelo tenga un formato y tipo compatible<li>Verifique que el archivo del modelo esté completo en la carpeta de descargas<li>Puede encontrar la carpeta de descargas en el diálogo de configuración<li>Si ha cargado el modelo manualmente, asegúrese de que el archivo no esté corrupto verificando el md5sum<li>Lea más sobre qué modelos son compatibles en nuestra <a href="https://docs.gpt4all.io/">documentación</a> para la interfaz gráfica<li>Consulte nuestro <a href="https://discord.gg/4M2QFmTt2k">canal de Discord</a> para obtener ayuda Reload · %1 Recargar · %1 Loading · %1 Cargando · %1 Load · %1 (default) → Cargar · %1 (predeterminado) → retrieving localdocs: %1 ... recuperando documentos locales: %1 ... searching localdocs: %1 ... buscando en documentos locales: %1 ... Send a message... Enviar un mensaje... Load a model to continue... Carga un modelo para continuar... Send messages/prompts to the model Enviar mensajes/indicaciones al modelo Cut Cortar Paste Pegar Select All Seleccionar todo Send message Enviar mensaje Sends the message/prompt contained in textfield to the model Envía el mensaje/indicación contenido en el campo de texto al modelo CollectionsDrawer Warning: searching collections while indexing can return incomplete results Advertencia: buscar en colecciones mientras se indexan puede devolver resultados incompletos %n file(s) %n archivo %n archivos %n word(s) %n palabra %n palabras Updating Actualizando + Add Docs + Agregar documentos Select a collection to make it available to the chat model. Seleccione una colección para hacerla disponible al modelo de chat. HomeView Welcome to GPT4All Bienvenido a GPT4All The privacy-first LLM chat application La aplicación de chat LLM que prioriza la privacidad Start chatting Comenzar a chatear Start Chatting Iniciar chat Chat with any LLM Chatear con cualquier LLM LocalDocs DocumentosLocales Chat with your local files Chatear con tus archivos locales Find Models Buscar modelos Explore and download models Explorar y descargar modelos Latest news Últimas noticias Latest news from GPT4All Últimas noticias de GPT4All Release Notes Notas de la versión Documentation Documentación Discord Discord X (Twitter) X (Twitter) Github Github GPT4All.io GPT4All.io Subscribe to Newsletter Suscribirse al boletín LocalDocsSettings LocalDocs DocumentosLocales LocalDocs Settings Configuración de DocumentosLocales Indexing Indexación Allowed File Extensions Extensiones de archivo permitidas Comma-separated list. LocalDocs will only attempt to process files with these extensions. Lista separada por comas. DocumentosLocales solo intentará procesar archivos con estas extensiones. Embedding Incrustación Use Nomic Embed API Usar API de incrustación Nomic Embed documents using the fast Nomic API instead of a private local model. Requires restart. Incrustar documentos usando la rápida API de Nomic en lugar de un modelo local privado. Requiere reinicio. Nomic API Key Clave API de Nomic API key to use for Nomic Embed. Get one from the Atlas <a href="https://atlas.nomic.ai/cli-login">API keys page</a>. Requires restart. Clave API para usar con Nomic Embed. Obtén una en la <a href="https://atlas.nomic.ai/cli-login">página de claves API</a> de Atlas. Requiere reinicio. Embeddings Device Dispositivo de incrustaciones The compute device used for embeddings. "Auto" uses the CPU. Requires restart. El dispositivo de cómputo utilizado para las incrustaciones. "Auto" usa la CPU. Requiere reinicio. Comma-separated list. LocalDocs will only attempt to process files with these extensions. Embed documents using the fast Nomic API instead of a private local model. Requires restart. API key to use for Nomic Embed. Get one from the Atlas <a href="https://atlas.nomic.ai/cli-login">API keys page</a>. Requires restart. The compute device used for embeddings. "Auto" uses the CPU. Requires restart. Display Visualización Show Sources Mostrar fuentes Display the sources used for each response. Mostrar las fuentes utilizadas para cada respuesta. Advanced Avanzado Warning: Advanced usage only. Advertencia: Solo para uso avanzado. Values too large may cause localdocs failure, extremely slow responses or failure to respond at all. Roughly speaking, the {N chars x N snippets} are added to the model's context window. More info <a href="https://docs.gpt4all.io/gpt4all_desktop/localdocs.html">here</a>. Number of characters per document snippet. Larger numbers increase likelihood of factual responses, but also result in slower generation. Max best N matches of retrieved document snippets to add to the context for prompt. Larger numbers increase likelihood of factual responses, but also result in slower generation. Values too large may cause localdocs failure, extremely slow responses or failure to respond at all. Roughly speaking, the {N chars x N snippets} are added to the model's context window. More info <a href="https://docs.gpt4all.io/gpt4all_desktop/localdocs.html">here</a>. Valores demasiado grandes pueden causar fallos en documentos locales, respuestas extremadamente lentas o falta de respuesta. En términos generales, los {N caracteres x N fragmentos} se agregan a la ventana de contexto del modelo. Más información <a href="https://docs.gpt4all.io/gpt4all_desktop/localdocs.html">aquí</a>. Document snippet size (characters) Tamaño del fragmento de documento (caracteres) Number of characters per document snippet. Larger numbers increase likelihood of factual responses, but also result in slower generation. Número de caracteres por fragmento de documento. Números más grandes aumentan la probabilidad de respuestas fácticas, pero también resultan en una generación más lenta. Max document snippets per prompt Máximo de fragmentos de documento por indicación Max best N matches of retrieved document snippets to add to the context for prompt. Larger numbers increase likelihood of factual responses, but also result in slower generation. Máximo de los mejores N coincidencias de fragmentos de documento recuperados para agregar al contexto de la indicación. Números más grandes aumentan la probabilidad de respuestas fácticas, pero también resultan en una generación más lenta. LocalDocsView LocalDocs DocumentosLocales Chat with your local files Chatea con tus archivos locales + Add Collection + Agregar colección ERROR: The LocalDocs database is not valid. ERROR: La base de datos de DocumentosLocales no es válida. No Collections Installed No hay colecciones instaladas Install a collection of local documents to get started using this feature Instala una colección de documentos locales para comenzar a usar esta función + Add Doc Collection + Agregar colección de documentos Shows the add model view Muestra la vista de agregar modelo Indexing progressBar Barra de progreso de indexación Shows the progress made in the indexing Muestra el progreso realizado en la indexación ERROR ERROR INDEXING INDEXANDO EMBEDDING INCRUSTANDO REQUIRES UPDATE REQUIERE ACTUALIZACIÓN READY LISTO INSTALLING INSTALANDO Indexing in progress Indexación en progreso Embedding in progress Incrustación en progreso This collection requires an update after version change Esta colección requiere una actualización después del cambio de versión Automatically reindexes upon changes to the folder Reindexación automática al cambiar la carpeta Installation in progress Instalación en progreso % % %n file(s) %n archivo %n archivos %n word(s) %n palabra %n palabras Remove Eliminar Rebuild Reconstruir Reindex this folder from scratch. This is slow and usually not needed. Reindexar esta carpeta desde cero. Esto es lento y generalmente no es necesario. Update Actualizar Update the collection to the new version. This is a slow operation. Actualizar la colección a la nueva versión. Esta es una operación lenta. ModelList <ul><li>Requires personal OpenAI API key.</li><li>WARNING: Will send your chats to OpenAI!</li><li>Your API key will be stored on disk</li><li>Will only be used to communicate with OpenAI</li><li>You can apply for an API key <a href="https://platform.openai.com/account/api-keys">here.</a></li> <ul><li>Requiere clave API personal de OpenAI.</li><li>ADVERTENCIA: ¡Enviará sus chats a OpenAI!</li><li>Su clave API se almacenará en el disco</li><li>Solo se usará para comunicarse con OpenAI</li><li>Puede solicitar una clave API <a href="https://platform.openai.com/account/api-keys">aquí.</a></li> <strong>OpenAI's ChatGPT model GPT-3.5 Turbo</strong><br> %1 <strong>Modelo ChatGPT GPT-3.5 Turbo de OpenAI</strong><br> %1 <ul><li>Requires personal OpenAI API key.</li><li>WARNING: Will send your chats to OpenAI!</li><li>Your API key will be stored on disk</li><li>Will only be used to communicate with OpenAI</li><li>You can apply for an API key <a href="https://platform.openai.com/account/api-keys">here.</a></li> <strong>OpenAI's ChatGPT model GPT-3.5 Turbo</strong><br> %1 <br><br><i>* Even if you pay OpenAI for ChatGPT-4 this does not guarantee API key access. Contact OpenAI for more info. <strong>OpenAI's ChatGPT model GPT-4</strong><br> %1 %2 <strong>Modelo ChatGPT GPT-4 de OpenAI</strong><br> %1 %2 <ul><li>Requires personal Mistral API key.</li><li>WARNING: Will send your chats to Mistral!</li><li>Your API key will be stored on disk</li><li>Will only be used to communicate with Mistral</li><li>You can apply for an API key <a href="https://console.mistral.ai/user/api-keys">here</a>.</li> <strong>Mistral Tiny model</strong><br> %1 <strong>Modelo Mistral Tiny</strong><br> %1 <strong>Mistral Small model</strong><br> %1 <strong>Modelo Mistral Small</strong><br> %1 <strong>Mistral Medium model</strong><br> %1 <strong>Modelo Mistral Medium</strong><br> %1 <strong>Created by %1.</strong><br><ul><li>Published on %2.<li>This model has %3 likes.<li>This model has %4 downloads.<li>More info can be found <a href="https://huggingface.co/%5">here.</a></ul> <br><br><i>* Even if you pay OpenAI for ChatGPT-4 this does not guarantee API key access. Contact OpenAI for more info. <br><br><i>* Aunque pague a OpenAI por ChatGPT-4, esto no garantiza el acceso a la clave API. Contacte a OpenAI para más información. <ul><li>Requires personal Mistral API key.</li><li>WARNING: Will send your chats to Mistral!</li><li>Your API key will be stored on disk</li><li>Will only be used to communicate with Mistral</li><li>You can apply for an API key <a href="https://console.mistral.ai/user/api-keys">here</a>.</li> <ul><li>Requiere clave API personal de Mistral.</li><li>ADVERTENCIA: ¡Enviará sus chats a Mistral!</li><li>Su clave API se almacenará en el disco</li><li>Solo se usará para comunicarse con Mistral</li><li>Puede solicitar una clave API <a href="https://console.mistral.ai/user/api-keys">aquí</a>.</li> <strong>Created by %1.</strong><br><ul><li>Published on %2.<li>This model has %3 likes.<li>This model has %4 downloads.<li>More info can be found <a href="https://huggingface.co/%5">here.</a></ul> <strong>Creado por %1.</strong><br><ul><li>Publicado el %2.<li>Este modelo tiene %3 me gusta.<li>Este modelo tiene %4 descargas.<li>Puede encontrar más información <a href="https://huggingface.co/%5">aquí.</a></ul> ModelSettings Model Modelo Model Settings Configuración del modelo Clone Clonar Remove Eliminar Name Nombre Model File Archivo del modelo System Prompt Indicación del sistema Prefixed at the beginning of every conversation. Must contain the appropriate framing tokens. Prefijado al inicio de cada conversación. Debe contener los tokens de encuadre apropiados. Prompt Template Plantilla de indicación The template that wraps every prompt. La plantilla que envuelve cada indicación. Must contain the string "%1" to be replaced with the user's input. Debe contener la cadena "%1" para ser reemplazada con la entrada del usuario. Chat Name Prompt Indicación para el nombre del chat Prompt used to automatically generate chat names. Indicación utilizada para generar automáticamente nombres de chat. Suggested FollowUp Prompt Indicación de seguimiento sugerida Prompt used to generate suggested follow-up questions. Indicación utilizada para generar preguntas de seguimiento sugeridas. Context Length Longitud del contexto Number of input and output tokens the model sees. Número de tokens de entrada y salida que el modelo ve. Maximum combined prompt/response tokens before information is lost. Using more context than the model was trained on will yield poor results. NOTE: Does not take effect until you reload the model. Máximo de tokens combinados de indicación/respuesta antes de que se pierda información. Usar más contexto del que se utilizó para entrenar el modelo producirá resultados pobres. NOTA: No tiene efecto hasta que recargues el modelo. Temperature Temperatura Randomness of model output. Higher -> more variation. Aleatoriedad de la salida del modelo. Mayor -> más variación. Temperature increases the chances of choosing less likely tokens. NOTE: Higher temperature gives more creative but less predictable outputs. La temperatura aumenta las probabilidades de elegir tokens menos probables. NOTA: Una temperatura más alta da resultados más creativos pero menos predecibles. Top-P Top-P Nucleus Sampling factor. Lower -> more predicatable. Factor de muestreo de núcleo. Menor -> más predecible. Only the most likely tokens up to a total probability of top_p can be chosen. NOTE: Prevents choosing highly unlikely tokens. Solo se pueden elegir los tokens más probables hasta una probabilidad total de top_p. NOTA: Evita elegir tokens altamente improbables. Prefixed at the beginning of every conversation. Must contain the appropriate framing tokens. Must contain the string "%1" to be replaced with the user's input. Maximum combined prompt/response tokens before information is lost. Using more context than the model was trained on will yield poor results. NOTE: Does not take effect until you reload the model. Temperature increases the chances of choosing less likely tokens. NOTE: Higher temperature gives more creative but less predictable outputs. Only the most likely tokens up to a total probability of top_p can be chosen. NOTE: Prevents choosing highly unlikely tokens. Min-P Min-P Minimum token probability. Higher -> more predictable. Probabilidad mínima del token. Mayor -> más predecible. Sets the minimum relative probability for a token to be considered. Establece la probabilidad relativa mínima para que un token sea considerado. Top-K Top-K Size of selection pool for tokens. Tamaño del grupo de selección para tokens. Only the top K most likely tokens will be chosen from. Solo se elegirán los K tokens más probables. Max Length Longitud máxima Maximum response length, in tokens. Longitud máxima de respuesta, en tokens. Prompt Batch Size Tamaño del lote de indicaciones The batch size used for prompt processing. El tamaño del lote utilizado para el procesamiento de indicaciones. Amount of prompt tokens to process at once. NOTE: Higher values can speed up reading prompts but will use more RAM. How many model layers to load into VRAM. Decrease this if GPT4All runs out of VRAM while loading this model. Lower values increase CPU load and RAM usage, and make inference slower. NOTE: Does not take effect until you reload the model. Amount of prompt tokens to process at once. NOTE: Higher values can speed up reading prompts but will use more RAM. Cantidad de tokens de indicación para procesar a la vez. NOTA: Valores más altos pueden acelerar la lectura de indicaciones pero usarán más RAM. Repeat Penalty Penalización por repetición Repetition penalty factor. Set to 1 to disable. Factor de penalización por repetición. Establecer a 1 para desactivar. Repeat Penalty Tokens Tokens de penalización por repetición Number of previous tokens used for penalty. Número de tokens anteriores utilizados para la penalización. GPU Layers Capas de GPU Number of model layers to load into VRAM. Número de capas del modelo a cargar en la VRAM. How many model layers to load into VRAM. Decrease this if GPT4All runs out of VRAM while loading this model. Lower values increase CPU load and RAM usage, and make inference slower. NOTE: Does not take effect until you reload the model. Cuántas capas del modelo cargar en la VRAM. Disminuye esto si GPT4All se queda sin VRAM al cargar este modelo. Valores más bajos aumentan la carga de CPU y el uso de RAM, y hacen la inferencia más lenta. NOTA: No tiene efecto hasta que recargues el modelo. ModelsView No Models Installed No hay modelos instalados Install a model to get started using GPT4All Instala un modelo para empezar a usar GPT4All + Add Model + Agregar modelo Shows the add model view Muestra la vista de agregar modelo Installed Models Modelos instalados Locally installed chat models Modelos de chat instalados localmente Model file Archivo del modelo Model file to be downloaded Archivo del modelo a descargar Description Descripción File description Descripción del archivo Cancel Cancelar Resume Reanudar Stop/restart/start the download Detener/reiniciar/iniciar la descarga Remove Eliminar Remove model from filesystem Eliminar modelo del sistema de archivos Install Instalar Install online model Instalar modelo en línea <strong><font size="1"><a href="#error">Error</a></strong></font> <strong><font size="1"><a href="#error">Error</a></strong></font> <strong><font size="2">WARNING: Not recommended for your hardware. Model requires more memory (%1 GB) than your system has available (%2).</strong></font> <strong><font size="2">ADVERTENCIA: No recomendado para su hardware. El modelo requiere más memoria (%1 GB) de la que su sistema tiene disponible (%2).</strong></font> %1 GB %1 GB ? ? Describes an error that occurred when downloading Describe un error que ocurrió durante la descarga <strong><font size="1"><a href="#error">Error</a></strong></font> <strong><font size="2">WARNING: Not recommended for your hardware. Model requires more memory (%1 GB) than your system has available (%2).</strong></font> Error for incompatible hardware Error por hardware incompatible Download progressBar Barra de progreso de descarga Shows the progress made in the download Muestra el progreso realizado en la descarga Download speed Velocidad de descarga Download speed in bytes/kilobytes/megabytes per second Velocidad de descarga en bytes/kilobytes/megabytes por segundo Calculating... Calculando... Whether the file hash is being calculated Si se está calculando el hash del archivo Busy indicator Indicador de ocupado Displayed when the file hash is being calculated Se muestra cuando se está calculando el hash del archivo enter $API_KEY ingrese $API_KEY File size Tamaño del archivo RAM required RAM requerida Parameters Parámetros Quant Cuantificación Type Tipo MyFancyLink Fancy link Enlace elegante A stylized link Un enlace estilizado MySettingsStack Please choose a directory Por favor, elija un directorio MySettingsTab Restore Defaults Restaurar valores predeterminados Restores settings dialog to a default state Restaura el diálogo de configuración a su estado predeterminado NetworkDialog Contribute data to the GPT4All Opensource Datalake. Contribuir datos al Datalake de código abierto de GPT4All. By enabling this feature, you will be able to participate in the democratic process of training a large language model by contributing data for future model improvements. When a GPT4All model responds to you and you have opted-in, your conversation will be sent to the GPT4All Open Source Datalake. Additionally, you can like/dislike its response. If you dislike a response, you can suggest an alternative response. This data will be collected and aggregated in the GPT4All Datalake. NOTE: By turning on this feature, you will be sending your data to the GPT4All Open Source Datalake. You should have no expectation of chat privacy when this feature is enabled. You should; however, have an expectation of an optional attribution if you wish. Your chat data will be openly available for anyone to download and will be used by Nomic AI to improve future GPT4All models. Nomic AI will retain all attribution information attached to your data and you will be credited as a contributor to any GPT4All model release that uses your data! Al habilitar esta función, podrá participar en el proceso democrático de entrenamiento de un modelo de lenguaje grande contribuyendo con datos para futuras mejoras del modelo. Cuando un modelo GPT4All le responda y usted haya aceptado, su conversación se enviará al Datalake de código abierto de GPT4All. Además, puede dar me gusta/no me gusta a su respuesta. Si no le gusta una respuesta, puede sugerir una alternativa. Estos datos se recopilarán y agregarán en el Datalake de GPT4All. NOTA: Al activar esta función, enviará sus datos al Datalake de código abierto de GPT4All. No debe esperar privacidad en el chat cuando esta función esté habilitada. Sin embargo, puede esperar una atribución opcional si lo desea. Sus datos de chat estarán disponibles abiertamente para que cualquiera los descargue y serán utilizados por Nomic AI para mejorar futuros modelos de GPT4All. Nomic AI conservará toda la información de atribución adjunta a sus datos y se le acreditará como contribuyente en cualquier lanzamiento de modelo GPT4All que utilice sus datos. By enabling this feature, you will be able to participate in the democratic process of training a large language model by contributing data for future model improvements. When a GPT4All model responds to you and you have opted-in, your conversation will be sent to the GPT4All Open Source Datalake. Additionally, you can like/dislike its response. If you dislike a response, you can suggest an alternative response. This data will be collected and aggregated in the GPT4All Datalake. NOTE: By turning on this feature, you will be sending your data to the GPT4All Open Source Datalake. You should have no expectation of chat privacy when this feature is enabled. You should; however, have an expectation of an optional attribution if you wish. Your chat data will be openly available for anyone to download and will be used by Nomic AI to improve future GPT4All models. Nomic AI will retain all attribution information attached to your data and you will be credited as a contributor to any GPT4All model release that uses your data! Terms for opt-in Términos para optar por participar Describes what will happen when you opt-in Describe lo que sucederá cuando opte por participar Please provide a name for attribution (optional) Por favor, proporcione un nombre para la atribución (opcional) Attribution (optional) Atribución (opcional) Provide attribution Proporcionar atribución Enable Habilitar Enable opt-in Habilitar participación Cancel Cancelar Cancel opt-in Cancelar participación NewVersionDialog New version is available Nueva versión disponible Update Actualizar Update to new version Actualizar a nueva versión PopupDialog Reveals a shortlived help balloon Muestra un globo de ayuda de corta duración Busy indicator Indicador de ocupado Displayed when the popup is showing busy Se muestra cuando la ventana emergente está ocupada QObject Default Predeterminado SettingsView Settings Configuración Contains various application settings Contiene varias configuraciones de la aplicación Application Aplicación Model Modelo LocalDocs DocumentosLocales StartupDialog Welcome! ¡Bienvenido! ### Release notes %1### Contributors %2 ### Notas de la versión %1### Contribuidores %2 Release notes Notas de la versión Release notes for this version Notas de la versión para esta versión ### Opt-ins for anonymous usage analytics and datalake By enabling these features, you will be able to participate in the democratic process of training a large language model by contributing data for future model improvements. When a GPT4All model responds to you and you have opted-in, your conversation will be sent to the GPT4All Open Source Datalake. Additionally, you can like/dislike its response. If you dislike a response, you can suggest an alternative response. This data will be collected and aggregated in the GPT4All Datalake. NOTE: By turning on this feature, you will be sending your data to the GPT4All Open Source Datalake. You should have no expectation of chat privacy when this feature is enabled. You should; however, have an expectation of an optional attribution if you wish. Your chat data will be openly available for anyone to download and will be used by Nomic AI to improve future GPT4All models. Nomic AI will retain all attribution information attached to your data and you will be credited as a contributor to any GPT4All model release that uses your data! ### Aceptación para análisis de uso anónimo y datalake Al habilitar estas funciones, podrá participar en el proceso democrático de entrenar un modelo de lenguaje grande contribuyendo con datos para futuras mejoras del modelo. Cuando un modelo GPT4All le responda y usted haya aceptado, su conversación se enviará al Datalake de código abierto de GPT4All. Además, puede dar me gusta/no me gusta a su respuesta. Si no le gusta una respuesta, puede sugerir una alternativa. Estos datos se recopilarán y agregarán en el Datalake de GPT4All. NOTA: Al activar esta función, enviará sus datos al Datalake de código abierto de GPT4All. No debe esperar privacidad en el chat cuando esta función esté habilitada. Sin embargo, puede esperar una atribución opcional si lo desea. Sus datos de chat estarán disponibles abiertamente para que cualquiera los descargue y serán utilizados por Nomic AI para mejorar futuros modelos de GPT4All. Nomic AI conservará toda la información de atribución adjunta a sus datos y se le acreditará como contribuyente en cualquier lanzamiento de modelo GPT4All que utilice sus datos. ### Release notes %1### Contributors %2 ### Opt-ins for anonymous usage analytics and datalake By enabling these features, you will be able to participate in the democratic process of training a large language model by contributing data for future model improvements. When a GPT4All model responds to you and you have opted-in, your conversation will be sent to the GPT4All Open Source Datalake. Additionally, you can like/dislike its response. If you dislike a response, you can suggest an alternative response. This data will be collected and aggregated in the GPT4All Datalake. NOTE: By turning on this feature, you will be sending your data to the GPT4All Open Source Datalake. You should have no expectation of chat privacy when this feature is enabled. You should; however, have an expectation of an optional attribution if you wish. Your chat data will be openly available for anyone to download and will be used by Nomic AI to improve future GPT4All models. Nomic AI will retain all attribution information attached to your data and you will be credited as a contributor to any GPT4All model release that uses your data! Terms for opt-in Términos para aceptar Describes what will happen when you opt-in Describe lo que sucederá cuando acepte Opt-in for anonymous usage statistics Aceptar estadísticas de uso anónimas Yes Allow opt-in for anonymous usage statistics Permitir aceptación de estadísticas de uso anónimas No No Opt-out for anonymous usage statistics Rechazar estadísticas de uso anónimas Allow opt-out for anonymous usage statistics Permitir rechazo de estadísticas de uso anónimas Opt-in for network Aceptar para la red Allow opt-in for network Permitir aceptación para la red Allow opt-in anonymous sharing of chats to the GPT4All Datalake Permitir compartir anónimamente los chats con el Datalake de GPT4All Opt-out for network Rechazar para la red Allow opt-out anonymous sharing of chats to the GPT4All Datalake Permitir rechazar el compartir anónimo de chats con el Datalake de GPT4All SwitchModelDialog <b>Warning:</b> changing the model will erase the current conversation. Do you wish to continue? <b>Advertencia:</b> cambiar el modelo borrará la conversación actual. ¿Desea continuar? <b>Warning:</b> changing the model will erase the current conversation. Do you wish to continue? Continue Continuar Continue with model loading Continuar con la carga del modelo Cancel Cancelar ThumbsDownDialog Please edit the text below to provide a better response. (optional) Por favor, edite el texto a continuación para proporcionar una mejor respuesta. (opcional) Please provide a better response... Por favor, proporcione una mejor respuesta... Submit Enviar Submits the user's response Envía la respuesta del usuario Cancel Cancelar Closes the response dialog Cierra el diálogo de respuesta main <h3>Encountered an error starting up:</h3><br><i>"Incompatible hardware detected."</i><br><br>Unfortunately, your CPU does not meet the minimal requirements to run this program. In particular, it does not support AVX intrinsics which this program requires to successfully run a modern large language model. The only solution at this time is to upgrade your hardware to a more modern CPU.<br><br>See here for more information: <a href="https://en.wikipedia.org/wiki/Advanced_Vector_Extensions">https://en.wikipedia.org/wiki/Advanced_Vector_Extensions</a> <h3>Se encontró un error al iniciar:</h3><br><i>"Hardware incompatible detectado."</i><br><br>Desafortunadamente, su CPU no cumple con los requisitos mínimos para ejecutar este programa. En particular, no soporta las instrucciones AVX que este programa requiere para ejecutar con éxito un modelo de lenguaje grande moderno. La única solución en este momento es actualizar su hardware a una CPU más moderna.<br><br>Vea aquí para más información: <a href="https://en.wikipedia.org/wiki/Advanced_Vector_Extensions">https://en.wikipedia.org/wiki/Advanced_Vector_Extensions</a> GPT4All v%1 GPT4All v%1 <h3>Encountered an error starting up:</h3><br><i>"Inability to access settings file."</i><br><br>Unfortunately, something is preventing the program from accessing the settings file. This could be caused by incorrect permissions in the local app config directory where the settings file is located. Check out our <a href="https://discord.gg/4M2QFmTt2k">discord channel</a> for help. <h3>Se encontró un error al iniciar:</h3><br><i>"No se puede acceder al archivo de configuración."</i><br><br>Desafortunadamente, algo está impidiendo que el programa acceda al archivo de configuración. Esto podría ser causado por permisos incorrectos en el directorio de configuración local de la aplicación donde se encuentra el archivo de configuración. Consulte nuestro <a href="https://discord.gg/4M2QFmTt2k">canal de Discord</a> para obtener ayuda. <h3>Encountered an error starting up:</h3><br><i>"Incompatible hardware detected."</i><br><br>Unfortunately, your CPU does not meet the minimal requirements to run this program. In particular, it does not support AVX intrinsics which this program requires to successfully run a modern large language model. The only solution at this time is to upgrade your hardware to a more modern CPU.<br><br>See here for more information: <a href="https://en.wikipedia.org/wiki/Advanced_Vector_Extensions">https://en.wikipedia.org/wiki/Advanced_Vector_Extensions</a> <h3>Encountered an error starting up:</h3><br><i>"Inability to access settings file."</i><br><br>Unfortunately, something is preventing the program from accessing the settings file. This could be caused by incorrect permissions in the local app config directory where the settings file is located. Check out our <a href="https://discord.gg/4M2QFmTt2k">discord channel</a> for help. Connection to datalake failed. La conexión al datalake falló. Saving chats. Guardando chats. Network dialog Diálogo de red opt-in to share feedback/conversations optar por compartir comentarios/conversaciones Home view Vista de inicio Home view of application Vista de inicio de la aplicación Home Inicio Chat view Vista de chat Chat view to interact with models Vista de chat para interactuar con modelos Chats Chats Models Modelos Models view for installed models Vista de modelos para modelos instalados LocalDocs DocumentosLocales LocalDocs view to configure and use local docs Vista de DocumentosLocales para configurar y usar documentos locales Settings Configuración Settings view for application configuration Vista de configuración para la configuración de la aplicación The datalake is enabled El datalake está habilitado Using a network model Usando un modelo de red Server mode is enabled El modo servidor está habilitado Installed models Modelos instalados View of installed models Vista de modelos instalados