AddCollectionView ← Existing Collections ← Minhas coleções Add Document Collection Adicionar Coleção de Documentos Add a folder containing plain text files, PDFs, or Markdown. Configure additional extensions in Settings. Adicione uma pasta contendo arquivos de texto simples, PDFs ou Markdown. Configure extensões adicionais nas Configurações. Please choose a directory Escolha um diretório Name Nome Collection name... Nome da coleção... Name of the collection to add (Required) Nome da coleção (obrigatório) Folder Pasta Folder path... Caminho da pasta... Folder path to documents (Required) Caminho da pasta com os documentos (obrigatório) Browse Procurar Create Collection Criar Coleção AddModelView ← Existing Models ← Meus Modelos Explore Models Descobrir Modelos Discover and download models by keyword search... Pesquisar modelos... Text field for discovering and filtering downloadable models Campo de texto para descobrir e filtrar modelos para download Initiate model discovery and filtering Pesquisar e filtrar modelos Triggers discovery and filtering of models Aciona a descoberta e filtragem de modelos Default Padrão Likes Curtidas Downloads Downloads Recent Recentes Asc Asc Desc Desc None Nenhum Searching · %1 Pesquisando · %1 Sort by: %1 Ordenar por: %1 Sort dir: %1 Ordenar diretório: %1 Limit: %1 Limite: %1 Network error: could not retrieve %1 Erro de rede: não foi possível obter %1 Busy indicator Indicador de processamento Displayed when the models request is ongoing xibido enquanto os modelos estão sendo carregados Model file Arquivo do modelo Model file to be downloaded Arquivo do modelo a ser baixado Description Descrição File description Descrição do arquivo Cancel Cancelar Resume Retomar Download Baixar Stop/restart/start the download Parar/reiniciar/iniciar o download Remove Remover Remove model from filesystem Remover modelo do sistema Install Instalar Install online model Instalar modelo online <strong><font size="2">WARNING: Not recommended for your hardware. Model requires more memory (%1 GB) than your system has available (%2).</strong></font> <strong><font size="2">ATENÇÃO: Este modelo não é recomendado para seu hardware. Ele exige mais memória (%1 GB) do que seu sistema possui (%2).</strong></font> ERROR: $API_KEY is empty. ERROR: $BASE_URL is empty. enter $BASE_URL ERROR: $MODEL_NAME is empty. enter $MODEL_NAME %1 GB %1 GB ? ? Describes an error that occurred when downloading Mostra informações sobre o erro no download <strong><font size="1"><a href="#error">Error</a></strong></font> <strong><font size="1"><a href="#error">Erro</a></strong></font> Error for incompatible hardware Aviso: Hardware não compatível Download progressBar Progresso do download Shows the progress made in the download Mostra o progresso do download Download speed Velocidade de download Download speed in bytes/kilobytes/megabytes per second Velocidade de download em bytes/kilobytes/megabytes por segundo Calculating... Calculando... Whether the file hash is being calculated Quando o hash do arquivo está sendo calculado Displayed when the file hash is being calculated Exibido durante o cálculo do hash do arquivo enter $API_KEY inserir $API_KEY File size Tamanho do arquivo RAM required RAM necessária Parameters Parâmetros Quant Quant Type Tipo ApplicationSettings Application Aplicativo Network dialog Mensagens de rede opt-in to share feedback/conversations Compartilhar feedback e conversas ERROR: Update system could not find the MaintenanceTool used<br> to check for updates!<br><br> Did you install this application using the online installer? If so,<br> the MaintenanceTool executable should be located one directory<br> above where this application resides on your filesystem.<br><br> If you can't start it manually, then I'm afraid you'll have to<br> reinstall. ERRO: O sistema de atualização não encontrou a Ferramenta de Manutenção<br> necessária para verificar atualizações!<br><br> Você instalou este aplicativo usando o instalador online? Se sim,<br> o executável da Ferramenta de Manutenção deve estar localizado um diretório<br> acima de onde este aplicativo está instalado.<br><br> Se você não conseguir iniciá-lo manualmente, será necessário<br> reinstalar o aplicativo. Error dialog Mensagens de erro Application Settings Configurações General Geral Theme Tema The application color scheme. Esquema de cores. Dark Modo Escuro Light Modo Claro LegacyDark Modo escuro (legado) Font Size Tamanho da Fonte The size of text in the application. Tamanho do texto. Small Pequena Medium Médio Large Grande Language and Locale Idioma e Região The language and locale you wish to use. Selecione seu idioma e região. System Locale Device Processador The compute device used for text generation. "Auto" uses Vulkan or Metal. Processador usado para gerar texto. (Automático: Vulkan ou Metal). The compute device used for text generation. Application default Default Model Modelo Padrão The preferred model for new chats. Also used as the local server fallback. Modelo padrão para novos chats e em caso de falha do modelo principal. Suggestion Mode Modo de sugestões Generate suggested follow-up questions at the end of responses. Sugerir perguntas após as respostas. When chatting with LocalDocs Ao conversar com o LocalDocs Whenever possible Sempre que possível Never Nunca Download Path Diretório de Download Where to store local models and the LocalDocs database. Pasta para modelos e banco de dados do LocalDocs. Browse Procurar Choose where to save model files Local para armazenar os modelos Enable Datalake Habilitar Datalake Send chats and feedback to the GPT4All Open-Source Datalake. Contribua para o Datalake de código aberto do GPT4All. Advanced Avançado CPU Threads Threads de CPU The number of CPU threads used for inference and embedding. Quantidade de núcleos (threads) do processador usados para processar e responder às suas perguntas. Save Chat Context Salvar Histórico do Chat Save the chat model's state to disk for faster loading. WARNING: Uses ~2GB per chat. Salvar histórico do chat para carregamento mais rápido. (Usa aprox. 2GB por chat). Enable Local Server Ativar Servidor Local Expose an OpenAI-Compatible server to localhost. WARNING: Results in increased resource usage. Ativar servidor local compatível com OpenAI (uso de recursos elevado). API Server Port Porta da API The port to use for the local server. Requires restart. Porta de acesso ao servidor local. (requer reinicialização). Check For Updates Procurar por Atualizações Manually check for an update to GPT4All. Verifica se há novas atualizações para o GPT4All. Updates Atualizações Chat New Chat Novo Chat Server Chat Chat com o Servidor ChatAPIWorker ERROR: Network error occurred while connecting to the API server ChatAPIWorker::handleFinished got HTTP Error %1 %2 ChatDrawer Drawer Menu Lateral Main navigation drawer Menu de navegação principal + New Chat + Novo Chat Create a new chat Criar um novo chat Select the current chat or edit the chat when in edit mode Selecione o chat atual ou edite o chat quando estiver no modo de edição Edit chat name Editar nome do chat Save chat name Salvar nome do chat Delete chat Excluir chat Confirm chat deletion Confirmar exclusão do chat Cancel chat deletion Cancelar exclusão do chat List of chats Lista de chats List of chats in the drawer dialog Lista de chats na caixa de diálogo do menu lateral ChatListModel TODAY HOJE THIS WEEK ESTA SEMANA THIS MONTH ESTE MÊS LAST SIX MONTHS ÚLTIMOS SEIS MESES THIS YEAR ESTE ANO LAST YEAR ANO PASSADO ChatView <h3>Warning</h3><p>%1</p> <h3>Aviso</h3><p>%1</p> Switch model dialog Mensagem ao troca de modelo Warn the user if they switch models, then context will be erased Ao trocar de modelo, o contexto da conversa será apagado Conversation copied to clipboard. Conversa copiada. Code copied to clipboard. Código copiado. Chat panel Painel de chat Chat panel with options Painel de chat com opções Reload the currently loaded model Recarregar modelo atual Eject the currently loaded model Ejetar o modelo carregado atualmente No model installed. Nenhum modelo instalado. Model loading error. Erro ao carregar o modelo. Waiting for model... Aguardando modelo... Switching context... Mudando de contexto... Choose a model... Escolha um modelo... Not found: %1 Não encontrado: %1 The top item is the current model O modelo atual é exibido no topo LocalDocs LocalDocs Add documents Adicionar documentos add collections of documents to the chat Adicionar Coleção de Documentos Load the default model Carregar o modelo padrão Loads the default model which can be changed in settings Carrega o modelo padrão (personalizável nas configurações) No Model Installed Nenhum Modelo Instalado GPT4All requires that you install at least one model to get started O GPT4All precisa de pelo menos um modelo modelo instalado para funcionar Install a Model Instalar um Modelo Shows the add model view Mostra a visualização para adicionar modelo Conversation with the model Conversa com o modelo prompt / response pairs from the conversation Pares de pergunta/resposta da conversa GPT4All GPT4All You Você recalculating context ... recalculando contexto... response stopped ... resposta interrompida... processing ... processando... generating response ... gerando resposta... generating questions ... gerando perguntas... Copy Copiar Copy Message Copiar Mensagem Disable markdown Desativar markdown Enable markdown Ativar markdown Thumbs up Resposta boa Gives a thumbs up to the response Curte a resposta Thumbs down Resposta ruim Opens thumbs down dialog Abrir diálogo de joinha para baixo %1 Sources %1 Origens Suggested follow-ups Perguntas relacionadas Erase and reset chat session Apagar e redefinir sessão de chat Copy chat session to clipboard Copiar histórico da conversa Redo last chat response Refazer última resposta Stop generating Parar de gerar Stop the current response generation Parar a geração da resposta atual Reloads the model Recarrega modelo <h3>Encountered an error loading model:</h3><br><i>"%1"</i><br><br>Model loading failures can happen for a variety of reasons, but the most common causes include a bad file format, an incomplete or corrupted download, the wrong file type, not enough system RAM or an incompatible model type. Here are some suggestions for resolving the problem:<br><ul><li>Ensure the model file has a compatible format and type<li>Check the model file is complete in the download folder<li>You can find the download folder in the settings dialog<li>If you've sideloaded the model ensure the file is not corrupt by checking md5sum<li>Read more about what models are supported in our <a href="https://docs.gpt4all.io/">documentation</a> for the gui<li>Check out our <a href="https://discord.gg/4M2QFmTt2k">discord channel</a> for help <h3>Ocorreu um erro ao carregar o modelo:</h3><br><i>"%1"</i><br><br>Falhas no carregamento do modelo podem acontecer por vários motivos, mas as causas mais comuns incluem um formato de arquivo incorreto, um download incompleto ou corrompido, o tipo de arquivo errado, memória RAM do sistema insuficiente ou um tipo de modelo incompatível. Aqui estão algumas sugestões para resolver o problema:<br><ul><li>Certifique-se de que o arquivo do modelo tenha um formato e tipo compatíveis<li>Verifique se o arquivo do modelo está completo na pasta de download<li>Você pode encontrar a pasta de download na caixa de diálogo de configurações<li>Se você carregou o modelo, certifique-se de que o arquivo não esteja corrompido verificando o md5sum<li>Leia mais sobre quais modelos são suportados em nossa <a href="https://docs.gpt4all.io/">documentação</a> para a interface gráfica<li>Confira nosso <a href="https://discord.gg/4M2QFmTt2k">canal do Discord</a> para obter ajuda Reload · %1 Recarregar · %1 Loading · %1 Carregando · %1 Load · %1 (default) → Carregar · %1 (padrão) → restoring from text ... retrieving localdocs: %1 ... Recuperando dados em LocalDocs: %1 ... searching localdocs: %1 ... Buscando em LocalDocs: %1 ... Send a message... Enviar uma mensagem... Load a model to continue... Carregue um modelo para continuar... Send messages/prompts to the model Enviar mensagens/prompts para o modelo Cut Recortar Paste Colar Select All Selecionar tudo Send message Enviar mensagem Sends the message/prompt contained in textfield to the model Envia a mensagem/prompt contida no campo de texto para o modelo CollectionsDrawer Warning: searching collections while indexing can return incomplete results Aviso: pesquisar coleções durante a indexação pode retornar resultados incompletos %n file(s) %n arquivo(s) %n arquivo(s) %n word(s) %n palavra(s) %n palavra(s) Updating Atualizando + Add Docs + Adicionar Documentos Select a collection to make it available to the chat model. Selecione uma coleção para disponibilizá-la ao modelo de chat. Download Model "%1" is installed successfully. ERROR: $MODEL_NAME is empty. ERROR: $API_KEY is empty. ERROR: $BASE_URL is invalid. ERROR: Model "%1 (%2)" is conflict. Model "%1 (%2)" is installed successfully. Model "%1" is removed. HomeView Welcome to GPT4All Bem-vindo ao GPT4All The privacy-first LLM chat application O aplicativo de chat LLM que prioriza a privacidade Start chatting Iniciar chat Start Chatting Iniciar Chat Chat with any LLM Converse com qualquer LLM LocalDocs LocalDocs Chat with your local files Converse com seus arquivos locais Find Models Encontrar Modelos Explore and download models Descubra e baixe modelos Latest news Últimas novidades Latest news from GPT4All Últimas novidades do GPT4All Release Notes Notas de versão Documentation Documentação Discord Discord X (Twitter) X (Twitter) Github Github GPT4All.io GPT4All.io Subscribe to Newsletter Assine nossa Newsletter LocalDocsSettings LocalDocs LocalDocs LocalDocs Settings Configurações do LocalDocs Indexing Indexação Allowed File Extensions Extensões de Arquivo Permitidas Comma-separated list. LocalDocs will only attempt to process files with these extensions. Lista separada por vírgulas. O LocalDocs tentará processar apenas arquivos com essas extensões. Embedding Incorporação Use Nomic Embed API Usar a API Nomic Embed Embed documents using the fast Nomic API instead of a private local model. Requires restart. Incorporar documentos usando a API Nomic rápida em vez de um modelo local privado. Requer reinicialização. Nomic API Key Chave da API Nomic API key to use for Nomic Embed. Get one from the Atlas <a href="https://atlas.nomic.ai/cli-login">API keys page</a>. Requires restart. Chave da API a ser usada para Nomic Embed. Obtenha uma na página de <a href="https://atlas.nomic.ai/cli-login">chaves de API do Atlas</a>. Requer reinicialização. Embeddings Device Processamento de Incorporações The compute device used for embeddings. "Auto" uses the CPU. Requires restart. Dispositivo usado para processar as incorporações. "Automático" utiliza a CPU. Requer reinicialização. Display Exibir Show Sources Mostrar Fontes Display the sources used for each response. Mostra as fontes usadas para cada resposta. Advanced Apenas para usuários avançados Warning: Advanced usage only. Atenção: Apenas para usuários avançados. Values too large may cause localdocs failure, extremely slow responses or failure to respond at all. Roughly speaking, the {N chars x N snippets} are added to the model's context window. More info <a href="https://docs.gpt4all.io/gpt4all_desktop/localdocs.html">here</a>. Valores muito grandes podem causar falhas no LocalDocs, respostas extremamente lentas ou nenhuma resposta. Em termos gerais, o {Número de Caracteres x Número de Trechos} é adicionado à janela de contexto do modelo. Consulte <a href="https://docs.gpt4all.io/gpt4all_desktop/localdocs.html">here</a> para mais informações. Document snippet size (characters) Tamanho do trecho de documento (caracteres) Number of characters per document snippet. Larger numbers increase likelihood of factual responses, but also result in slower generation. Número de caracteres por trecho de documento. Valores maiores aumentam a chance de respostas factuais, mas também tornam a geração mais lenta. Max document snippets per prompt Máximo de Trechos de Documento por Prompt Max best N matches of retrieved document snippets to add to the context for prompt. Larger numbers increase likelihood of factual responses, but also result in slower generation. Número máximo de trechos de documentos a serem adicionados ao contexto do prompt. Valores maiores aumentam a chance de respostas factuais, mas também tornam a geração mais lenta. LocalDocsView LocalDocs LocalDocs Chat with your local files Converse com seus arquivos locais + Add Collection + Adicionar Coleção ERROR: The LocalDocs database is not valid. ERRO: O banco de dados do LocalDocs não é válido. <h3>ERROR: The LocalDocs database cannot be accessed or is not valid.</h3><br><i>Note: You will need to restart after trying any of the following suggested fixes.</i><br><ul><li>Make sure that the folder set as <b>Download Path</b> exists on the file system.</li><li>Check ownership as well as read and write permissions of the <b>Download Path</b>.</li><li>If there is a <b>localdocs_v2.db</b> file, check its ownership and read/write permissions, too.</li></ul><br>If the problem persists and there are any 'localdocs_v*.db' files present, as a last resort you can<br>try backing them up and removing them. You will have to recreate your collections, however. No Collections Installed Nenhuma Coleção Instalada Install a collection of local documents to get started using this feature Instale uma coleção de documentos locais para começar a usar este recurso + Add Doc Collection + Adicionar Coleção de Documentos Shows the add model view Mostra a visualização para adicionar modelo Indexing progressBar Barra de progresso de indexação Shows the progress made in the indexing Mostra o progresso da indexação ERROR ERRO INDEXING INDEXANDO EMBEDDING INCORPORANDO REQUIRES UPDATE REQUER ATUALIZAÇÃO READY PRONTO INSTALLING INSTALANDO Indexing in progress Indexação em andamento Embedding in progress Incorporação em andamento This collection requires an update after version change Esta coleção requer uma atualização após a mudança de versão Automatically reindexes upon changes to the folder Reindexa automaticamente após alterações na pasta Installation in progress Instalação em andamento % % %n file(s) %n arquivo(s) %n arquivo(s) %n word(s) %n palavra(s) %n palavra(s) Remove Remover Rebuild Reconstruir Reindex this folder from scratch. This is slow and usually not needed. Reindexar esta pasta do zero. Esta operação é muito lenta e geralmente não é necessária. Update Atualizar Update the collection to the new version. This is a slow operation. Atualizar a coleção para a nova versão. Esta operação pode demorar. ModelList <ul><li>Requires personal OpenAI API key.</li><li>WARNING: Will send your chats to OpenAI!</li><li>Your API key will be stored on disk</li><li>Will only be used to communicate with OpenAI</li><li>You can apply for an API key <a href="https://platform.openai.com/account/api-keys">here.</a></li> <ul><li>É necessária uma chave de API da OpenAI.</li><li>AVISO: Seus chats serão enviados para a OpenAI!</li><li>Sua chave de API será armazenada localmente</li><li>Ela será usada apenas para comunicação com a OpenAI</li><li>Você pode solicitar uma chave de API <a href="https://platform.openai.com/account/api-keys">aqui.</a></li> <strong>OpenAI's ChatGPT model GPT-3.5 Turbo</strong><br> %1 <strong>Modelo ChatGPT GPT-3.5 Turbo da OpenAI</strong><br> %1 <strong>OpenAI's ChatGPT model GPT-4</strong><br> %1 %2 <strong>Modelo ChatGPT GPT-4 da OpenAI</strong><br> %1 %2 <strong>Mistral Tiny model</strong><br> %1 <strong>Modelo Mistral Tiny</strong><br> %1 <strong>Mistral Small model</strong><br> %1 <strong>Modelo Mistral Small</strong><br> %1 <strong>Mistral Medium model</strong><br> %1 <strong>Modelo Mistral Medium</strong><br> %1 <br><br><i>* Even if you pay OpenAI for ChatGPT-4 this does not guarantee API key access. Contact OpenAI for more info. <br><br><i>* Mesmo que você pague pelo ChatGPT-4 da OpenAI, isso não garante acesso à chave de API. Contate a OpenAI para mais informações. %1 (%2) <strong>OpenAI-Compatible API Model</strong><br><ul><li>API Key: %1</li><li>Base URL: %2</li><li>Model Name: %3</li></ul> <ul><li>Requires personal Mistral API key.</li><li>WARNING: Will send your chats to Mistral!</li><li>Your API key will be stored on disk</li><li>Will only be used to communicate with Mistral</li><li>You can apply for an API key <a href="https://console.mistral.ai/user/api-keys">here</a>.</li> <ul><li>É necessária uma chave de API da Mistral.</li><li>AVISO: Seus chats serão enviados para a Mistral!</li><li>Sua chave de API será armazenada localmente</li><li>Ela será usada apenas para comunicação com a Mistral</li><li>Você pode solicitar uma chave de API <a href="https://console.mistral.ai/user/api-keys">aqui</a>.</li> <ul><li>Requires personal API key and the API base URL.</li><li>WARNING: Will send your chats to the OpenAI-compatible API Server you specified!</li><li>Your API key will be stored on disk</li><li>Will only be used to communicate with the OpenAI-compatible API Server</li> <strong>Connect to OpenAI-compatible API server</strong><br> %1 <strong>Created by %1.</strong><br><ul><li>Published on %2.<li>This model has %3 likes.<li>This model has %4 downloads.<li>More info can be found <a href="https://huggingface.co/%5">here.</a></ul> <strong>Criado por %1.</strong><br><ul><li>Publicado em %2.<li>Este modelo tem %3 curtidas.<li>Este modelo tem %4 downloads.<li>Mais informações podem ser encontradas <a href="https://huggingface.co/%5">aqui.</a></ul> ModelSettings Model Modelo Model Settings Configurações do Modelo Clone Clonar Remove Remover Name Nome Model File Arquivo do Modelo System Prompt Prompt do Sistema Prefixed at the beginning of every conversation. Must contain the appropriate framing tokens. Prefixado no início de cada conversa. Deve conter os tokens de enquadramento apropriados. Prompt Template Modelo de Prompt The template that wraps every prompt. Modelo para cada prompt. Must contain the string "%1" to be replaced with the user's input. Deve incluir "%1" para a entrada do usuário. Chat Name Prompt Prompt para Nome do Chat Prompt used to automatically generate chat names. Prompt usado para gerar automaticamente nomes de chats. Suggested FollowUp Prompt Prompt de Sugestão de Acompanhamento Prompt used to generate suggested follow-up questions. Prompt usado para gerar sugestões de perguntas. Context Length Tamanho do Contexto Number of input and output tokens the model sees. Tamanho da Janela de Contexto. Maximum combined prompt/response tokens before information is lost. Using more context than the model was trained on will yield poor results. NOTE: Does not take effect until you reload the model. Máximo de tokens combinados (prompt + resposta) antes da perda de informações. Usar mais contexto do que o modelo foi treinado pode gerar resultados ruins. Obs.: Só entrará em vigor após recarregar o modelo. Temperature Temperatura Randomness of model output. Higher -> more variation. Aleatoriedade das respostas. Quanto maior, mais variadas. Temperature increases the chances of choosing less likely tokens. NOTE: Higher temperature gives more creative but less predictable outputs. Aumenta a chance de escolher tokens menos prováveis. Obs.: Uma temperatura mais alta gera resultados mais criativos, mas menos previsíveis. Top-P Top-P Nucleus Sampling factor. Lower -> more predicatable. Amostragem por núcleo. Menor valor, respostas mais previsíveis. Only the most likely tokens up to a total probability of top_p can be chosen. NOTE: Prevents choosing highly unlikely tokens. Apenas tokens com probabilidade total até o valor de top_p serão escolhidos. Obs.: Evita tokens muito improváveis. Min-P Min-P Minimum token probability. Higher -> more predictable. Probabilidade mínima do token. Quanto maior -> mais previsível. Sets the minimum relative probability for a token to be considered. Define a probabilidade relativa mínima para um token ser considerado. Top-K Top-K Size of selection pool for tokens. Número de tokens considerados na amostragem. Only the top K most likely tokens will be chosen from. Serão escolhidos apenas os K tokens mais prováveis. Max Length Comprimento Máximo Maximum response length, in tokens. Comprimento máximo da resposta, em tokens. Prompt Batch Size Tamanho do Lote de Processamento The batch size used for prompt processing. Tokens processados por lote. Amount of prompt tokens to process at once. NOTE: Higher values can speed up reading prompts but will use more RAM. Quantidade de tokens de prompt para processar de uma vez. OBS.: Valores mais altos podem acelerar a leitura dos prompts, mas usarão mais RAM. Repeat Penalty Penalidade de Repetição Repetition penalty factor. Set to 1 to disable. Penalidade de Repetição (1 para desativar). Repeat Penalty Tokens Tokens para penalizar repetição Number of previous tokens used for penalty. Número de tokens anteriores usados para penalidade. GPU Layers Camadas na GPU Number of model layers to load into VRAM. Camadas Carregadas na GPU. How many model layers to load into VRAM. Decrease this if GPT4All runs out of VRAM while loading this model. Lower values increase CPU load and RAM usage, and make inference slower. NOTE: Does not take effect until you reload the model. Número de camadas do modelo carregadas na VRAM. Diminua se faltar VRAM ao carregar o modelo. Valores menores aumentam o uso de CPU e RAM, e deixam a inferência mais lenta. Obs.: Só entrará em vigor após recarregar o modelo. ModelsView No Models Installed Nenhum Modelo Instalado Install a model to get started using GPT4All Instale um modelo para começar a usar o GPT4All + Add Model + Adicionar Modelo Shows the add model view Mostra a visualização para adicionar modelo Installed Models Modelos Instalados Locally installed chat models Modelos de chat instalados localmente Model file Arquivo do modelo Model file to be downloaded Arquivo do modelo a ser baixado Description Descrição File description Descrição do arquivo Cancel Cancelar Resume Retomar Stop/restart/start the download Parar/reiniciar/iniciar o download Remove Remover Remove model from filesystem Remover modelo do sistema de arquivos Install Instalar Install online model Instalar modelo online <strong><font size="1"><a href="#error">Error</a></strong></font> <strong><font size="1"><a href="#error">Erro</a></strong></font> <strong><font size="2">WARNING: Not recommended for your hardware. Model requires more memory (%1 GB) than your system has available (%2).</strong></font> <strong><font size="2">AVISO: Não recomendado para seu hardware. O modelo requer mais memória (%1 GB) do que seu sistema tem disponível (%2).</strong></font> ERROR: $API_KEY is empty. ERROR: $BASE_URL is empty. enter $BASE_URL ERROR: $MODEL_NAME is empty. enter $MODEL_NAME %1 GB %1 GB ? ? Describes an error that occurred when downloading Descreve um erro que ocorreu durante o download Error for incompatible hardware Erro para hardware incompatível Download progressBar Barra de progresso do download Shows the progress made in the download Mostra o progresso do download Download speed Velocidade de download Download speed in bytes/kilobytes/megabytes per second Velocidade de download em bytes/kilobytes/megabytes por segundo Calculating... Calculando... Whether the file hash is being calculated Se o hash do arquivo está sendo calculado Busy indicator Indicador de ocupado Displayed when the file hash is being calculated Exibido quando o hash do arquivo está sendo calculado enter $API_KEY inserir $API_KEY File size Tamanho do arquivo RAM required RAM necessária Parameters Parâmetros Quant Quant Type Tipo MyFancyLink Fancy link Link personalizado A stylized link Um link personalizado MySettingsStack Please choose a directory Escolha um diretório MySettingsTab Restore Defaults Restaurar Configurações Padrão Restores settings dialog to a default state Restaura as configurações para o estado padrão NetworkDialog Contribute data to the GPT4All Opensource Datalake. Contribuir com dados para o Datalake de código aberto GPT4All. By enabling this feature, you will be able to participate in the democratic process of training a large language model by contributing data for future model improvements. When a GPT4All model responds to you and you have opted-in, your conversation will be sent to the GPT4All Open Source Datalake. Additionally, you can like/dislike its response. If you dislike a response, you can suggest an alternative response. This data will be collected and aggregated in the GPT4All Datalake. NOTE: By turning on this feature, you will be sending your data to the GPT4All Open Source Datalake. You should have no expectation of chat privacy when this feature is enabled. You should; however, have an expectation of an optional attribution if you wish. Your chat data will be openly available for anyone to download and will be used by Nomic AI to improve future GPT4All models. Nomic AI will retain all attribution information attached to your data and you will be credited as a contributor to any GPT4All model release that uses your data! Ao habilitar este recurso, você poderá participar do processo democrático de treinamento de um grande modelo de linguagem, contribuindo com dados para futuras melhorias do modelo. Quando um modelo GPT4All responder a você e você tiver optado por participar, sua conversa será enviada para o Datalake de Código Aberto do GPT4All. Além disso, você pode curtir/não curtir a resposta. Se você não gostar de uma resposta, pode sugerir uma resposta alternativa. Esses dados serão coletados e agregados no Datalake do GPT4All. OBS.: Ao ativar este recurso, você estará enviando seus dados para o Datalake de Código Aberto do GPT4All. Você não deve ter nenhuma expectativa de privacidade no chat quando este recurso estiver ativado. No entanto, você deve ter a expectativa de uma atribuição opcional, se desejar. Seus dados de chat estarão disponíveis para qualquer pessoa baixar e serão usados pela Nomic AI para melhorar os futuros modelos GPT4All. A Nomic AI manterá todas as informações de atribuição anexadas aos seus dados e você será creditado como colaborador em qualquer versão do modelo GPT4All que utilize seus dados! Terms for opt-in Termos de participação Describes what will happen when you opt-in Descrição do que acontece ao participar Please provide a name for attribution (optional) Forneça um nome para atribuição (opcional) Attribution (optional) Atribuição (opcional) Provide attribution Fornecer atribuição Enable Habilitar Enable opt-in Ativar participação Cancel Cancelar Cancel opt-in Cancelar participação NewVersionDialog New version is available Atualização disponível Update Atualizar agora Update to new version Baixa e instala a última versão do GPT4All PopupDialog Reveals a shortlived help balloon Exibe uma dica rápida Busy indicator Indicador de processamento Displayed when the popup is showing busy Visível durante o processamento QObject Default Padrão SettingsView Settings Configurações Contains various application settings Acessar as configurações do aplicativo Application Aplicativo Model Modelo LocalDocs LocalDocs StartupDialog Welcome! Bem-vindo(a)! ### Release notes %1### Contributors %2 ### Notas de lançamento %1### Colaboradores %2 Release notes Notas de lançamento Release notes for this version Notas de lançamento desta versão ### Opt-ins for anonymous usage analytics and datalake By enabling these features, you will be able to participate in the democratic process of training a large language model by contributing data for future model improvements. When a GPT4All model responds to you and you have opted-in, your conversation will be sent to the GPT4All Open Source Datalake. Additionally, you can like/dislike its response. If you dislike a response, you can suggest an alternative response. This data will be collected and aggregated in the GPT4All Datalake. NOTE: By turning on this feature, you will be sending your data to the GPT4All Open Source Datalake. You should have no expectation of chat privacy when this feature is enabled. You should; however, have an expectation of an optional attribution if you wish. Your chat data will be openly available for anyone to download and will be used by Nomic AI to improve future GPT4All models. Nomic AI will retain all attribution information attached to your data and you will be credited as a contributor to any GPT4All model release that uses your data! ### Opções para análise de uso anônimo e banco de dados Ao habilitar esses recursos, você poderá participar do processo democrático de treinamento de um grande modelo de linguagem, contribuindo com dados para futuras melhorias do modelo. Quando um modelo GPT4All responder a você e você tiver optado por participar, sua conversa será enviada para o Datalake de Código Aberto do GPT4All. Além disso, você pode curtir/não curtir a resposta. Se você não gostar de uma resposta, pode sugerir uma resposta alternativa. Esses dados serão coletados e agregados no Datalake do GPT4All. OBS.: Ao ativar este recurso, você estará enviando seus dados para o Datalake de Código Aberto do GPT4All. Você não deve ter nenhuma expectativa de privacidade no chat quando este recurso estiver ativado. No entanto, você deve ter a expectativa de uma atribuição opcional, se desejar. Seus dados de chat estarão disponíveis para qualquer pessoa baixar e serão usados pela Nomic AI para melhorar os futuros modelos GPT4All. A Nomic AI manterá todas as informações de atribuição anexadas aos seus dados e você será creditado como colaborador em qualquer versão do modelo GPT4All que utilize seus dados! Terms for opt-in Termos de participação Describes what will happen when you opt-in Descrição do que acontece ao participar Opt-in for anonymous usage statistics Enviar estatísticas de uso anônimas Yes Sim Allow opt-in for anonymous usage statistics Permitir o envio de estatísticas de uso anônimas No Não Opt-out for anonymous usage statistics Recusar envio de estatísticas de uso anônimas Allow opt-out for anonymous usage statistics Permitir recusar envio de estatísticas de uso anônimas Opt-in for network Aceitar na rede Allow opt-in for network Permitir aceitação na rede Allow opt-in anonymous sharing of chats to the GPT4All Datalake Permitir compartilhamento anônimo de chats no Datalake GPT4All Opt-out for network Recusar na rede Allow opt-out anonymous sharing of chats to the GPT4All Datalake Permitir recusar compartilhamento anônimo de chats no Datalake GPT4All SwitchModelDialog <b>Warning:</b> changing the model will erase the current conversation. Do you wish to continue? <b>Atenção:</b> Ao trocar o modelo a conversa atual será perdida. Continuar? Continue Continuar Continue with model loading Confirma a troca do modelo Cancel Cancelar ThumbsDownDialog Please edit the text below to provide a better response. (optional) Editar resposta (opcional) Please provide a better response... Digite sua resposta... Submit Enviar Submits the user's response Enviar Cancel Cancelar Closes the response dialog Fecha a caixa de diálogo de resposta main <h3>Encountered an error starting up:</h3><br><i>"Incompatible hardware detected."</i><br><br>Unfortunately, your CPU does not meet the minimal requirements to run this program. In particular, it does not support AVX intrinsics which this program requires to successfully run a modern large language model. The only solution at this time is to upgrade your hardware to a more modern CPU.<br><br>See here for more information: <a href="https://en.wikipedia.org/wiki/Advanced_Vector_Extensions">https://en.wikipedia.org/wiki/Advanced_Vector_Extensions</a> <h3>Ocorreu um erro ao iniciar:</h3><br><i>"Hardware incompatível detectado."</i><br><br>Infelizmente, seu processador não atende aos requisitos mínimos para executar este programa. Especificamente, ele não possui suporte às instruções AVX, que são necessárias para executar modelos de linguagem grandes e modernos. A única solução, no momento, é atualizar seu hardware para um processador mais recente.<br><br>Para mais informações, consulte: <a href="https://pt.wikipedia.org/wiki/Advanced_Vector_Extensions">https://pt.wikipedia.org/wiki/Advanced_Vector_Extensions</a> GPT4All v%1 GPT4All v%1 <h3>Encountered an error starting up:</h3><br><i>"Inability to access settings file."</i><br><br>Unfortunately, something is preventing the program from accessing the settings file. This could be caused by incorrect permissions in the local app config directory where the settings file is located. Check out our <a href="https://discord.gg/4M2QFmTt2k">discord channel</a> for help. <h3>Ocorreu um erro ao iniciar:</h3><br><i>"Não foi possível acessar o arquivo de configurações."</i><br><br>Infelizmente, algo está impedindo o programa de acessar o arquivo de configurações. Isso pode acontecer devido a permissões incorretas na pasta de configurações do aplicativo. Para obter ajuda, acesse nosso <a href="https://discord.gg/4M2QFmTt2k">canal no Discord</a>. Connection to datalake failed. Falha na conexão com o datalake. Saving chats. Salvando chats. Network dialog Avisos de rede opt-in to share feedback/conversations permitir compartilhamento de feedback/conversas Home view Tela inicial Home view of application Tela inicial do aplicativo Home Início Chat view Visualização do Chat Chat view to interact with models Visualização do chat para interagir com os modelos Chats Chats Models Modelos Models view for installed models Tela de modelos instalados LocalDocs LocalDocs LocalDocs view to configure and use local docs Tela de configuração e uso de documentos locais do LocalDocs Settings Configurações Settings view for application configuration Tela de configurações do aplicativo The datalake is enabled O datalake está ativado Using a network model Usando um modelo de rede Server mode is enabled Modo servidor ativado Installed models Modelos instalados View of installed models Exibe os modelos instalados