AddCollectionView← Minhas coleçõesAdicionar Coleção de DocumentosAdicione uma pasta contendo arquivos de texto simples, PDFs ou Markdown. Configure extensões adicionais nas Configurações.Escolha um diretórioNomeNome da coleção...Nome da coleção (obrigatório)PastaCaminho da pasta...Caminho da pasta com os documentos (obrigatório)ProcurarCriar ColeçãoAddModelView← Meus ModelosDescobrir ModelosPesquisar modelos...Campo de texto para descobrir e filtrar modelos para downloadPesquisar e filtrar modelosAciona a descoberta e filtragem de modelosPadrãoCurtidasDownloadsRecentesAscDescNenhumPesquisando · %1Ordenar por: %1Ordenar diretório: %1Limite: %1Erro de rede: não foi possível obter %1Indicador de processamentoxibido enquanto os modelos estão sendo carregadosArquivo do modeloArquivo do modelo a ser baixadoDescriçãoDescrição do arquivoCancelarRetomarBaixarParar/reiniciar/iniciar o downloadRemoverRemover modelo do sistemaInstalarInstalar modelo online<strong><font size="2">ATENÇÃO: Este modelo não é recomendado para seu hardware. Ele exige mais memória (%1 GB) do que seu sistema possui (%2).</strong></font>%1 GB?Mostra informações sobre o erro no download<strong><font size="1"><a href="#error">Erro</a></strong></font>Aviso: Hardware não compatívelProgresso do downloadMostra o progresso do downloadVelocidade de downloadVelocidade de download em bytes/kilobytes/megabytes por segundoCalculando...Quando o hash do arquivo está sendo calculadoExibido durante o cálculo do hash do arquivoinserir $API_KEYTamanho do arquivoRAM necessáriaParâmetrosQuantTipoApplicationSettingsAplicativoMensagens de redeCompartilhar feedback e conversasERRO: O sistema de atualização não encontrou a Ferramenta de Manutenção<br>
necessária para verificar atualizações!<br><br>
Você instalou este aplicativo usando o instalador online? Se sim,<br>
o executável da Ferramenta de Manutenção deve estar localizado um diretório<br>
acima de onde este aplicativo está instalado.<br><br>
Se você não conseguir iniciá-lo manualmente, será necessário<br>
reinstalar o aplicativo.Mensagens de erroConfiguraçõesGeralTemaEsquema de cores.Modo EscuroModo ClaroModo escuro (legado)Tamanho da FonteTamanho do texto.PequenaMédioGrandeIdioma e RegiãoSelecione seu idioma e região.ProcessadorProcessador usado para gerar texto. (Automático: Vulkan ou Metal).Modelo PadrãoModelo padrão para novos chats e em caso de falha do modelo principal.Modo de sugestõesSugerir perguntas após as respostas.Ao conversar com o LocalDocsSempre que possívelNuncaDiretório de DownloadPasta para modelos e banco de dados do LocalDocs.ProcurarLocal para armazenar os modelosHabilitar DatalakeContribua para o Datalake de código aberto do GPT4All.AvançadoThreads de CPUQuantidade de núcleos (threads) do processador usados para processar e responder às suas perguntas.Salvar Histórico do ChatSalvar histórico do chat para carregamento mais rápido. (Usa aprox. 2GB por chat).Ativar Servidor LocalAtivar servidor local compatível com OpenAI (uso de recursos elevado).Porta da APIPorta de acesso ao servidor local. (requer reinicialização).Procurar por AtualizaçõesVerifica se há novas atualizações para o GPT4All.AtualizaçõesChatNovo ChatChat com o ServidorChatAPIWorkerChatDrawerMenu LateralMenu de navegação principal+ Novo ChatCriar um novo chatSelecione o chat atual ou edite o chat quando estiver no modo de ediçãoEditar nome do chatSalvar nome do chatExcluir chatConfirmar exclusão do chatCancelar exclusão do chatLista de chatsLista de chats na caixa de diálogo do menu lateralChatListModelHOJEESTA SEMANAESTE MÊSÚLTIMOS SEIS MESESESTE ANOANO PASSADOChatView<h3>Aviso</h3><p>%1</p>Mensagem ao troca de modeloAo trocar de modelo, o contexto da conversa será apagadoConversa copiada.Código copiado.Painel de chatPainel de chat com opçõesRecarregar modelo atualEjetar o modelo carregado atualmenteNenhum modelo instalado.Erro ao carregar o modelo.Aguardando modelo...Mudando de contexto...Escolha um modelo...Não encontrado: %1O modelo atual é exibido no topoLocalDocsAdicionar documentosAdicionar Coleção de DocumentosCarregar o modelo padrãoCarrega o modelo padrão (personalizável nas configurações)Nenhum Modelo InstaladoO GPT4All precisa de pelo menos um modelo
modelo instalado para funcionarInstalar um ModeloMostra a visualização para adicionar modeloConversa com o modeloPares de pergunta/resposta da conversaGPT4AllVocêrecalculando contexto...resposta interrompida...processando...gerando resposta...gerando perguntas...CopiarCopiar MensagemDesativar markdownAtivar markdownResposta boaCurte a respostaResposta ruimAbrir diálogo de joinha para baixo%1 OrigensPerguntas relacionadasApagar e redefinir sessão de chatCopiar histórico da conversaRefazer última respostaParar de gerarParar a geração da resposta atualRecarrega modelo<h3>Ocorreu um erro ao carregar o modelo:</h3><br><i>"%1"</i><br><br>Falhas no carregamento do modelo podem acontecer por vários motivos, mas as causas mais comuns incluem um formato de arquivo incorreto, um download incompleto ou corrompido, o tipo de arquivo errado, memória RAM do sistema insuficiente ou um tipo de modelo incompatível. Aqui estão algumas sugestões para resolver o problema:<br><ul><li>Certifique-se de que o arquivo do modelo tenha um formato e tipo compatíveis<li>Verifique se o arquivo do modelo está completo na pasta de download<li>Você pode encontrar a pasta de download na caixa de diálogo de configurações<li>Se você carregou o modelo, certifique-se de que o arquivo não esteja corrompido verificando o md5sum<li>Leia mais sobre quais modelos são suportados em nossa <a href="https://docs.gpt4all.io/">documentação</a> para a interface gráfica<li>Confira nosso <a href="https://discord.gg/4M2QFmTt2k">canal do Discord</a> para obter ajudaRecarregar · %1Carregando · %1Carregar · %1 (padrão) →Recuperando dados em LocalDocs: %1 ...Buscando em LocalDocs: %1 ...Enviar uma mensagem...Carregue um modelo para continuar...Enviar mensagens/prompts para o modeloRecortarColarSelecionar tudoEnviar mensagemEnvia a mensagem/prompt contida no campo de texto para o modeloCollectionsDrawerAviso: pesquisar coleções durante a indexação pode retornar resultados incompletos%n arquivo(s)%n arquivo(s)%n palavra(s)%n palavra(s)Atualizando+ Adicionar DocumentosSelecione uma coleção para disponibilizá-la ao modelo de chat.DownloadHomeViewBem-vindo ao GPT4AllO aplicativo de chat LLM que prioriza a privacidadeIniciar chatIniciar ChatConverse com qualquer LLMLocalDocsConverse com seus arquivos locaisEncontrar ModelosDescubra e baixe modelosÚltimas novidadesÚltimas novidades do GPT4AllNotas de versãoDocumentaçãoDiscordX (Twitter)GithubGPT4All.ioAssine nossa NewsletterLocalDocsSettingsLocalDocsConfigurações do LocalDocsIndexaçãoExtensões de Arquivo PermitidasLista separada por vírgulas. O LocalDocs tentará processar apenas arquivos com essas extensões.IncorporaçãoUsar a API Nomic EmbedIncorporar documentos usando a API Nomic rápida em vez de um modelo local privado. Requer reinicialização.Chave da API NomicChave da API a ser usada para Nomic Embed. Obtenha uma na página de <a href="https://atlas.nomic.ai/cli-login">chaves de API do Atlas</a>. Requer reinicialização.Processamento de IncorporaçõesDispositivo usado para processar as incorporações. "Automático" utiliza a CPU. Requer reinicialização.ExibirMostrar FontesMostra as fontes usadas para cada resposta.Apenas para usuários avançadosAtenção: Apenas para usuários avançados.Valores muito grandes podem causar falhas no LocalDocs, respostas extremamente lentas ou nenhuma resposta. Em termos gerais, o {Número de Caracteres x Número de Trechos} é adicionado à janela de contexto do modelo. Consulte <a href="https://docs.gpt4all.io/gpt4all_desktop/localdocs.html">here</a> para mais informações.Tamanho do trecho de documento (caracteres)Número de caracteres por trecho de documento. Valores maiores aumentam a chance de respostas factuais, mas também tornam a geração mais lenta.Máximo de Trechos de Documento por PromptNúmero máximo de trechos de documentos a serem adicionados ao contexto do prompt. Valores maiores aumentam a chance de respostas factuais, mas também tornam a geração mais lenta.LocalDocsViewLocalDocsConverse com seus arquivos locais+ Adicionar ColeçãoERRO: O banco de dados do LocalDocs não é válido.Nenhuma Coleção InstaladaInstale uma coleção de documentos locais para começar a usar este recurso+ Adicionar Coleção de DocumentosMostra a visualização para adicionar modeloBarra de progresso de indexaçãoMostra o progresso da indexaçãoERROINDEXANDOINCORPORANDOREQUER ATUALIZAÇÃOPRONTOINSTALANDOIndexação em andamentoIncorporação em andamentoEsta coleção requer uma atualização após a mudança de versãoReindexa automaticamente após alterações na pastaInstalação em andamento%%n arquivo(s)%n arquivo(s)%n palavra(s)%n palavra(s)RemoverReconstruirReindexar esta pasta do zero. Esta operação é muito lenta e geralmente não é necessária.AtualizarAtualizar a coleção para a nova versão. Esta operação pode demorar.ModelList<ul><li>É necessária uma chave de API da OpenAI.</li><li>AVISO: Seus chats serão enviados para a OpenAI!</li><li>Sua chave de API será armazenada localmente</li><li>Ela será usada apenas para comunicação com a OpenAI</li><li>Você pode solicitar uma chave de API <a href="https://platform.openai.com/account/api-keys">aqui.</a></li><strong>Modelo ChatGPT GPT-3.5 Turbo da OpenAI</strong><br> %1<strong>Modelo ChatGPT GPT-4 da OpenAI</strong><br> %1 %2<strong>Modelo Mistral Tiny</strong><br> %1<strong>Modelo Mistral Small</strong><br> %1<strong>Modelo Mistral Medium</strong><br> %1<br><br><i>* Mesmo que você pague pelo ChatGPT-4 da OpenAI, isso não garante acesso à chave de API. Contate a OpenAI para mais informações.<ul><li>É necessária uma chave de API da Mistral.</li><li>AVISO: Seus chats serão enviados para a Mistral!</li><li>Sua chave de API será armazenada localmente</li><li>Ela será usada apenas para comunicação com a Mistral</li><li>Você pode solicitar uma chave de API <a href="https://console.mistral.ai/user/api-keys">aqui</a>.</li><strong>Criado por %1.</strong><br><ul><li>Publicado em %2.<li>Este modelo tem %3 curtidas.<li>Este modelo tem %4 downloads.<li>Mais informações podem ser encontradas <a href="https://huggingface.co/%5">aqui.</a></ul>ModelSettingsModeloConfigurações do ModeloClonarRemoverNomeArquivo do ModeloPrompt do SistemaPrefixado no início de cada conversa. Deve conter os tokens de enquadramento apropriados.Modelo de PromptModelo para cada prompt.Deve incluir "%1" para a entrada do usuário.Prompt para Nome do ChatPrompt usado para gerar automaticamente nomes de chats.Prompt de Sugestão de AcompanhamentoPrompt usado para gerar sugestões de perguntas.Tamanho do ContextoTamanho da Janela de Contexto.Máximo de tokens combinados (prompt + resposta) antes da perda de informações.
Usar mais contexto do que o modelo foi treinado pode gerar resultados ruins.
Obs.: Só entrará em vigor após recarregar o modelo.TemperaturaAleatoriedade das respostas. Quanto maior, mais variadas.Aumenta a chance de escolher tokens menos prováveis.
Obs.: Uma temperatura mais alta gera resultados mais criativos, mas menos previsíveis.Top-PAmostragem por núcleo. Menor valor, respostas mais previsíveis.Apenas tokens com probabilidade total até o valor de top_p serão escolhidos.
Obs.: Evita tokens muito improváveis.Min-PProbabilidade mínima do token. Quanto maior -> mais previsível.Define a probabilidade relativa mínima para um token ser considerado.Top-KNúmero de tokens considerados na amostragem.Serão escolhidos apenas os K tokens mais prováveis.Comprimento MáximoComprimento máximo da resposta, em tokens.Tamanho do Lote de ProcessamentoTokens processados por lote.Quantidade de tokens de prompt para processar de uma vez.
OBS.: Valores mais altos podem acelerar a leitura dos prompts, mas usarão mais RAM.Penalidade de RepetiçãoPenalidade de Repetição (1 para desativar).Tokens para penalizar repetiçãoNúmero de tokens anteriores usados para penalidade.Camadas na GPUCamadas Carregadas na GPU.Número de camadas do modelo carregadas na VRAM. Diminua se faltar VRAM ao carregar o modelo.
Valores menores aumentam o uso de CPU e RAM, e deixam a inferência mais lenta.
Obs.: Só entrará em vigor após recarregar o modelo.ModelsViewNenhum Modelo InstaladoInstale um modelo para começar a usar o GPT4All+ Adicionar ModeloMostra a visualização para adicionar modeloModelos InstaladosModelos de chat instalados localmenteArquivo do modeloArquivo do modelo a ser baixadoDescriçãoDescrição do arquivoCancelarRetomarParar/reiniciar/iniciar o downloadRemoverRemover modelo do sistema de arquivosInstalarInstalar modelo online<strong><font size="1"><a href="#error">Erro</a></strong></font><strong><font size="2">AVISO: Não recomendado para seu hardware. O modelo requer mais memória (%1 GB) do que seu sistema tem disponível (%2).</strong></font>%1 GB?Descreve um erro que ocorreu durante o downloadErro para hardware incompatívelBarra de progresso do downloadMostra o progresso do downloadVelocidade de downloadVelocidade de download em bytes/kilobytes/megabytes por segundoCalculando...Se o hash do arquivo está sendo calculadoIndicador de ocupadoExibido quando o hash do arquivo está sendo calculadoinserir $API_KEYTamanho do arquivoRAM necessáriaParâmetrosQuantTipoMyFancyLinkLink personalizadoUm link personalizadoMySettingsStackEscolha um diretórioMySettingsTabRestaurar Configurações PadrãoRestaura as configurações para o estado padrãoNetworkDialogContribuir com dados para o Datalake de código aberto GPT4All.Ao habilitar este recurso, você poderá participar do processo democrático de treinamento de um grande modelo de linguagem, contribuindo com dados para futuras melhorias do modelo.
Quando um modelo GPT4All responder a você e você tiver optado por participar, sua conversa será enviada para o Datalake de Código Aberto do GPT4All. Além disso, você pode curtir/não curtir a resposta. Se você não gostar de uma resposta, pode sugerir uma resposta alternativa. Esses dados serão coletados e agregados no Datalake do GPT4All.
OBS.: Ao ativar este recurso, você estará enviando seus dados para o Datalake de Código Aberto do GPT4All. Você não deve ter nenhuma expectativa de privacidade no chat quando este recurso estiver ativado. No entanto, você deve ter a expectativa de uma atribuição opcional, se desejar. Seus dados de chat estarão disponíveis para qualquer pessoa baixar e serão usados pela Nomic AI para melhorar os futuros modelos GPT4All. A Nomic AI manterá todas as informações de atribuição anexadas aos seus dados e você será creditado como colaborador em qualquer versão do modelo GPT4All que utilize seus dados!Termos de participaçãoDescrição do que acontece ao participarForneça um nome para atribuição (opcional)Atribuição (opcional)Fornecer atribuiçãoHabilitarAtivar participaçãoCancelarCancelar participaçãoNewVersionDialogAtualização disponívelAtualizar agoraBaixa e instala a última versão do GPT4AllPopupDialogExibe uma dica rápidaIndicador de processamentoVisível durante o processamentoQObjectPadrãoSettingsViewConfiguraçõesAcessar as configurações do aplicativoAplicativoModeloLocalDocsStartupDialogBem-vindo(a)!### Notas de lançamento
%1### Colaboradores
%2Notas de lançamentoNotas de lançamento desta versão### Opções para análise de uso anônimo e banco de dados
Ao habilitar esses recursos, você poderá participar do processo democrático de treinamento de um
grande modelo de linguagem, contribuindo com dados para futuras melhorias do modelo.
Quando um modelo GPT4All responder a você e você tiver optado por participar, sua conversa será enviada para o Datalake de
Código Aberto do GPT4All. Além disso, você pode curtir/não curtir a resposta. Se você não gostar de uma resposta,
pode sugerir uma resposta alternativa. Esses dados serão coletados e agregados no Datalake do GPT4All.
OBS.: Ao ativar este recurso, você estará enviando seus dados para o Datalake de Código Aberto do GPT4All.
Você não deve ter nenhuma expectativa de privacidade no chat quando este recurso estiver ativado. No entanto,
você deve ter a expectativa de uma atribuição opcional, se desejar. Seus dados de chat estarão disponíveis para
qualquer pessoa baixar e serão usados pela Nomic AI para melhorar os futuros modelos GPT4All. A Nomic AI manterá
todas as informações de atribuição anexadas aos seus dados e você será creditado como colaborador em qualquer
versão do modelo GPT4All que utilize seus dados!Termos de participaçãoDescrição do que acontece ao participarEnviar estatísticas de uso anônimasSimPermitir o envio de estatísticas de uso anônimasNãoRecusar envio de estatísticas de uso anônimasPermitir recusar envio de estatísticas de uso anônimasAceitar na redePermitir aceitação na redePermitir compartilhamento anônimo de chats no Datalake GPT4AllRecusar na redePermitir recusar compartilhamento anônimo de chats no Datalake GPT4AllSwitchModelDialog<b>Atenção:</b> Ao trocar o modelo a conversa atual será perdida. Continuar?ContinuarConfirma a troca do modeloCancelarThumbsDownDialogEditar resposta (opcional)Digite sua resposta...EnviarEnviarCancelarFecha a caixa de diálogo de respostamain<h3>Ocorreu um erro ao iniciar:</h3><br><i>"Hardware incompatível detectado."</i><br><br>Infelizmente, seu processador não atende aos requisitos mínimos para executar este programa. Especificamente, ele não possui suporte às instruções AVX, que são necessárias para executar modelos de linguagem grandes e modernos. A única solução, no momento, é atualizar seu hardware para um processador mais recente.<br><br>Para mais informações, consulte: <a href="https://pt.wikipedia.org/wiki/Advanced_Vector_Extensions">https://pt.wikipedia.org/wiki/Advanced_Vector_Extensions</a>GPT4All v%1<h3>Ocorreu um erro ao iniciar:</h3><br><i>"Não foi possível acessar o arquivo de configurações."</i><br><br>Infelizmente, algo está impedindo o programa de acessar o arquivo de configurações. Isso pode acontecer devido a permissões incorretas na pasta de configurações do aplicativo. Para obter ajuda, acesse nosso <a href="https://discord.gg/4M2QFmTt2k">canal no Discord</a>.Falha na conexão com o datalake.Salvando chats.Avisos de redepermitir compartilhamento de feedback/conversasTela inicialTela inicial do aplicativoInícioVisualização do ChatVisualização do chat para interagir com os modelosChatsModelosTela de modelos instaladosLocalDocsTela de configuração e uso de documentos locais do LocalDocsConfiguraçõesTela de configurações do aplicativoO datalake está ativadoUsando um modelo de redeModo servidor ativadoModelos instaladosExibe os modelos instalados