AddCollectionView ← Existing Collections ← Raccolte esistenti Add Document Collection Aggiungi raccolta documenti Add a folder containing plain text files, PDFs, or Markdown. Configure additional extensions in Settings. Aggiungi una cartella contenente file di testo semplice, PDF o Markdown. Configura estensioni aggiuntive in Settaggi. Please choose a directory Scegli una cartella Name Nome Collection name... Nome della raccolta... Name of the collection to add (Required) Nome della raccolta da aggiungere (Obbligatorio) Folder Cartella Folder path... Percorso cartella... Folder path to documents (Required) Percorso della cartella dei documenti (richiesto) Browse Esplora Create Collection Crea raccolta AddModelView ← Existing Models ← Modelli esistenti Explore Models Esplora modelli Discover and download models by keyword search... Scopri e scarica i modelli tramite ricerca per parole chiave... Text field for discovering and filtering downloadable models Campo di testo per scoprire e filtrare i modelli scaricabili Initiate model discovery and filtering Avvia rilevamento e filtraggio dei modelli Triggers discovery and filtering of models Attiva la scoperta e il filtraggio dei modelli Default Predefinito Likes Mi piace Downloads Scaricamenti Recent Recenti Asc Asc Desc Disc None Niente Searching · %1 Ricerca · %1 Sort by: %1 Ordina per: %1 Sort dir: %1 Direzione ordinamento: %1 Limit: %1 Limite: %1 Network error: could not retrieve %1 Errore di rete: impossibile recuperare %1 Busy indicator Indicatore di occupato Displayed when the models request is ongoing Visualizzato quando la richiesta dei modelli è in corso Model file File del modello Model file to be downloaded File del modello da scaricare Description Descrizione File description Descrizione del file Cancel Annulla Resume Riprendi Download Scarica Stop/restart/start the download Arresta/riavvia/avvia il download Remove Rimuovi Remove model from filesystem Rimuovi il modello dal sistema dei file Install Installa Install online model Installa il modello online <strong><font size="2">WARNING: Not recommended for your hardware. Model requires more memory (%1 GB) than your system has available (%2).</strong></font> <strong><font size="2">AVVERTENZA: non consigliato per il tuo hardware. Il modello richiede più memoria (%1 GB) di quella disponibile nel sistema (%2).</strong></font> ERROR: $API_KEY is empty. ERRORE: $API_KEY è vuoto. ERROR: $BASE_URL is empty. ERRORE: $BASE_URL non è valido. enter $BASE_URL inserisci $BASE_URL ERROR: $MODEL_NAME is empty. ERRORE: $MODEL_NAME è vuoto. enter $MODEL_NAME inserisci $MODEL_NAME %1 GB ? Describes an error that occurred when downloading Descrive un errore che si è verificato durante lo scaricamento <strong><font size="1"><a href="#error">Error</a></strong></font> <strong><font size="1"><a href="#error">Errore</a></strong></font> Error for incompatible hardware Errore per hardware incompatibile Download progressBar Barra di avanzamento dello scaricamento Shows the progress made in the download Mostra lo stato di avanzamento dello scaricamento Download speed Velocità di scaricamento Download speed in bytes/kilobytes/megabytes per second Velocità di scaricamento in byte/kilobyte/megabyte al secondo Calculating... Calcolo in corso... Whether the file hash is being calculated Se viene calcolato l'hash del file Displayed when the file hash is being calculated Visualizzato durante il calcolo dell'hash del file enter $API_KEY Inserire $API_KEY File size Dimensione del file RAM required RAM richiesta Parameters Parametri Quant Quant Type Tipo ApplicationSettings Application Applicazione Network dialog Dialogo di rete opt-in to share feedback/conversations aderisci per condividere feedback/conversazioni ERROR: Update system could not find the MaintenanceTool used<br> to check for updates!<br><br> Did you install this application using the online installer? If so,<br> the MaintenanceTool executable should be located one directory<br> above where this application resides on your filesystem.<br><br> If you can't start it manually, then I'm afraid you'll have to<br> reinstall. Error dialog Dialogo d'errore Application Settings Settaggi applicazione General Generale Theme Tema The application color scheme. La combinazione di colori dell'applicazione. Dark Scuro Light Chiaro LegacyDark Scuro Legacy Font Size Dimensioni del Font The size of text in the application. La dimensione del testo nell'applicazione. Small Piccolo Medium Medio Large Grande Language and Locale Lingua e settaggi locali The language and locale you wish to use. La lingua e i settaggi locali che vuoi utilizzare. System Locale Settaggi locali del sistema Device Dispositivo The compute device used for text generation. "Auto" uses Vulkan or Metal. Il dispositivo di calcolo utilizzato per la generazione del testo. "Auto" utilizza Vulkan o Metal. The compute device used for text generation. Il dispositivo di calcolo utilizzato per la generazione del testo. Application default Applicazione predefinita Default Model Modello predefinito The preferred model for new chats. Also used as the local server fallback. Il modello preferito per le nuove chat. Utilizzato anche come ripiego del server locale. Suggestion Mode Modalità suggerimento Generate suggested follow-up questions at the end of responses. Genera le domande di approfondimento suggerite alla fine delle risposte. When chatting with LocalDocs Quando chatti con LocalDocs Whenever possible Quando possibile Never Mai Download Path Percorso di scarico Where to store local models and the LocalDocs database. Dove archiviare i modelli locali e il database LocalDocs. Browse Esplora Choose where to save model files Scegli dove salvare i file del modello Enable Datalake Abilita Datalake Send chats and feedback to the GPT4All Open-Source Datalake. Invia chat e commenti al Datalake Open Source GPT4All. Advanced Avanzate CPU Threads Thread della CPU Tread CPU The number of CPU threads used for inference and embedding. Il numero di thread della CPU utilizzati per l'inferenza e l'incorporamento. Save Chat Context Salva il contesto della chat Save the chat model's state to disk for faster loading. WARNING: Uses ~2GB per chat. Salva lo stato del modello di chat su disco per un caricamento più rapido. ATTENZIONE: utilizza circa 2 GB per chat. Enable Local Server Abilita server locale Expose an OpenAI-Compatible server to localhost. WARNING: Results in increased resource usage. Esporre un server compatibile con OpenAI a localhost. ATTENZIONE: comporta un maggiore utilizzo delle risorse. API Server Port Porta del server API The port to use for the local server. Requires restart. La porta da utilizzare per il server locale. Richiede il riavvio. Check For Updates Controlla gli aggiornamenti Manually check for an update to GPT4All. Verifica manualmente l'aggiornamento di GPT4All. Updates Aggiornamenti Chat New Chat Nuova Chat Server Chat Chat del server ChatAPIWorker ERROR: Network error occurred while connecting to the API server ERRORE: si è verificato un errore di rete durante la connessione al server API ChatAPIWorker::handleFinished got HTTP Error %1 %2 ChatAPIWorker::handleFinished ha ricevuto l'errore HTTP %1 %2 ChatDrawer Drawer Cassetto Main navigation drawer Cassetto di navigazione principale + New Chat + Nuova Chat Create a new chat Crea una nuova chat Select the current chat or edit the chat when in edit mode Seleziona la chat corrente o modifica la chat in modalità modifica Edit chat name Modifica il nome della chat Save chat name Salva il nome della chat Delete chat Elimina chat Confirm chat deletion Conferma l'eliminazione della chat Cancel chat deletion Annulla l'eliminazione della chat List of chats Elenco delle chat List of chats in the drawer dialog Elenco delle chat nella finestra di dialogo del cassetto ChatListModel TODAY OGGI THIS WEEK QUESTA SETTIMANA THIS MONTH QUESTO MESE LAST SIX MONTHS ULTIMI SEI MESI THIS YEAR QUEST'ANNO LAST YEAR L'ANNO SCORSO ChatView <h3>Warning</h3><p>%1</p> <h3>Avviso</h3><p>%1</p> Switch model dialog Finestra di dialogo Cambia modello Warn the user if they switch models, then context will be erased Avvisa l'utente che se cambia modello, il contesto verrà cancellato Conversation copied to clipboard. Conversazione copiata negli appunti. Code copied to clipboard. Codice copiato negli appunti. Chat panel Pannello chat Chat panel with options Pannello chat con opzioni Reload the currently loaded model Ricarica il modello attualmente caricato Eject the currently loaded model Espelli il modello attualmente caricato No model installed. Nessun modello installato. Model loading error. Errore di caricamento del modello. Waiting for model... In attesa del modello... Switching context... Cambio contesto... Choose a model... Scegli un modello... Not found: %1 Non trovato: %1 The top item is the current model L'elemento in alto è il modello attuale LocalDocs Add documents Aggiungi documenti add collections of documents to the chat aggiungi raccolte di documenti alla chat Load the default model Carica il modello predefinito Loads the default model which can be changed in settings Carica il modello predefinito che può essere modificato nei settaggi No Model Installed Nessun modello installato GPT4All requires that you install at least one model to get started GPT4All richiede l'installazione di almeno un modello per iniziare Install a Model Installa un modello Shows the add model view Mostra la vista aggiungi modello Conversation with the model Conversazione con il modello prompt / response pairs from the conversation coppie prompt/risposta dalla conversazione GPT4All You Tu recalculating context ... ricalcolo contesto ... response stopped ... risposta interrotta ... processing ... elaborazione ... generating response ... generazione risposta ... generating questions ... generarzione domande ... Copy Copia Copy Message Copia messaggio Disable markdown Disabilita Markdown Enable markdown Abilita Markdown Thumbs up Mi piace Gives a thumbs up to the response Dà un mi piace alla risposta Thumbs down Non mi piace Opens thumbs down dialog Apre la finestra di dialogo "Non mi piace" Suggested follow-ups Approfondimenti suggeriti Erase and reset chat session Cancella e ripristina la sessione di chat Copy chat session to clipboard Copia la sessione di chat negli appunti Redo last chat response Riesegui l'ultima risposta della chat Stop generating Interrompi la generazione Stop the current response generation Arresta la generazione della risposta corrente Reloads the model Ricarica il modello <h3>Encountered an error loading model:</h3><br><i>"%1"</i><br><br>Model loading failures can happen for a variety of reasons, but the most common causes include a bad file format, an incomplete or corrupted download, the wrong file type, not enough system RAM or an incompatible model type. Here are some suggestions for resolving the problem:<br><ul><li>Ensure the model file has a compatible format and type<li>Check the model file is complete in the download folder<li>You can find the download folder in the settings dialog<li>If you've sideloaded the model ensure the file is not corrupt by checking md5sum<li>Read more about what models are supported in our <a href="https://docs.gpt4all.io/">documentation</a> for the gui<li>Check out our <a href="https://discord.gg/4M2QFmTt2k">discord channel</a> for help <h3>Si è verificato un errore durante il caricamento del modello:</h3><br><i>"%1"</i><br><br>Gli errori di caricamento del modello possono verificarsi per diversi motivi, ma le cause più comuni includono un formato di file non valido, un download incompleto o danneggiato, il tipo di file sbagliato, RAM di sistema insufficiente o un tipo di modello incompatibile. Ecco alcuni suggerimenti per risolvere il problema:<br><ul><li>Assicurati che il file del modello abbia un formato e un tipo compatibili<li>Verifica che il file del modello sia completo nella cartella di download<li>Puoi trovare la cartella di download nella finestra di dialogo dei settaggi<li>Se hai scaricato manualmente il modello, assicurati che il file non sia danneggiato controllando md5sum<li>Leggi ulteriori informazioni su quali modelli sono supportati nella nostra <a href="https://docs.gpt4all.io/ ">documentazione</a> per la GUI<li>Consulta il nostro <a href="https://discord.gg/4M2QFmTt2k">canale Discord</a> per assistenza Reload · %1 Ricarica · %1 Loading · %1 Caricamento · %1 Load · %1 (default) → Carica · %1 (predefinito) → restoring from text ... ripristino dal testo ... retrieving localdocs: %1 ... recupero documenti locali: %1 ... searching localdocs: %1 ... ricerca in documenti locali: %1 ... %n Source(s) %n Fonte %n Fonti Send a message... Manda un messaggio... Load a model to continue... Carica un modello per continuare... Send messages/prompts to the model Invia messaggi/prompt al modello Cut Taglia Paste Incolla Select All Seleziona tutto Send message Invia messaggio Sends the message/prompt contained in textfield to the model Invia il messaggio/prompt contenuto nel campo di testo al modello CollectionsDrawer Warning: searching collections while indexing can return incomplete results Avviso: la ricerca nelle raccolte durante l'indicizzazione può restituire risultati incompleti %n file(s) %n file %n file %n word(s) %n parola %n parole Updating In aggiornamento + Add Docs + Aggiungi documenti Select a collection to make it available to the chat model. Seleziona una raccolta per renderla disponibile al modello in chat. Download Model "%1" is installed successfully. Il modello "%1" è stato installato correttamente. ERROR: $MODEL_NAME is empty. ERRORE: $MODEL_NAME è vuoto. ERROR: $API_KEY is empty. ERRORE: $API_KEY è vuoto. ERROR: $BASE_URL is invalid. ERRORE: $BASE_URL non è valido. ERROR: Model "%1 (%2)" is conflict. ERRORE: il modello "%1 (%2)" è in conflitto. Model "%1 (%2)" is installed successfully. Il modello "%1 (%2)" è stato installato correttamente. Model "%1" is removed. Il modello "%1" è stato rimosso. HomeView Welcome to GPT4All Benvenuto in GPT4All The privacy-first LLM chat application L'applicazione di chat LLM che mette al primo posto la privacy Start chatting Inizia a chattare Start Chatting Inizia a Chattare Chat with any LLM Chatta con qualsiasi LLM LocalDocs Chat with your local files Chatta con i tuoi file locali Find Models Trova modelli Explore and download models Esplora e scarica i modelli Latest news Ultime notizie Latest news from GPT4All Ultime notizie da GPT4All Release Notes Note di rilascio Documentation Documentazione Discord X (Twitter) Github nomic.ai nomic.ai Subscribe to Newsletter Iscriviti alla Newsletter LocalDocsSettings LocalDocs LocalDocs Settings Settaggi LocalDocs Indexing Indicizzazione Allowed File Extensions Estensioni di file consentite Comma-separated list. LocalDocs will only attempt to process files with these extensions. Elenco separato da virgole. LocalDocs tenterà di elaborare solo file con queste estensioni. Embedding Questo termine si dovrebbe tradurre come "Incorporamento". This term has been translated in other applications like A1111 and InvokeAI as "Incorporamento" Incorporamento Use Nomic Embed API Utilizza l'API di incorporamento Nomic Embed Embed documents using the fast Nomic API instead of a private local model. Requires restart. Incorpora documenti utilizzando la veloce API di Nomic invece di un modello locale privato. Richiede il riavvio. Nomic API Key Chiave API di Nomic API key to use for Nomic Embed. Get one from the Atlas <a href="https://atlas.nomic.ai/cli-login">API keys page</a>. Requires restart. Chiave API da utilizzare per Nomic Embed. Ottienine una dalla <a href="https://atlas.nomic.ai/cli-login">pagina delle chiavi API</a> di Atlas. Richiede il riavvio. Embeddings Device Dispositivo per incorporamenti The compute device used for embeddings. Requires restart. Il dispositivo di calcolo utilizzato per gli incorporamenti. Richiede il riavvio. Application default Applicazione predefinita Display Mostra Show Sources Mostra le fonti Display the sources used for each response. Visualizza le fonti utilizzate per ciascuna risposta. Advanced Avanzate Warning: Advanced usage only. Avvertenza: solo per uso avanzato. Values too large may cause localdocs failure, extremely slow responses or failure to respond at all. Roughly speaking, the {N chars x N snippets} are added to the model's context window. More info <a href="https://docs.gpt4all.io/gpt4all_desktop/localdocs.html">here</a>. Valori troppo grandi possono causare errori di Localdocs, risposte estremamente lente o l'impossibilità di rispondere. In parole povere, {N caratteri x N frammenti} vengono aggiunti alla finestra di contesto del modello. Maggiori informazioni <a href="https://docs.gpt4all.io/gpt4all_desktop/localdocs.html">qui</a>. Document snippet size (characters) Dimensioni del frammento di documento (caratteri) Number of characters per document snippet. Larger numbers increase likelihood of factual responses, but also result in slower generation. Numero di caratteri per frammento di documento. Numeri più grandi aumentano la probabilità di risposte basate sui fatti, ma comportano anche una generazione più lenta. Max document snippets per prompt Numero massimo di frammenti di documento per prompt Max best N matches of retrieved document snippets to add to the context for prompt. Larger numbers increase likelihood of factual responses, but also result in slower generation. Numero massimo di N corrispondenze migliori di frammenti di documento recuperati da aggiungere al contesto del prompt. Numeri più grandi aumentano la probabilità di risposte basate sui fatti, ma comportano anche una generazione più lenta. LocalDocsView LocalDocs Chat with your local files Chatta con i tuoi file locali + Add Collection + Aggiungi raccolta ERROR: The LocalDocs database is not valid. ERRORE: il database di LocalDocs non è valido. <h3>ERROR: The LocalDocs database cannot be accessed or is not valid.</h3><br><i>Note: You will need to restart after trying any of the following suggested fixes.</i><br><ul><li>Make sure that the folder set as <b>Download Path</b> exists on the file system.</li><li>Check ownership as well as read and write permissions of the <b>Download Path</b>.</li><li>If there is a <b>localdocs_v2.db</b> file, check its ownership and read/write permissions, too.</li></ul><br>If the problem persists and there are any 'localdocs_v*.db' files present, as a last resort you can<br>try backing them up and removing them. You will have to recreate your collections, however. <h3>ERRORE: Impossibile accedere al database LocalDocs o non è valido.</h3><br><i>Nota: sarà necessario riavviare dopo aver provato una delle seguenti soluzioni suggerite.</i><br><ul><li>Assicurati che la cartella impostata come <b>Percorso di download</b> esista nel file system.</li><li>Controlla la proprietà e i permessi di lettura e scrittura del <b>Percorso di download</b>.</li><li>Se è presente un file <b>localdocs_v2.db</b>, controlla anche la sua proprietà e i permessi di lettura/scrittura.</li></ul><br>Se il problema persiste e sono presenti file 'localdocs_v*.db', come ultima risorsa puoi<br>provare a eseguirne il backup e a rimuoverli. Tuttavia, dovrai ricreare le tue raccolte. No Collections Installed Nessuna raccolta installata Install a collection of local documents to get started using this feature Installa una raccolta di documenti locali per iniziare a utilizzare questa funzionalità + Add Doc Collection + Aggiungi raccolta di documenti Shows the add model view Mostra la vista aggiungi modello Indexing progressBar Barra di avanzamento indicizzazione Shows the progress made in the indexing Mostra lo stato di avanzamento dell'indicizzazione ERROR ERRORE INDEXING INDICIZZAZIONE EMBEDDING INCORPORAMENTO REQUIRES UPDATE RICHIEDE AGGIORNAMENTO READY PRONTO INSTALLING INSTALLAZIONE Indexing in progress Indicizzazione in corso Embedding in progress Incorporamento in corso This collection requires an update after version change Questa raccolta richiede un aggiornamento dopo il cambio di versione Automatically reindexes upon changes to the folder Reindicizza automaticamente in caso di modifiche alla cartella Installation in progress Installazione in corso % % %n file(s) %n file %n file %n word(s) %n parola %n parole Remove Rimuovi Rebuild Ricostruisci Reindex this folder from scratch. This is slow and usually not needed. Reindicizzare questa cartella da zero. Lento e di solito non necessario. Update Aggiorna Update the collection to the new version. This is a slow operation. Aggiorna la raccolta alla nuova versione. Questa è un'operazione lenta. ModelList <ul><li>Requires personal OpenAI API key.</li><li>WARNING: Will send your chats to OpenAI!</li><li>Your API key will be stored on disk</li><li>Will only be used to communicate with OpenAI</li><li>You can apply for an API key <a href="https://platform.openai.com/account/api-keys">here.</a></li> <ul><li>Richiede una chiave API OpenAI personale.</li><li>ATTENZIONE: invierà le tue chat a OpenAI!</li><li>La tua chiave API verrà archiviata su disco</li><li> Verrà utilizzato solo per comunicare con OpenAI</li><li>Puoi richiedere una chiave API <a href="https://platform.openai.com/account/api-keys">qui.</a> </li> <strong>OpenAI's ChatGPT model GPT-3.5 Turbo</strong><br> %1 <strong>OpenAI's ChatGPT model GPT-4</strong><br> %1 %2 <strong>Mistral Tiny model</strong><br> %1 <strong>Mistral Small model</strong><br> %1 <strong>Mistral Medium model</strong><br> %1 <br><br><i>* Even if you pay OpenAI for ChatGPT-4 this does not guarantee API key access. Contact OpenAI for more info. <br><br><i>* Anche se paghi OpenAI per ChatGPT-4 questo non garantisce l'accesso alla chiave API. Contatta OpenAI per maggiori informazioni. %1 (%2) %1 (%2) <strong>OpenAI-Compatible API Model</strong><br><ul><li>API Key: %1</li><li>Base URL: %2</li><li>Model Name: %3</li></ul> <strong>Modello API compatibile con OpenAI</strong><br><ul><li>Chiave API: %1</li><li>URL di base: %2</li><li>Nome modello: %3</li></ul> <ul><li>Requires personal Mistral API key.</li><li>WARNING: Will send your chats to Mistral!</li><li>Your API key will be stored on disk</li><li>Will only be used to communicate with Mistral</li><li>You can apply for an API key <a href="https://console.mistral.ai/user/api-keys">here</a>.</li> <ul><li>Richiede una chiave API Mistral personale.</li><li>ATTENZIONE: invierà le tue chat a Mistral!</li><li>La tua chiave API verrà archiviata su disco</li><li> Verrà utilizzato solo per comunicare con Mistral</li><li>Puoi richiedere una chiave API <a href="https://console.mistral.ai/user/api-keys">qui</a>. </li> <ul><li>Requires personal API key and the API base URL.</li><li>WARNING: Will send your chats to the OpenAI-compatible API Server you specified!</li><li>Your API key will be stored on disk</li><li>Will only be used to communicate with the OpenAI-compatible API Server</li> <ul><li>Richiede una chiave API personale e l'URL di base dell'API.</li><li>ATTENZIONE: invierà le tue chat al server API compatibile con OpenAI che hai specificato!</li><li>La tua chiave API verrà archiviata su disco</li><li>Verrà utilizzata solo per comunicare con il server API compatibile con OpenAI</li> <strong>Connect to OpenAI-compatible API server</strong><br> %1 <strong>Connetti al server API compatibile con OpenAI</strong><br> %1 <strong>Created by %1.</strong><br><ul><li>Published on %2.<li>This model has %3 likes.<li>This model has %4 downloads.<li>More info can be found <a href="https://huggingface.co/%5">here.</a></ul> <strong>Creato da %1.</strong><br><ul><li>Pubblicato il %2.<li>Questo modello ha %3 Mi piace.<li>Questo modello ha %4 download.<li>Altro informazioni possono essere trovate <a href="https://huggingface.co/%5">qui.</a></ul> ModelSettings Model Modello Model Settings Settaggi modello Clone Clona Remove Rimuovi Name Nome Model File File del modello System Prompt Prompt di sistema Prefixed at the beginning of every conversation. Must contain the appropriate framing tokens. Prefisso all'inizio di ogni conversazione. Deve contenere i token di inquadramento appropriati. Prompt Template Schema del prompt The template that wraps every prompt. Lo schema che incorpora ogni prompt. Must contain the string "%1" to be replaced with the user's input. Deve contenere la stringa "%1" da sostituire con l'input dell'utente. Chat Name Prompt Prompt del nome della chat Prompt used to automatically generate chat names. Prompt utilizzato per generare automaticamente nomi di chat. Suggested FollowUp Prompt Prompt di approfondimento suggerito Prompt used to generate suggested follow-up questions. Prompt utilizzato per generare le domande di approfondimento suggerite. Context Length Lunghezza del contesto Number of input and output tokens the model sees. Numero di token di input e output visualizzati dal modello. Maximum combined prompt/response tokens before information is lost. Using more context than the model was trained on will yield poor results. NOTE: Does not take effect until you reload the model. Numero massimo di token di prompt/risposta combinati prima che le informazioni vengano perse. L'utilizzo di un contesto maggiore rispetto a quello su cui è stato addestrato il modello produrrà scarsi risultati. NOTA: non ha effetto finché non si ricarica il modello. Temperature Temperatura Randomness of model output. Higher -> more variation. Casualità dell'uscita del modello. Più alto -> più variazione. Temperature increases the chances of choosing less likely tokens. NOTE: Higher temperature gives more creative but less predictable outputs. La temperatura aumenta le possibilità di scegliere token meno probabili. NOTA: una temperatura più elevata offre risultati più creativi ma meno prevedibili. Top-P Nucleus Sampling factor. Lower -> more predictable. Fattore di campionamento del nucleo. Inferiore -> più prevedibile. Only the most likely tokens up to a total probability of top_p can be chosen. NOTE: Prevents choosing highly unlikely tokens. Possono essere scelti solo i token più probabili fino ad una probabilità totale di top_p. NOTA: impedisce la scelta di token altamente improbabili. Min-P Minimum token probability. Higher -> more predictable. Probabilità minima del token. Più alto -> più prevedibile. Sets the minimum relative probability for a token to be considered. Imposta la probabilità relativa minima che un token venga considerato. Top-K Size of selection pool for tokens. Dimensione del pool di selezione per i token. Only the top K most likely tokens will be chosen from. Solo i token Top-K più probabili verranno scelti. Max Length Lunghezza massima Maximum response length, in tokens. Lunghezza massima della risposta, in token. Prompt Batch Size Dimensioni del lotto di prompt The batch size used for prompt processing. La dimensione del lotto usata per l'elaborazione dei prompt. Amount of prompt tokens to process at once. NOTE: Higher values can speed up reading prompts but will use more RAM. Quantità di token del prompt da elaborare contemporaneamente. NOTA: valori più alti possono velocizzare la lettura dei prompt ma utilizzeranno più RAM. Repeat Penalty Penalità di ripetizione Repetition penalty factor. Set to 1 to disable. Fattore di penalità di ripetizione. Impostare su 1 per disabilitare. Repeat Penalty Tokens Token di penalità ripetizione Number of previous tokens used for penalty. Numero di token precedenti utilizzati per la penalità. GPU Layers Livelli GPU Number of model layers to load into VRAM. Numero di livelli del modello da caricare nella VRAM. How many model layers to load into VRAM. Decrease this if GPT4All runs out of VRAM while loading this model. Lower values increase CPU load and RAM usage, and make inference slower. NOTE: Does not take effect until you reload the model. Quanti livelli del modello caricare nella VRAM. Diminuirlo se GPT4All esaurisce la VRAM durante il caricamento di questo modello. Valori più bassi aumentano il carico della CPU e l'utilizzo della RAM e rallentano l'inferenza. NOTA: non ha effetto finché non si ricarica il modello. ModelsView No Models Installed Nessun modello installato Install a model to get started using GPT4All Installa un modello per iniziare a utilizzare GPT4All + Add Model + Aggiungi Modello Shows the add model view Mostra la vista aggiungi modello Installed Models Modelli installati Locally installed chat models Modelli per chat installati localmente Model file File del modello Model file to be downloaded File del modello da scaricare Description Descrizione File description Descrizione del file Cancel Annulla Resume Riprendi Stop/restart/start the download Arresta/riavvia/avvia il download Remove Rimuovi Remove model from filesystem Rimuovi il modello dal sistema dei file Install Installa Install online model Installa il modello online <strong><font size="1"><a href="#error">Error</a></strong></font> <strong><font size="1"><a href="#error">Errore</a></strong></font> <strong><font size="2">WARNING: Not recommended for your hardware. Model requires more memory (%1 GB) than your system has available (%2).</strong></font> <strong><font size="2">AVVISO: non consigliato per il tuo hardware. Il modello richiede più memoria (%1 GB) di quella disponibile nel sistema (%2).</strong></font> ERROR: $API_KEY is empty. ERRORE: $API_KEY è vuoto. ERROR: $BASE_URL is empty. ERRORE: $BASE_URL non è valido. enter $BASE_URL inserisci $BASE_URL ERROR: $MODEL_NAME is empty. ERRORE: $MODEL_NAME è vuoto. enter $MODEL_NAME inserisci $MODEL_NAME %1 GB ? Describes an error that occurred when downloading Descrive un errore che si è verificato durante lo scaricamento Error for incompatible hardware Errore per hardware incompatibile Download progressBar Barra di avanzamento dello scaricamento Shows the progress made in the download Mostra lo stato di avanzamento dello scaricamento Download speed Velocità di scaricamento Download speed in bytes/kilobytes/megabytes per second Velocità di scaricamento in byte/kilobyte/megabyte al secondo Calculating... Calcolo in corso... Whether the file hash is being calculated Se viene calcolato l'hash del file Busy indicator Indicatore di occupato Displayed when the file hash is being calculated Visualizzato durante il calcolo dell'hash del file enter $API_KEY Inserire $API_KEY File size Dimensione del file RAM required RAM richiesta Parameters Parametri Quant Quant Type Tipo MyFancyLink Fancy link Mio link A stylized link Un link d'esempio MySettingsStack Please choose a directory Scegli una cartella MySettingsTab Restore Defaults Riprista i valori predefiniti Restores settings dialog to a default state Ripristina la finestra di dialogo dei settaggi a uno stato predefinito NetworkDialog Contribute data to the GPT4All Opensource Datalake. Contribuisci con i tuoi dati al Datalake Open Source di GPT4All. By enabling this feature, you will be able to participate in the democratic process of training a large language model by contributing data for future model improvements. When a GPT4All model responds to you and you have opted-in, your conversation will be sent to the GPT4All Open Source Datalake. Additionally, you can like/dislike its response. If you dislike a response, you can suggest an alternative response. This data will be collected and aggregated in the GPT4All Datalake. NOTE: By turning on this feature, you will be sending your data to the GPT4All Open Source Datalake. You should have no expectation of chat privacy when this feature is enabled. You should; however, have an expectation of an optional attribution if you wish. Your chat data will be openly available for anyone to download and will be used by Nomic AI to improve future GPT4All models. Nomic AI will retain all attribution information attached to your data and you will be credited as a contributor to any GPT4All model release that uses your data! Abilitando questa funzionalità, potrai partecipare al processo democratico di addestramento di un modello linguistico di grandi dimensioni fornendo dati per futuri miglioramenti del modello. Quando un modello di GPT4All ti risponde e tu hai aderito, la tua conversazione verrà inviata al Datalake Open Source di GPT4All. Inoltre, puoi mettere mi piace/non mi piace alla sua risposta. Se non ti piace una risposta, puoi suggerirne una alternativa. Questi dati verranno raccolti e aggregati nel Datalake di GPT4All. NOTA: attivando questa funzione, invierai i tuoi dati al Datalake Open Source di GPT4All. Non dovresti avere aspettative sulla privacy della chat quando questa funzione è abilitata. Dovresti, tuttavia, aspettarti un'attribuzione facoltativa, se lo desideri. I tuoi dati di chat saranno liberamente disponibili per essere scaricati da chiunque e verranno utilizzati da Nomic AI per migliorare i futuri modelli GPT4All. Nomic AI conserverà tutte le informazioni di attribuzione allegate ai tuoi dati e verrai accreditato come collaboratore a qualsiasi versione del modello GPT4All che utilizza i tuoi dati! Terms for opt-in Termini per l'adesione Describes what will happen when you opt-in Descrive cosa accadrà quando effettuerai l'adesione Please provide a name for attribution (optional) Fornisci un nome per l'attribuzione (facoltativo) Attribution (optional) Attribuzione (facoltativo) Provide attribution Fornire attribuzione Enable Abilita Enable opt-in Abilita l'adesione Cancel Annulla Cancel opt-in Annulla l'adesione NewVersionDialog New version is available Nuova versione disponibile Update Aggiorna Update to new version Aggiorna alla nuova versione PopupDialog Reveals a shortlived help balloon Rivela un messaggio di aiuto di breve durata Busy indicator Indicatore di occupato Displayed when the popup is showing busy Visualizzato quando la finestra a comparsa risulta occupata SettingsView Settings Settaggi Contains various application settings Contiene vari settaggi dell'applicazione Application Applicazione Model Modello LocalDocs StartupDialog Welcome! Benvenuto! ### Release notes %1### Contributors %2 ### Note di rilascio %1### Contributori %2 Release notes Note di rilascio Release notes for this version Note di rilascio per questa versione ### Opt-ins for anonymous usage analytics and datalake By enabling these features, you will be able to participate in the democratic process of training a large language model by contributing data for future model improvements. When a GPT4All model responds to you and you have opted-in, your conversation will be sent to the GPT4All Open Source Datalake. Additionally, you can like/dislike its response. If you dislike a response, you can suggest an alternative response. This data will be collected and aggregated in the GPT4All Datalake. NOTE: By turning on this feature, you will be sending your data to the GPT4All Open Source Datalake. You should have no expectation of chat privacy when this feature is enabled. You should; however, have an expectation of an optional attribution if you wish. Your chat data will be openly available for anyone to download and will be used by Nomic AI to improve future GPT4All models. Nomic AI will retain all attribution information attached to your data and you will be credited as a contributor to any GPT4All model release that uses your data! ### Abilitazioni per analisi di utilizzo anonime e datalake Abilitando questa funzionalità, potrai partecipare al processo democratico di addestramento di un modello linguistico di grandi dimensioni fornendo dati per futuri miglioramenti del modello. Quando un modello di GPT4All ti risponde e tu hai aderito, la tua conversazione verrà inviata al Datalake Open Source di GPT4All. Inoltre, puoi mettere mi piace/non mi piace alla sua risposta. Se non ti piace una risposta, puoi suggerirne una alternativa. Questi dati verranno raccolti e aggregati nel Datalake di GPT4All. NOTA: attivando questa funzione, invierai i tuoi dati al Datalake Open Source di GPT4All. Non dovresti avere aspettative sulla privacy della chat quando questa funzione è abilitata. Dovresti, tuttavia, aspettarti un'attribuzione facoltativa, se lo desideri, . I tuoi dati di chat saranno liberamente disponibili per essere scaricati da chiunque e verranno utilizzati da Nomic AI per migliorare i futuri modelli GPT4All. Nomic AI conserverà tutte le informazioni di attribuzione allegate ai tuoi dati e verrai accreditato come collaboratore a qualsiasi versione del modello GPT4All che utilizza i tuoi dati! Terms for opt-in Termini per l'adesione Describes what will happen when you opt-in Descrive cosa accadrà quando effettuerai l'adesione Opt-in for anonymous usage statistics Attiva le statistiche di utilizzo anonime Yes Si Allow opt-in for anonymous usage statistics Consenti l'attivazione di statistiche di utilizzo anonime No No Opt-out for anonymous usage statistics Disattiva le statistiche di utilizzo anonime Allow opt-out for anonymous usage statistics Consenti la disattivazione per le statistiche di utilizzo anonime Opt-in for network Aderisci per la rete Allow opt-in for network Consenti l'adesione per la rete Allow opt-in anonymous sharing of chats to the GPT4All Datalake Consenti la condivisione anonima delle chat su GPT4All Datalake Opt-out for network Disattiva per la rete Allow opt-out anonymous sharing of chats to the GPT4All Datalake Consenti la non adesione alla condivisione anonima delle chat nel GPT4All Datalake SwitchModelDialog <b>Warning:</b> changing the model will erase the current conversation. Do you wish to continue? <b>Avviso:</b> la modifica del modello cancellerà la conversazione corrente. Vuoi continuare? Continue Continua Continue with model loading Continuare con il caricamento del modello Cancel Annulla ThumbsDownDialog Please edit the text below to provide a better response. (optional) Modifica il testo seguente per fornire una risposta migliore. (opzionale) Please provide a better response... Si prega di fornire una risposta migliore... Submit Invia Submits the user's response Invia la risposta dell'utente Cancel Annulla Closes the response dialog Chiude la finestra di dialogo della risposta main <h3>Encountered an error starting up:</h3><br><i>"Incompatible hardware detected."</i><br><br>Unfortunately, your CPU does not meet the minimal requirements to run this program. In particular, it does not support AVX intrinsics which this program requires to successfully run a modern large language model. The only solution at this time is to upgrade your hardware to a more modern CPU.<br><br>See here for more information: <a href="https://en.wikipedia.org/wiki/Advanced_Vector_Extensions">https://en.wikipedia.org/wiki/Advanced_Vector_Extensions</a> <h3>Si è verificato un errore all'avvio:</h3><br><i>"Rilevato hardware incompatibile."</i><br><br>Sfortunatamente, la tua CPU non soddisfa i requisiti minimi per eseguire questo programma. In particolare, non supporta gli elementi intrinseci AVX richiesti da questo programma per eseguire con successo un modello linguistico moderno e di grandi dimensioni. L'unica soluzione in questo momento è aggiornare il tuo hardware con una CPU più moderna.<br><br>Vedi qui per ulteriori informazioni: <a href="https://en.wikipedia.org/wiki/Advanced_Vector_Extensions">https ://en.wikipedia.org/wiki/Advanced_Vector_Extensions</a> GPT4All v%1 <h3>Encountered an error starting up:</h3><br><i>"Inability to access settings file."</i><br><br>Unfortunately, something is preventing the program from accessing the settings file. This could be caused by incorrect permissions in the local app config directory where the settings file is located. Check out our <a href="https://discord.gg/4M2QFmTt2k">discord channel</a> for help. <h3>Si è verificato un errore all'avvio:</h3><br><i>"Impossibile accedere al file dei settaggi."</i><br><br>Sfortunatamente, qualcosa impedisce al programma di accedere al file dei settaggi. Ciò potrebbe essere causato da autorizzazioni errate nella cartella di configurazione locale dell'app in cui si trova il file dei settaggi. Dai un'occhiata al nostro <a href="https://discord.gg/4M2QFmTt2k">canale Discord</a> per ricevere assistenza. Connection to datalake failed. La connessione al Datalake non è riuscita. Saving chats. Salvataggio delle chat. Network dialog Dialogo di rete opt-in to share feedback/conversations aderisci per condividere feedback/conversazioni Home view Vista iniziale Home view of application Vista iniziale dell'applicazione Home Inizia Chat view Vista chat Chat view to interact with models Vista chat per interagire con i modelli Chats Chat Models Modelli Models view for installed models Vista modelli per i modelli installati LocalDocs LocalDocs view to configure and use local docs Vista LocalDocs per configurare e utilizzare i documenti locali Settings Settaggi Settings view for application configuration Vista dei settaggi per la configurazione dell'applicazione The datalake is enabled Il Datalake è abilitato Using a network model Utilizzando un modello di rete Server mode is enabled La modalità server è abilitata Installed models Modelli installati View of installed models Vista dei modelli installati