From 3da7800eb668d0509bdc5dff1c2f9ff783fac758 Mon Sep 17 00:00:00 2001 From: Riccardo Giovanetti <29801031+Harvester62@users.noreply.github.com> Date: Fri, 19 Jul 2024 22:35:37 +0200 Subject: [PATCH] Create gpt4all_it.ts (#2700) Created the localization file for the Italian language Signed-off-by: Riccardo Giovanetti --- gpt4all-chat/translations/gpt4all_it.ts | 2747 +++++++++++++++++++++++ 1 file changed, 2747 insertions(+) create mode 100644 gpt4all-chat/translations/gpt4all_it.ts diff --git a/gpt4all-chat/translations/gpt4all_it.ts b/gpt4all-chat/translations/gpt4all_it.ts new file mode 100644 index 00000000..3b09b115 --- /dev/null +++ b/gpt4all-chat/translations/gpt4all_it.ts @@ -0,0 +1,2747 @@ + + + + + AddCollectionView + + + + ← Existing Collections + ← Raccolte esistenti + + + + + Add Document Collection + Aggiungi raccolta documenti + + + + + Add a folder containing plain text files, PDFs, or Markdown. Configure additional extensions in Settings. + Aggiungi una cartella contenente file di testo semplice, PDF o Markdown. Configura estensioni aggiuntive in Impostazioni. + + + + + Please choose a directory + Scegli una cartella + + + + + Name + Nome + + + + + Collection name... + Nome della raccolta... + + + + + Name of the collection to add (Required) + Nome della raccolta da aggiungere (Obbligatorio) + + + + + Folder + Cartella + + + + + Folder path... + Percorso cartella... + + + + + Folder path to documents (Required) + Percorso della cartella dei documenti (richiesto) + + + + + Browse + Esplora + + + + + Create Collection + Crea raccolta + + + + AddModelView + + + + ← Existing Models + ← Modelli esistenti + + + + + Explore Models + Esplora modelli + + + + + Discover and download models by keyword search... + Scopri e scarica i modelli tramite ricerca per parole chiave... + + + + + Text field for discovering and filtering downloadable models + Campo di testo per scoprire e filtrare i modelli scaricabili + + + + + Initiate model discovery and filtering + Avvia rilevamento e filtraggio dei modelli + + + + + Triggers discovery and filtering of models + Attiva la scoperta e il filtraggio dei modelli + + + + + Default + Predefinito + + + + + Likes + Mi piace + + + + + Downloads + Scaricamenti + + + + + Recent + Recenti + + + + + Asc + Asc + + + + + Desc + Disc + + + + + None + Niente + + + + + Searching · %1 + Ricerca · %1 + + + + + Sort by: %1 + Ordina per: %1 + + + + + Sort dir: %1 + Direzione ordinamento: %1 + + + + + Limit: %1 + Limite: %1 + + + + + Network error: could not retrieve %1 + Errore di rete: impossibile recuperare %1 + + + + + + + Busy indicator + Indicatore di occupato + + + + + Displayed when the models request is ongoing + Visualizzato quando la richiesta dei modelli è in corso + + + + + Model file + File del modello + + + + + Model file to be downloaded + File del modello da scaricare + + + + + Description + Descrizione + + + + + File description + Descrizione del file + + + + + Cancel + Annulla + + + + + Resume + Riprendi + + + + + Download + Scarica + + + + + Stop/restart/start the download + Arresta/riavvia/avvia il download + + + + + Remove + Rimuovi + + + + + Remove model from filesystem + Rimuovi il modello dal sistema dei file + + + + + + + Install + Installa + + + + + Install online model + Installa il modello online + + + + + <strong><font size="2">WARNING: Not recommended for your hardware. Model requires more memory (%1 GB) than your system has available (%2).</strong></font> + <strong><font size="2">AVVERTENZA: non consigliato per il tuo hardware. Il modello richiede più memoria (%1 GB) di quella disponibile nel sistema (%2).</strong></font> + + + + + %1 GB + + + + + + + + ? + + + + + + Describes an error that occurred when downloading + Descrive un errore che si è verificato durante lo scaricamento + + + + + <strong><font size="1"><a href="#error">Error</a></strong></font> + <strong><font size="1"><a href="#error">Errore</a></strong></font> + + + + + Error for incompatible hardware + Errore per hardware incompatibile + + + + + Download progressBar + barra di avanzamento dello scaricamento + + + + + Shows the progress made in the download + Mostra lo stato di avanzamento dello scaricamento + + + + + Download speed + Velocità di scaricamento + + + + + Download speed in bytes/kilobytes/megabytes per second + Velocità di scaricamento in byte/kilobyte/megabyte al secondo + + + + + Calculating... + Calcolo in corso... + + + + + + + Whether the file hash is being calculated + Se viene calcolato l'hash del file + + + + + Displayed when the file hash is being calculated + Visualizzato durante il calcolo dell'hash del file + + + + + enter $API_KEY + Inserire $API_KEY + + + + + File size + Dimensione del file + + + + + RAM required + RAM richiesta + + + + + Parameters + Parametri + + + + + Quant + Quant + + + + + Type + Tipo + + + + ApplicationSettings + + + + Application + Applicazione + + + + + Network dialog + Dialogo di rete + + + + + opt-in to share feedback/conversations + aderisci per condividere feedback/conversazioni + + + + + ERROR: Update system could not find the MaintenanceTool used<br> + to check for updates!<br><br> + Did you install this application using the online installer? If so,<br> + the MaintenanceTool executable should be located one directory<br> + above where this application resides on your filesystem.<br><br> + If you can't start it manually, then I'm afraid you'll have to<br> + reinstall. + + + + + + Error dialog + Dialogo d'errore + + + + + Application Settings + Impostazioni applicazione + + + + + General + Generale + + + + + Theme + Tema + + + + + The application color scheme. + La combinazione di colori dell'applicazione. + + + + + Dark + Scuro + + + + + Light + Chiaro + + + + + LegacyDark + Scuro Legacy + + + + + Font Size + Dimensioni del Font + + + + + The size of text in the application. + La dimensione del testo nell'applicazione. + + + + + Device + Dispositivo + + + + + The compute device used for text generation. "Auto" uses Vulkan or Metal. + Il dispositivo di calcolo utilizzato per la generazione del testo. "Auto" utilizza Vulkan o Metal. + + + + + Default Model + Modello predefinito + + + + + The preferred model for new chats. Also used as the local server fallback. + Il modello preferito per le nuove chat. Utilizzato anche come ripiego del server locale. + + + + + Suggestion Mode + Modalità suggerimento + + + + + Generate suggested follow-up questions at the end of responses. + Genera domande di approfondimento suggerite alla fine delle risposte. + + + + + When chatting with LocalDocs + Quando chatti con LocalDocs + + + + + Whenever possible + Quando possibile + + + + + Never + Mai + + + + + Download Path + Percorso di scarico + + + + + Where to store local models and the LocalDocs database. + Dove archiviare i modelli locali e il database LocalDocs. + + + + + Browse + Esplora + + + + + Choose where to save model files + Scegli dove salvare i file del modello + + + + + Enable Datalake + Abilita Datalake + + + + + Send chats and feedback to the GPT4All Open-Source Datalake. + Invia chat e commenti al Datalake open source GPT4All. + + + + + Advanced + Avanzate + + + + + CPU Threads + Thread della CPU + Tread CPU + + + + + The number of CPU threads used for inference and embedding. + Il numero di thread della CPU utilizzati per l'inferenza e l'incorporamento. + + + + + Save Chat Context + Salva il contesto della chat + + + + + Save the chat model's state to disk for faster loading. WARNING: Uses ~2GB per chat. + Salva lo stato del modello di chat su disco per un caricamento più rapido. ATTENZIONE: utilizza circa 2 GB per chat. + + + + + Enable Local Server + Abilita server locale + + + + + Expose an OpenAI-Compatible server to localhost. WARNING: Results in increased resource usage. + Esporre un server compatibile con OpenAI a localhost. ATTENZIONE: comporta un maggiore utilizzo delle risorse. + + + + + API Server Port + Porta del server API + + + + + The port to use for the local server. Requires restart. + La porta da utilizzare per il server locale. Richiede il riavvio. + + + + + Check For Updates + Controlla gli aggiornamenti + + + + + Manually check for an update to GPT4All. + Verifica manualmente la presenza di un aggiornamento a GPT4All. + + + + + Updates + Aggiornamenti + + + + Chat + + + + New Chat + Nuova Chat + + + + Server Chat + Chatta del server + + + + ChatDrawer + + + + Drawer + Cassetto + + + + + Main navigation drawer + Cassetto di navigazione principale + + + + + + New Chat + + Nuova Chat + + + + + Create a new chat + Crea una nuova chat + + + + + Select the current chat or edit the chat when in edit mode + Seleziona la chat corrente o modifica la chat in modalità modifica + + + + + Edit chat name + Modifica il nome della chat + + + + + Save chat name + Salva il nome della chat + + + + + Delete chat + Elimina chat + + + + + Confirm chat deletion + Conferma l'eliminazione della chat + + + + + Cancel chat deletion + Annulla l'eliminazione della chat + + + + + List of chats + Elenco delle chat + + + + + List of chats in the drawer dialog + Elenco delle chat nella finestra di dialogo del cassetto + + + + ChatListModel + + + TODAY + OGGI + + + + THIS WEEK + QUESTA SETTIMANA + + + + THIS MONTH + QUESTO MESE + + + + LAST SIX MONTHS + ULTIMI SEI MESI + + + + THIS YEAR + QUEST'ANNO + + + + LAST YEAR + L'ANNO SCORSO + + + + ChatView + + + + <h3>Warning</h3><p>%1</p> + <h3>Avviso</h3><p>%1</p> + + + + + Switch model dialog + Finestra di dialogo Cambia modello + + + + + Warn the user if they switch models, then context will be erased + Avvisa l'utente che se cambia modello, il contesto verrà cancellato + + + + + Conversation copied to clipboard. + Conversazione copiata negli appunti. + + + + + Code copied to clipboard. + Codice copiato negli appunti. + + + + + Chat panel + Pannello chat + + + + + Chat panel with options + Pannello chat con opzioni + + + + + Reload the currently loaded model + Ricarica il modello attualmente caricato + + + + + Eject the currently loaded model + Espelli il modello attualmente caricato + + + + + No model installed. + Nessun modello installato. + + + + + Model loading error. + Errore di caricamento del modello. + + + + + Waiting for model... + In attesa del modello... + + + + + Switching context... + Cambio contesto... + + + + + Choose a model... + Scegli un modello... + + + + + Not found: %1 + Non trovato: %1 + + + + + The top item is the current model + L'elemento in alto è il modello attuale + + + + + + + LocalDocs + + + + + + Add documents + Aggiungi documenti + + + + + add collections of documents to the chat + aggiungi raccolte di documenti alla chat + + + + + Load the default model + Carica il modello predefinito + + + + + Loads the default model which can be changed in settings + Carica il modello predefinito che può essere modificato nelle impostazioni + + + + + No Model Installed + Nessun modello installato + + + + + GPT4All requires that you install at least one +model to get started + GPT4All richiede l'installazione di almeno un +modello per iniziare + + + + + Install a Model + Installa un modello + + + + + Shows the add model view + Mostra la vista aggiungi modello + + + + + Conversation with the model + Conversazione con il modello + + + + + prompt / response pairs from the conversation + coppie prompt/risposta dalla conversazione + + + + + GPT4All + + + + + + You + Tu + + + + + recalculating context ... + ricalcolo contesto ... + + + + + response stopped ... + risposta interrotta ... + + + + + processing ... + elaborazione ... + + + + + generating response ... + generazione risposta ... + + + + + generating questions ... + generarzione domande ... + + + + + + + Copy + Copia + + + + + Copy Message + Copia messaggio + + + + + Disable markdown + Disabilita Markdown + + + + + Enable markdown + Abilita Markdown + + + + + Thumbs up + Mi piace + + + + + Gives a thumbs up to the response + Dà un mi piace alla risposta + + + + + Thumbs down + Non mi piace + + + + + Opens thumbs down dialog + Apre la finestra di dialogo "Non mi piace" + + + + + %1 Sources + %1 Fonti + + + + + Suggested follow-ups + Seguiti suggeriti + + + + + Erase and reset chat session + Cancella e ripristina la sessione di chat + + + + + Copy chat session to clipboard + Copia la sessione di chat negli appunti + + + + + Redo last chat response + Riesegui l'ultima risposta della chat + + + + + Stop generating + Interrompi la generazione + + + + + Stop the current response generation + Arresta la generazione della risposta corrente + + + + + Reloads the model + Ricarica il modello + + + + + <h3>Encountered an error loading model:</h3><br><i>"%1"</i><br><br>Model loading failures can happen for a variety of reasons, but the most common causes include a bad file format, an incomplete or corrupted download, the wrong file type, not enough system RAM or an incompatible model type. Here are some suggestions for resolving the problem:<br><ul><li>Ensure the model file has a compatible format and type<li>Check the model file is complete in the download folder<li>You can find the download folder in the settings dialog<li>If you've sideloaded the model ensure the file is not corrupt by checking md5sum<li>Read more about what models are supported in our <a href="https://docs.gpt4all.io/">documentation</a> for the gui<li>Check out our <a href="https://discord.gg/4M2QFmTt2k">discord channel</a> for help + <h3>Si è verificato un errore durante il caricamento del modello:</h3><br><i>"%1"</i><br><br>Gli errori di caricamento del modello possono verificarsi per diversi motivi, ma le cause più comuni includono un formato di file non valido, un download incompleto o danneggiato, il tipo di file sbagliato, RAM di sistema insufficiente o un tipo di modello incompatibile. Ecco alcuni suggerimenti per risolvere il problema:<br><ul><li>Assicurati che il file del modello abbia un formato e un tipo compatibili<li>Verifica che il file del modello sia completo nella cartella di download<li>Puoi trovare la cartella di download nella finestra di dialogo delle impostazioni<li>Se hai scaricato manualmente il modello, assicurati che il file non sia danneggiato controllando md5sum<li>Leggi ulteriori informazioni su quali modelli sono supportati nella nostra <a href="https://docs.gpt4all.io/ ">documentazione</a> per la GUI<li>Consulta il nostro <a href="https://discord.gg/4M2QFmTt2k">canale Discord</a> per assistenza + + + + + + + Reload · %1 + Ricarica · %1 + + + + + Loading · %1 + Caricamento · %1 + + + + + Load · %1 (default) → + Carica · %1 (predefinito) → + + + + + retrieving localdocs: %1 ... + recupero documenti locali: %1 ... + + + + + searching localdocs: %1 ... + ricerca in documenti locali: %1 ... + + + + + Send a message... + Manda un messaggio... + + + + + Load a model to continue... + Carica un modello per continuare... + + + + + Send messages/prompts to the model + Invia messaggi/prompt al modello + + + + + Cut + Taglia + + + + + Paste + Incolla + + + + + Select All + Seleziona tutto + + + + + Send message + Invia messaggio + + + + + Sends the message/prompt contained in textfield to the model + Invia il messaggio/prompt contenuto nel campo di testo al modello + + + + CollectionsDrawer + + + + Warning: searching collections while indexing can return incomplete results + Attenzione: la ricerca nelle raccolte durante l'indicizzazione può restituire risultati incompleti + + + + + %n file(s) + + %n file + %n file + + + + + + %n word(s) + + + + + + + + + Updating + In aggiornamento + + + + + + Add Docs + + Aggiungi documenti + + + + + Select a collection to make it available to the chat model. + Seleziona una raccolta per renderla disponibile al modello in chat. + + + + HomeView + + + + Welcome to GPT4All + Benvenuto in GPT4All + + + + + The privacy-first LLM chat application + L'applicazione di chat LLM che mette al primo posto la privacy + + + + + Start chatting + Inizia a chattare + + + + + Start Chatting + Inizia a Chattare + + + + + Chat with any LLM + Chatta con qualsiasi LLM + + + + + LocalDocs + + + + + + Chat with your local files + Chatta con i tuoi file locali + + + + + Find Models + Trova modelli + + + + + Explore and download models + Esplora e scarica i modelli + + + + + Latest news + Ultime notizie + + + + + Latest news from GPT4All + Ultime notizie da GPT4All + + + + + Release Notes + Note di rilascio + + + + + Documentation + Documentazione + + + + + Discord + + + + + + X (Twitter) + + + + + + Github + + + + + + GPT4All.io + + + + + + Subscribe to Newsletter + Iscriviti alla Newsletter + + + + LocalDocsSettings + + + + LocalDocs + + + + + + LocalDocs Settings + Impostazioni LocalDocs + + + + + Indexing + Indicizzazione + + + + + Allowed File Extensions + Estensioni di file consentite + + + + + Comma-separated list. LocalDocs will only attempt to process files with these extensions. + Elenco separato da virgole. LocalDocs tenterà di elaborare solo file con queste estensioni. + + + + + Embedding + Questo termine si dovrebbe tradurre come "Incorporamento". This term has been translated in other applications like A1111 and InvokeAI as "Incorporamento" + Incorporamento + + + + + Use Nomic Embed API + Utilizza l'API di incorporamento di Nomic Embed + + + + + Embed documents using the fast Nomic API instead of a private local model. Requires restart. + Incorpora documenti utilizzando la veloce API di Nomic invece di un modello locale privato. Richiede il riavvio. + + + + + Nomic API Key + Chiave API di Nomic + + + + + API key to use for Nomic Embed. Get one from the Atlas <a href="https://atlas.nomic.ai/cli-login">API keys page</a>. Requires restart. + Chiave API da utilizzare per Nomic Embed. Ottienine una dalla <a href="https://atlas.nomic.ai/cli-login">pagina delle chiavi API</a> di Atlas. Richiede il riavvio. + + + + + Embeddings Device + Dispositivo per incorporamenti + + + + + The compute device used for embeddings. "Auto" uses the CPU. Requires restart. + Il dispositivo di calcolo utilizzato per gli incorporamenti. "Auto" utilizza la CPU. Richiede il riavvio. + + + + + Display + Mostra + + + + + Show Sources + Mostra le fonti + + + + + Display the sources used for each response. + Visualizza le fonti utilizzate per ciascuna risposta. + + + + + Advanced + Avanzate + + + + + Warning: Advanced usage only. + Avvertenza: solo per uso avanzato. + + + + + Values too large may cause localdocs failure, extremely slow responses or failure to respond at all. Roughly speaking, the {N chars x N snippets} are added to the model's context window. More info <a href="https://docs.gpt4all.io/gpt4all_desktop/localdocs.html">here</a>. + Valori troppo grandi possono causare errori di Localdocs, risposte estremamente lente o l'impossibilità di rispondere. In parole povere, {N caratteri x N frammenti} vengono aggiunti alla finestra di contesto del modello. Maggiori informazioni <a href="https://docs.gpt4all.io/gpt4all_desktop/localdocs.html">qui</a>. + + + + + Document snippet size (characters) + Dimensioni del frammento di documento (caratteri) + + + + + Number of characters per document snippet. Larger numbers increase likelihood of factual responses, but also result in slower generation. + Numero di caratteri per frammento di documento. Numeri più grandi aumentano la probabilità di risposte basate sui fatti, ma comportano anche una generazione più lenta. + + + + + Max document snippets per prompt + Numero massimo di frammenti di documento per prompt + + + + + Max best N matches of retrieved document snippets to add to the context for prompt. Larger numbers increase likelihood of factual responses, but also result in slower generation. + Numero massimo di N corrispondenze migliori di frammenti di documento recuperati da aggiungere al contesto del prompt. Numeri più grandi aumentano la probabilità di risposte basate sui fatti, ma comportano anche una generazione più lenta. + + + + LocalDocsView + + + + LocalDocs + + + + + + Chat with your local files + Chatta con i tuoi file locali + + + + + + Add Collection + + Aggiungi raccolta + + + + + ERROR: The LocalDocs database is not valid. + ERRORE: il database di LocalDocs non è valido. + + + + + No Collections Installed + Nessuna raccolta installata + + + + + Install a collection of local documents to get started using this feature + Installa una raccolta di documenti locali per iniziare a utilizzare questa funzionalità + + + + + + Add Doc Collection + + Aggiungi raccolta di documenti + + + + + Shows the add model view + Mostra la vista aggiungi modello + + + + + Indexing progressBar + Barra di avanzamento dell'indicizzazione + + + + + Shows the progress made in the indexing + Mostra lo stato di avanzamento dell'indicizzazione + + + + + ERROR + ERRORE + + + + + INDEXING + INDICIZZAZIONE + + + + + EMBEDDING + INCORPORAMENTO + + + + + REQUIRES UPDATE + RICHIEDE AGGIORNAMENTO + + + + + READY + PRONTO + + + + + INSTALLING + INSTALLAZIONE + + + + + Indexing in progress + Indicizzazione in corso + + + + + Embedding in progress + Incorporamento in corso + + + + + This collection requires an update after version change + Questa raccolta richiede un aggiornamento dopo il cambio di versione + + + + + Automatically reindexes upon changes to the folder + Reindicizza automaticamente in caso di modifiche alla cartella + + + + + Installation in progress + Installazione in corso + + + + + % + % + + + + + %n file(s) + + %n file + %n file + + + + + + %n word(s) + + %n parola + %n parole + + + + + + Remove + Rimuovi + + + + + Rebuild + Ricostruisci + + + + + Reindex this folder from scratch. This is slow and usually not needed. + Reindicizzare questa cartella da zero. Lento e di solito non necessario. + + + + + Update + Aggiorna + + + + + Update the collection to the new version. This is a slow operation. + Aggiorna la raccolta alla nuova versione. Questa è un'operazione lenta. + + + + ModelList + + + <ul><li>Requires personal OpenAI API key.</li><li>WARNING: Will send your chats to OpenAI!</li><li>Your API key will be stored on disk</li><li>Will only be used to communicate with OpenAI</li><li>You can apply for an API key <a href="https://platform.openai.com/account/api-keys">here.</a></li> + <ul><li>Richiede una chiave API OpenAI personale.</li><li>ATTENZIONE: invierà le tue chat a OpenAI!</li><li>La tua chiave API verrà archiviata su disco</li><li> Verrà utilizzato solo per comunicare con OpenAI</li><li>Puoi richiedere una chiave API <a href="https://platform.openai.com/account/api-keys">qui.</a> </li> + + + + <strong>OpenAI's ChatGPT model GPT-3.5 Turbo</strong><br> %1 + + + + + <strong>OpenAI's ChatGPT model GPT-4</strong><br> %1 %2 + + + + + <strong>Mistral Tiny model</strong><br> %1 + + + + + <strong>Mistral Small model</strong><br> %1 + + + + + <strong>Mistral Medium model</strong><br> %1 + + + + + <br><br><i>* Even if you pay OpenAI for ChatGPT-4 this does not guarantee API key access. Contact OpenAI for more info. + <br><br><i>* Anche se paghi OpenAI per ChatGPT-4 questo non garantisce l'accesso alla chiave API. Contatta OpenAI per maggiori informazioni. + + + + <ul><li>Requires personal Mistral API key.</li><li>WARNING: Will send your chats to Mistral!</li><li>Your API key will be stored on disk</li><li>Will only be used to communicate with Mistral</li><li>You can apply for an API key <a href="https://console.mistral.ai/user/api-keys">here</a>.</li> + <ul><li>Richiede una chiave API Mistral personale.</li><li>ATTENZIONE: invierà le tue chat a Mistral!</li><li>La tua chiave API verrà archiviata su disco</li><li> Verrà utilizzato solo per comunicare con Mistral</li><li>Puoi richiedere una chiave API <a href="https://console.mistral.ai/user/api-keys">qui</a>. </li> + + + + <strong>Created by %1.</strong><br><ul><li>Published on %2.<li>This model has %3 likes.<li>This model has %4 downloads.<li>More info can be found <a href="https://huggingface.co/%5">here.</a></ul> + <strong>Creato da %1.</strong><br><ul><li>Pubblicato il %2.<li>Questo modello ha %3 Mi piace.<li>Questo modello ha %4 download.<li>Altro informazioni possono essere trovate <a href="https://huggingface.co/%5">qui.</a></ul> + + + + ModelSettings + + + + Model + Modello + + + + + Model Settings + Impostazioni modello + + + + + Clone + Clona + + + + + Remove + Rimuovi + + + + + Name + Nome + + + + + Model File + File del modello + + + + + System Prompt + Prompt di sistema + + + + + Prefixed at the beginning of every conversation. Must contain the appropriate framing tokens. + Prefisso all'inizio di ogni conversazione. Deve contenere i token di inquadramento appropriati. + + + + + Prompt Template + Schema del prompt + + + + + The template that wraps every prompt. + Il modello che racchiude ogni prompt. + + + + + Must contain the string "%1" to be replaced with the user's input. + Deve contenere la stringa "%1" da sostituire con l'input dell'utente. + + + + + Chat Name Prompt + Prompt del nome della chat + + + + + Prompt used to automatically generate chat names. + Prompt utilizzato per generare automaticamente nomi di chat. + + + + + Suggested FollowUp Prompt + Prompt di proseguimento suggerito + + + + + Prompt used to generate suggested follow-up questions. + Prompt utilizzato per generare domande di proseguimento suggerite. + + + + + Context Length + Lunghezza del contesto + + + + + Number of input and output tokens the model sees. + Numero di token di input e output visualizzati dal modello. + + + + + Maximum combined prompt/response tokens before information is lost. +Using more context than the model was trained on will yield poor results. +NOTE: Does not take effect until you reload the model. + Numero massimo di token di prompt/risposta combinati prima che le informazioni vengano perse. +L'utilizzo di un contesto maggiore rispetto a quello su cui è stato addestrato il modello produrrà scarsi risultati. +NOTA: non ha effetto finché non si ricarica il modello. + + + + + Temperature + Temperatura + + + + + Randomness of model output. Higher -> more variation. + Casualità dell'uscita del modello. Più alto -> più variazione. + + + + + Temperature increases the chances of choosing less likely tokens. +NOTE: Higher temperature gives more creative but less predictable outputs. + La temperatura aumenta le possibilità di scegliere token meno probabili. +NOTA: una temperatura più elevata offre risultati più creativi ma meno prevedibili. + + + + + Top-P + + + + + + Nucleus Sampling factor. Lower -> more predicatable. + Fattore di campionamento del nucleo. Inferiore -> più prevedibile. + + + + + Only the most likely tokens up to a total probability of top_p can be chosen. +NOTE: Prevents choosing highly unlikely tokens. + Possono essere scelti solo i token più probabili fino ad una probabilità totale di top_p. +NOTA: impedisce la scelta di token altamente improbabili. + + + + + Min-P + + + + + + Minimum token probability. Higher -> more predictable. + Probabilità minima del token. Più alto -> più prevedibile. + + + + + Sets the minimum relative probability for a token to be considered. + Imposta la probabilità relativa minima che un token venga considerato. + + + + + Top-K + + + + + + Size of selection pool for tokens. + Dimensione del pool di selezione per i token. + + + + + Only the top K most likely tokens will be chosen from. + Solo i token Top-K più probabili verranno scelti. + + + + + Max Length + Lunghezza massima + + + + + Maximum response length, in tokens. + Lunghezza massima della risposta, in token. + + + + + Prompt Batch Size + Dimensioni del lotto di prompt + + + + + The batch size used for prompt processing. + La dimensione del lotto usata per l'elaborazione dei prompt. + + + + + Amount of prompt tokens to process at once. +NOTE: Higher values can speed up reading prompts but will use more RAM. + Quantità di token del prompt da elaborare contemporaneamente. +NOTA: valori più alti possono velocizzare la lettura dei prompt ma utilizzeranno più RAM. + + + + + Repeat Penalty + Penalità di ripetizione + + + + + Repetition penalty factor. Set to 1 to disable. + Fattore di penalità di ripetizione. Impostare su 1 per disabilitare. + + + + + Repeat Penalty Tokens + Token di penalità ripetizione + + + + + Number of previous tokens used for penalty. + Numero di token precedenti utilizzati per la penalità. + + + + + GPU Layers + Livelli GPU + + + + + Number of model layers to load into VRAM. + Numero di livelli del modello da caricare nella VRAM. + + + + + How many model layers to load into VRAM. Decrease this if GPT4All runs out of VRAM while loading this model. +Lower values increase CPU load and RAM usage, and make inference slower. +NOTE: Does not take effect until you reload the model. + Quanti livelli del modello caricare nella VRAM. Diminuirlo se GPT4All esaurisce la VRAM durante il caricamento di questo modello. +Valori più bassi aumentano il carico della CPU e l'utilizzo della RAM e rallentano l'inferenza. +NOTA: non ha effetto finché non si ricarica il modello. + + + + ModelsView + + + + No Models Installed + Nessun modello installato + + + + + Install a model to get started using GPT4All + Installa un modello per iniziare a utilizzare GPT4All + + + + + + + + Add Model + + Aggiungi Modello + + + + + Shows the add model view + Mostra la vista aggiungi modello + + + + + Installed Models + Modelli installati + + + + + Locally installed chat models + Modelli per chat installati localmente + + + + + Model file + File del modello + + + + + Model file to be downloaded + File del modello da scaricare + + + + + Description + Descrizione + + + + + File description + Descrizione del file + + + + + Cancel + Annulla + + + + + Resume + Riprendi + + + + + Stop/restart/start the download + Arresta/riavvia/avvia il download + + + + + Remove + Rimuovi + + + + + Remove model from filesystem + Rimuovi il modello dal sistema dei file + + + + + + + Install + Installa + + + + + Install online model + Installa il modello online + + + + + <strong><font size="1"><a href="#error">Error</a></strong></font> + <strong><font size="1"><a href="#error">Errore</a></strong></font> + + + + + <strong><font size="2">WARNING: Not recommended for your hardware. Model requires more memory (%1 GB) than your system has available (%2).</strong></font> + <strong><font size="2">AVVERTENZA: non consigliato per il tuo hardware. Il modello richiede più memoria (%1 GB) di quella disponibile nel sistema (%2).</strong></font> + + + + + %1 GB + + + + + + ? + + + + + + Describes an error that occurred when downloading + Descrive un errore che si è verificato durante lo scaricamento + + + + + Error for incompatible hardware + Errore per hardware incompatibile + + + + + Download progressBar + barra di avanzamento dello scaricamento + + + + + Shows the progress made in the download + Mostra lo stato di avanzamento dello scaricamento + + + + + Download speed + Velocità di scaricamento + + + + + Download speed in bytes/kilobytes/megabytes per second + Velocità di scaricamento in byte/kilobyte/megabyte al secondo + + + + + Calculating... + Calcolo in corso... + + + + + + + Whether the file hash is being calculated + Se viene calcolato l'hash del file + + + + + Busy indicator + Indicatore di occupato + + + + + Displayed when the file hash is being calculated + Visualizzato durante il calcolo dell'hash del file + + + + + enter $API_KEY + Inserire $API_KEY + + + + + File size + Dimensione del file + + + + + RAM required + RAM richiesta + + + + + Parameters + Parametri + + + + + Quant + Quant + + + + + Type + Tipo + + + + MyFancyLink + + + + Fancy link + + + + + + A stylized link + Un link stilizzato + + + + MySettingsStack + + + + Please choose a directory + Scegli una cartella + + + + MySettingsTab + + + + Restore Defaults + Riprista valori predefiniti + + + + + Restores settings dialog to a default state + Ripristina la finestra di dialogo delle impostazioni a uno stato predefinito + + + + NetworkDialog + + + + Contribute data to the GPT4All Opensource Datalake. + Contribuisci coni tuoi dati al Data Lake Open Source di GPT4All. + + + + + By enabling this feature, you will be able to participate in the democratic process of training a large language model by contributing data for future model improvements. + +When a GPT4All model responds to you and you have opted-in, your conversation will be sent to the GPT4All Open Source Datalake. Additionally, you can like/dislike its response. If you dislike a response, you can suggest an alternative response. This data will be collected and aggregated in the GPT4All Datalake. + +NOTE: By turning on this feature, you will be sending your data to the GPT4All Open Source Datalake. You should have no expectation of chat privacy when this feature is enabled. You should; however, have an expectation of an optional attribution if you wish. Your chat data will be openly available for anyone to download and will be used by Nomic AI to improve future GPT4All models. Nomic AI will retain all attribution information attached to your data and you will be credited as a contributor to any GPT4All model release that uses your data! + Abilitando questa funzionalità, potrai partecipare al processo democratico di addestramento di un modello linguistico di grandi dimensioni fornendo dati per futuri miglioramenti del modello. + +Quando un modello di GPT4All ti risponde e tu hai aderito, la tua conversazione verrà inviata al Datalake Open Source di GPT4All. Inoltre, puoi mettere mi piace/non mi piace la sua risposta. Se non ti piace una risposta, puoi suggerire una risposta alternativa. Questi dati verranno raccolti e aggregati nel Datalake di GPT4All. + +NOTA: attivando questa funzione, invierai i tuoi dati al Datalake Open Source di GPT4All. Non dovresti avere aspettative sulla privacy della chat quando questa funzione è abilitata. Dovresti; tuttavia, se lo desideri, aspettati un'attribuzione facoltativa. I tuoi dati di chat saranno liberamente disponibili per essere scaricati da chiunque e verranno utilizzati da Nomic AI per migliorare i futuri modelli GPT4All. Nomic AI conserverà tutte le informazioni di attribuzione allegate ai tuoi dati e verrai accreditato come collaboratore a qualsiasi versione del modello GPT4All che utilizza i tuoi dati! + + + + + Terms for opt-in + Termini per l'adesione + + + + + Describes what will happen when you opt-in + Descrive cosa accadrà quando effettuerai l'adesione + + + + + Please provide a name for attribution (optional) + Fornisci un nome per l'attribuzione (facoltativo) + + + + + Attribution (optional) + Attribuzione (facoltativo) + + + + + Provide attribution + Fornire attribuzione + + + + + Enable + Abilita + + + + + Enable opt-in + Abilita l'adesione + + + + + Cancel + Annulla + + + + + Cancel opt-in + Annulla l'adesione + + + + NewVersionDialog + + + + New version is available + Nuova versione disponibile + + + + + Update + Aggiorna + + + + + Update to new version + Aggiorna alla nuova versione + + + + PopupDialog + + + + Reveals a shortlived help balloon + Rivela un messaggio di aiuto di breve durata + + + + + Busy indicator + Indicatore di occupato + + + + + Displayed when the popup is showing busy + Visualizzato quando la finestra a comparsa risulta occupata + + + + SettingsView + + + + + + Settings + Impostazioni + + + + + Contains various application settings + Contiene varie impostazioni dell'applicazione + + + + + Application + Applicazione + + + + + Model + Modello + + + + + LocalDocs + + + + + StartupDialog + + + + Welcome! + Benvenuto! + + + + + ### Release notes +%1### Contributors +%2 + ### Note di rilascio +%1### Contributori +%2 + + + + + Release notes + Note di rilascio + + + + + Release notes for this version + Note di rilascio per questa versione + + + + + ### Opt-ins for anonymous usage analytics and datalake +By enabling these features, you will be able to participate in the democratic process of training a +large language model by contributing data for future model improvements. + +When a GPT4All model responds to you and you have opted-in, your conversation will be sent to the GPT4All +Open Source Datalake. Additionally, you can like/dislike its response. If you dislike a response, you +can suggest an alternative response. This data will be collected and aggregated in the GPT4All Datalake. + +NOTE: By turning on this feature, you will be sending your data to the GPT4All Open Source Datalake. +You should have no expectation of chat privacy when this feature is enabled. You should; however, have +an expectation of an optional attribution if you wish. Your chat data will be openly available for anyone +to download and will be used by Nomic AI to improve future GPT4All models. Nomic AI will retain all +attribution information attached to your data and you will be credited as a contributor to any GPT4All +model release that uses your data! + ### Abilitazioni per analisi di utilizzo anonime e datalake +Abilitando questa funzionalità, potrai partecipare al processo democratico di addestramento di un modello linguistico di grandi dimensioni fornendo dati per futuri miglioramenti del modello. + +Quando un modello di GPT4All ti risponde e tu hai aderito, la tua conversazione verrà inviata al Datalake Open Source di GPT4All. Inoltre, puoi mettere mi piace/non mi piace la sua risposta. Se non ti piace una risposta, puoi suggerire una risposta alternativa. Questi dati verranno raccolti e aggregati nel Datalake di GPT4All. + +NOTA: attivando questa funzione, invierai i tuoi dati al Datalake Open Source di GPT4All. Non dovresti avere aspettative sulla privacy della chat quando questa funzione è abilitata. Dovresti; tuttavia, se lo desideri, aspettati un'attribuzione facoltativa. I tuoi dati di chat saranno liberamente disponibili per essere scaricati da chiunque e verranno utilizzati da Nomic AI per migliorare i futuri modelli GPT4All. Nomic AI conserverà tutte le informazioni di attribuzione allegate ai tuoi dati e verrai accreditato come collaboratore a qualsiasi versione del modello GPT4All che utilizza i tuoi dati! + + + + + Terms for opt-in + Termini per l'adesione + + + + + Describes what will happen when you opt-in + Descrive cosa accadrà quando effettuerai l'adesione + + + + + + + Opt-in for anonymous usage statistics + Attiva le statistiche di utilizzo anonime + + + + + + + Yes + Si + + + + + Allow opt-in for anonymous usage statistics + Consenti l'attivazione di statistiche di utilizzo anonime + + + + + + + No + No + + + + + Opt-out for anonymous usage statistics + Disattiva le statistiche di utilizzo anonime + + + + + Allow opt-out for anonymous usage statistics + Consenti la disattivazione per le statistiche di utilizzo anonime + + + + + + + Opt-in for network + Aderisci per la rete + + + + + Allow opt-in for network + Consenti l'adesione per la rete + + + + + Allow opt-in anonymous sharing of chats to the GPT4All Datalake + Consenti la condivisione anonima delle chat su GPT4All Datalake + + + + + Opt-out for network + Disattiva per la rete + + + + + Allow opt-out anonymous sharing of chats to the GPT4All Datalake + Consenti la non adesione alla condivisione anonima delle chat nel GPT4All Datalake + + + + SwitchModelDialog + + + + <b>Warning:</b> changing the model will erase the current conversation. Do you wish to continue? + <b>Attenzione:</b> la modifica del modello cancellerà la conversazione corrente. Vuoi continuare? + + + + + Continue + Continua + + + + + Continue with model loading + Continuare con il caricamento del modello + + + + + + + Cancel + Annulla + + + + ThumbsDownDialog + + + + Please edit the text below to provide a better response. (optional) + Modifica il testo seguente per fornire una risposta migliore. (opzionale) + + + + + Please provide a better response... + Si prega di fornire una risposta migliore... + + + + + Submit + Invia + + + + + Submits the user's response + Invia la risposta dell'utente + + + + + Cancel + Annulla + + + + + Closes the response dialog + Chiude la finestra di dialogo della risposta + + + + main + + + + <h3>Encountered an error starting up:</h3><br><i>"Incompatible hardware detected."</i><br><br>Unfortunately, your CPU does not meet the minimal requirements to run this program. In particular, it does not support AVX intrinsics which this program requires to successfully run a modern large language model. The only solution at this time is to upgrade your hardware to a more modern CPU.<br><br>See here for more information: <a href="https://en.wikipedia.org/wiki/Advanced_Vector_Extensions">https://en.wikipedia.org/wiki/Advanced_Vector_Extensions</a> + <h3>Si è verificato un errore all'avvio:</h3><br><i>"Rilevato hardware incompatibile."</i><br><br>Sfortunatamente, la tua CPU non soddisfa i requisiti minimi per eseguire questo programma. In particolare, non supporta gli elementi intrinseci AVX richiesti da questo programma per eseguire con successo un modello linguistico moderno e di grandi dimensioni. L'unica soluzione in questo momento è aggiornare il tuo hardware con una CPU più moderna.<br><br>Vedi qui per ulteriori informazioni: <a href="https://en.wikipedia.org/wiki/Advanced_Vector_Extensions">https ://en.wikipedia.org/wiki/Advanced_Vector_Extensions</a> + + + + + GPT4All v%1 + + + + + + <h3>Encountered an error starting up:</h3><br><i>"Inability to access settings file."</i><br><br>Unfortunately, something is preventing the program from accessing the settings file. This could be caused by incorrect permissions in the local app config directory where the settings file is located. Check out our <a href="https://discord.gg/4M2QFmTt2k">discord channel</a> for help. + <h3>Si è verificato un errore all'avvio:</h3><br><i>"Impossibile accedere al file delle impostazioni."</i><br><br>Sfortunatamente, qualcosa impedisce al programma di accedere al file delle impostazioni. Ciò potrebbe essere causato da autorizzazioni errate nella cartella di configurazione locale dell'app in cui si trova il file delle impostazioni. Dai un'occhiata al nostro <a href="https://discord.gg/4M2QFmTt2k">canale Discord</a> per ricevere assistenza. + + + + + Connection to datalake failed. + La connessione al Datalake non è riuscita. + + + + + Saving chats. + Salvataggio delle chat. + + + + + Network dialog + Dialogo di rete + + + + + opt-in to share feedback/conversations + aderisci per condividere feedback/conversazioni + + + + + Home view + Vista iniziale + + + + + Home view of application + Vista iniziale dell'applicazione + + + + + Home + Inizia + + + + + Chat view + Vista chat + + + + + Chat view to interact with models + Vista chat per interagire con i modelli + + + + + Chats + Chat + + + + + + + Models + Modelli + + + + + Models view for installed models + Vista modelli per i modelli installati + + + + + + + LocalDocs + + + + + + LocalDocs view to configure and use local docs + Vista LocalDocs per configurare e utilizzare i documenti locali + + + + + + + Settings + Impostazioni + + + + + Settings view for application configuration + Vista delle impostazioni per la configurazione dell'applicazione + + + + + The datalake is enabled + Il Datalake è abilitato + + + + + Using a network model + Utilizzando un modello di rete + + + + + Server mode is enabled + La modalità server è abilitata + + + + + Installed models + Modelli installati + + + + + View of installed models + Vista dei modelli installati + + +