From e8d74d8bf4611f21cded1fab8eb26c34cb56e96b Mon Sep 17 00:00:00 2001 From: Riccardo Giovanetti <29801031+Harvester62@users.noreply.github.com> Date: Wed, 28 Aug 2024 02:13:34 +0200 Subject: [PATCH] translations: update Italian (#2909) Signed-off-by: Riccardo Giovanetti --- gpt4all-chat/CHANGELOG.md | 2 +- gpt4all-chat/translations/gpt4all_it_IT.ts | 12 ++++++------ 2 files changed, 7 insertions(+), 7 deletions(-) diff --git a/gpt4all-chat/CHANGELOG.md b/gpt4all-chat/CHANGELOG.md index c581eaf0..987b8370 100644 --- a/gpt4all-chat/CHANGELOG.md +++ b/gpt4all-chat/CHANGELOG.md @@ -11,7 +11,7 @@ The format is based on [Keep a Changelog](https://keepachangelog.com/en/1.1.0/). ### Fixed - Bring back "Auto" option for Embeddings Device as "Application default," which went missing in v3.1.0 ([#2873](https://github.com/nomic-ai/gpt4all/pull/2873)) -- Correct a few strings in the Italian translation (by [@Harvester62](https://github.com/Harvester62) in [#2872](https://github.com/nomic-ai/gpt4all/pull/2872)) +- Correct a few strings in the Italian translation (by [@Harvester62](https://github.com/Harvester62) in [#2872](https://github.com/nomic-ai/gpt4all/pull/2872) and [#2909](https://github.com/nomic-ai/gpt4all/pull/2909)) - Correct typos in Traditional Chinese translation (by [@supersonictw](https://github.com/supersonictw) in [#2852](https://github.com/nomic-ai/gpt4all/pull/2852)) - Set the window icon on Linux ([#2880](https://github.com/nomic-ai/gpt4all/pull/2880)) - Corrections to the Romanian translation (by [@SINAPSA-IC](https://github.com/SINAPSA-IC) in [#2890](https://github.com/nomic-ai/gpt4all/pull/2890)) diff --git a/gpt4all-chat/translations/gpt4all_it_IT.ts b/gpt4all-chat/translations/gpt4all_it_IT.ts index 9baf840d..85360148 100644 --- a/gpt4all-chat/translations/gpt4all_it_IT.ts +++ b/gpt4all-chat/translations/gpt4all_it_IT.ts @@ -1352,7 +1352,7 @@ modello per iniziare Max best N matches of retrieved document snippets to add to the context for prompt. Larger numbers increase likelihood of factual responses, but also result in slower generation. - Numero massimo di N corrispondenze migliori di frammenti di documento recuperati da aggiungere al contesto del prompt. Numeri più grandi aumentano la probabilità di risposte basate sui fatti, ma comportano anche una generazione più lenta. + Il numero massimo di frammenti di documento recuperati, che presentano le migliori corrispondenze, da includere nel contesto del prompt. Numeri più alti aumentano la probabilità di ricevere risposte basate sui fatti, ma comportano anche una generazione più lenta. @@ -1708,7 +1708,7 @@ NOTA: una temperatura più elevata offre risultati più creativi ma meno prevedi Only the most likely tokens up to a total probability of top_p can be chosen. NOTE: Prevents choosing highly unlikely tokens. - Possono essere scelti solo i token più probabili fino ad una probabilità totale di top_p. + Solo i token più probabili, fino a un totale di probabilità di top_p, possono essere scelti. NOTA: impedisce la scelta di token altamente improbabili. @@ -1724,7 +1724,7 @@ NOTA: impedisce la scelta di token altamente improbabili. Sets the minimum relative probability for a token to be considered. - Imposta la probabilità relativa minima che un token venga considerato. + Imposta la probabilità relativa minima affinché un token venga considerato. @@ -1734,12 +1734,12 @@ NOTA: impedisce la scelta di token altamente improbabili. Size of selection pool for tokens. - Dimensione del pool di selezione per i token. + Dimensione del lotto di selezione per i token. Only the top K most likely tokens will be chosen from. - Solo i token Top-K più probabili verranno scelti. + Saranno scelti solo i primi K token più probabili. @@ -1765,7 +1765,7 @@ NOTA: impedisce la scelta di token altamente improbabili. Amount of prompt tokens to process at once. NOTE: Higher values can speed up reading prompts but will use more RAM. - Quantità di token del prompt da elaborare contemporaneamente. + Numero di token del prompt da elaborare contemporaneamente. NOTA: valori più alti possono velocizzare la lettura dei prompt ma utilizzeranno più RAM.