diff --git a/gpt4all-bindings/cli/README.md b/gpt4all-bindings/cli/README.md index 228253cd..f0d1e57e 100644 --- a/gpt4all-bindings/cli/README.md +++ b/gpt4all-bindings/cli/README.md @@ -2,8 +2,7 @@ GPT4All on the command-line. -## Documentation - +More details on the [wiki](https://github.com/nomic-ai/gpt4all/wiki/Python-CLI). ## Quickstart @@ -34,11 +33,11 @@ python -m pip install --user --upgrade gpt4all typer # run the CLI python app.py repl ``` -By default, it will automatically download the `groovy` model to `.cache/gpt4all/` in your user -directory, if necessary. +By default, it will automatically download the `Mistral Instruct` model to `.cache/gpt4all/` in your +user directory, if necessary. If you have already saved a model beforehand, specify its path with the `-m`/`--model` argument, for example: ```shell -python app.py repl --model /home/user/my-gpt4all-models/gpt4all-13b-snoozy-q4_0.gguf +python app.py repl --model /home/user/my-gpt4all-models/mistral-7b-instruct-v0.1.Q4_0.gguf ``` diff --git a/gpt4all-bindings/python/gpt4all/_pyllmodel.py b/gpt4all-bindings/python/gpt4all/_pyllmodel.py index 284d8ab3..4c52a5b1 100644 --- a/gpt4all-bindings/python/gpt4all/_pyllmodel.py +++ b/gpt4all-bindings/python/gpt4all/_pyllmodel.py @@ -6,6 +6,7 @@ import platform import re import subprocess import sys +import textwrap import threading from enum import Enum from queue import Queue @@ -28,6 +29,16 @@ if TYPE_CHECKING: EmbeddingsType = TypeVar('EmbeddingsType', bound='list[Any]') +# Detect Rosetta 2 +if platform.system() == "Darwin" and platform.processor() == "i386": + if subprocess.run( + "sysctl -n sysctl.proc_translated".split(), check=True, capture_output=True, text=True, + ).stdout.strip() == "1": + raise RuntimeError(textwrap.dedent("""\ + Running GPT4All under Rosetta is not supported due to CPU feature requirements. + Please install GPT4All in an environment that uses a native ARM64 Python interpreter. + """)) + # Find CUDA libraries from the official packages cuda_found = False if platform.system() in ('Linux', 'Windows'): diff --git a/gpt4all-chat/translations/gpt4all_it_IT.ts b/gpt4all-chat/translations/gpt4all_it_IT.ts index 27539bd9..d9e46071 100644 --- a/gpt4all-chat/translations/gpt4all_it_IT.ts +++ b/gpt4all-chat/translations/gpt4all_it_IT.ts @@ -346,7 +346,7 @@ Download progressBar - barra di avanzamento dello scaricamento + Barra di avanzamento dello scaricamento @@ -569,7 +569,7 @@ The compute device used for text generation. - Dispositivo di elaborazione utilizzato per la generazione del testo. + Il dispositivo di calcolo utilizzato per la generazione del testo. @@ -577,7 +577,7 @@ Application default - Modello predefinito + Applicazione predefinita @@ -601,7 +601,7 @@ Generate suggested follow-up questions at the end of responses. - Genera domande di approfondimento suggerite alla fine delle risposte. + Genera le domande di approfondimento suggerite alla fine delle risposte. @@ -655,7 +655,7 @@ Send chats and feedback to the GPT4All Open-Source Datalake. - Invia chat e commenti al Datalake open source GPT4All. + Invia chat e commenti al Datalake Open Source GPT4All. @@ -722,7 +722,7 @@ Manually check for an update to GPT4All. - Verifica manualmente la presenza di un aggiornamento a GPT4All. + Verifica manualmente l'aggiornamento di GPT4All. @@ -742,7 +742,7 @@ Server Chat - Chatta del server + Chat del server @@ -1136,7 +1136,7 @@ modello per iniziare Suggested follow-ups - Seguiti suggeriti + Approfondimenti suggeriti @@ -1267,7 +1267,7 @@ modello per iniziare Warning: searching collections while indexing can return incomplete results - Attenzione: la ricerca nelle raccolte durante l'indicizzazione può restituire risultati incompleti + Avviso: la ricerca nelle raccolte durante l'indicizzazione può restituire risultati incompleti @@ -1283,8 +1283,8 @@ modello per iniziare %n word(s) - - + %n parola + %n parole @@ -1498,7 +1498,7 @@ modello per iniziare Use Nomic Embed API - Utilizza l'API di incorporamento di Nomic Embed + Utilizza l'API di incorporamento Nomic Embed @@ -1649,7 +1649,7 @@ modello per iniziare Indexing progressBar - Barra di avanzamento dell'indicizzazione + Barra di avanzamento indicizzazione @@ -1930,13 +1930,13 @@ modello per iniziare Suggested FollowUp Prompt - Prompt di proseguimento suggerito + Prompt di approfondimento suggerito Prompt used to generate suggested follow-up questions. - Prompt utilizzato per generare domande di proseguimento suggerite. + Prompt utilizzato per generare domande di approfondimento suggerite. @@ -2233,7 +2233,7 @@ NOTA: non ha effetto finché non si ricarica il modello. <strong><font size="2">WARNING: Not recommended for your hardware. Model requires more memory (%1 GB) than your system has available (%2).</strong></font> - <strong><font size="2">AVVERTENZA: non consigliato per il tuo hardware. Il modello richiede più memoria (%1 GB) di quella disponibile nel sistema (%2).</strong></font> + <strong><font size="2">AVVISO: non consigliato per il tuo hardware. Il modello richiede più memoria (%1 GB) di quella disponibile nel sistema (%2).</strong></font> @@ -2293,7 +2293,7 @@ NOTA: non ha effetto finché non si ricarica il modello. Download progressBar - barra di avanzamento dello scaricamento + Barra di avanzamento dello scaricamento @@ -2386,13 +2386,13 @@ NOTA: non ha effetto finché non si ricarica il modello. Fancy link - + Mio link A stylized link - Un link stilizzato + Un link d'esempio @@ -2410,7 +2410,7 @@ NOTA: non ha effetto finché non si ricarica il modello. Restore Defaults - Riprista valori predefiniti + Riprista i valori predefiniti @@ -2425,7 +2425,7 @@ NOTA: non ha effetto finché non si ricarica il modello. Contribute data to the GPT4All Opensource Datalake. - Contribuisci coni tuoi dati al Data Lake Open Source di GPT4All. + Contribuisci coni tuoi dati al Datalake Open Source di GPT4All. @@ -2720,7 +2720,7 @@ NOTA: attivando questa funzione, invierai i tuoi dati al Datalake Open Source di <b>Warning:</b> changing the model will erase the current conversation. Do you wish to continue? - <b>Attenzione:</b> la modifica del modello cancellerà la conversazione corrente. Vuoi continuare? + <b>Avviso:</b> la modifica del modello cancellerà la conversazione corrente. Vuoi continuare?