Featured image of post Marre de ChatGPT ? Essayez GPT4All, une alternative locale !

Marre de ChatGPT ? Essayez GPT4All, une alternative locale !

Si vous en avez assez des réponses lentes ou des messages d'erreur de saturation de chat.openai.com, voici une alternative. Bien que GPT4All puisse fonctionner localement, je me fierai toujours à ChatGPT pour la qualité des réponses.

Qu’est-ce que GPT ?

GPT signifie “Generative Pre-trained Transformer” (Transformeur Génératif Pré-entraîné). C’est un type de modèle de langage d’intelligence artificielle (IA) développé par OpenAI qui utilise des techniques d’apprentissage profond (deep learning) pour générer du texte semblable à celui d’un humain.

Les modèles GPT sont conçus pour apprendre à partir de grandes quantités de données textuelles et utiliser ces connaissances pour générer un nouveau texte qui imite le style et le ton des données originales. Ils fonctionnent en prédisant le mot suivant dans une phrase, en se basant sur les mots précédents, puis en utilisant cette prédiction pour générer le mot suivant, et ainsi de suite, créant ainsi une phrase ou un paragraphe cohérent et grammatical.

Les modèles GPT ont été utilisés pour diverses applications, notamment les chatbots, la création de contenu, la traduction automatique, etc. Ils ont été pré-entraînés sur des ensembles de données massifs comme Wikipédia, Common Crawl et d’autres corpus, ce qui les rend très polyvalents et adaptables à de nombreux contextes différents.

GPT4All : Un chatbot open source entrainé localement

Comme indiqué dans cet article, GPT4All est un chatbot entraîné sur un corpus massivement organisé d’interactions d’assistant, comprenant des problèmes de mots, des descriptions d’histoires, des dialogues à plusieurs tours et du code.

© GPT4ALL

Installation de GPT4All

Installer GPT4All localement est relativement facile. Voici les étapes à suivre, que vous pouvez également retrouver dans le dépôt Github sous “Try it yourself”. J’utilise un Mac M1 avec 32 Go de RAM.

  1. Téléchargez le fichier gpt4all-lora-quantized.bin à partir de ce lien. Enregistrez-le dans un dossier. Il pèse environ 4,2 Go.
  2. Clonez le dépôt (https://github.com/nomic-ai/gpt4all.git) ou téléchargez l’archive zip.
  3. Décompressez le fichier zip.

captionless imagecaptionless image

  1. Déplacez le fichier gpt4all-lora-quantized.bin dans le dossier chat.

captionless image

  1. Dans le terminal, exécutez la commande suivante :
cd chat;./gpt4all-lora-quantized-OSX-m1

(Pour Linux, la commande sera : cd chat;./gpt4all-lora-quantized-linux-x86) (Pour Windows, téléchargez l’installateur sur le site officiel: https://gpt4all.io/index.html)

Si tout se passe bien, vous verrez le modèle s’exécuter.

captionless image

Et voilà ! Vous avez terminé !

Exemples de conversations

Voici quelques exemples de conversations génériques :

GPT4ALL generic conversations

Création d’un script Terraform :

captionless image

À propos de Kubernetes :

captionless image

Résumé d’un film :

captionless image

Jusqu’ici, tout va bien avec le modèle. On peut noter qu’il est un peu lent, mais il fonctionne hors ligne et sans connexion à internet. Il est aussi moins performant que ChatGPT pour des tâches plus complexes. Cependant, il offre une alternative intéressante pour des besoins basiques. C’est un bon début pour un modèle open source fonctionnant en local !