PandIA is now for sale. For inquiries, please contact us.

PandIA

Comment installer Llama CPP (Meta) en local sur un Mac (Apple Silicon M1)

Comment installer Llama CPP (Meta) en local sur un Mac (Apple Silicon M1)
Comment installer Llama CPP sur un MacBook M1

Avec l'intérêt croissant pour l'intelligence artificielle et son utilisation dans la vie quotidienne, de nombreux modèles exemplaires tels que LLaMA de Meta, GPT-3 d'OpenAI et Kosmos-1 de Microsoft rejoignent le groupe des grands modèles de langage (LLM). Le seul problème de ces modèles est qu'ils ne peuvent pas être exécutés localement. Jusqu'à présent. Grâce à Georgi Gerganov et à son projet llama.cpp, il est possible d'exécuter LLaMA de Meta sur un seul ordinateur sans GPU dédié.

Logo de Llama CPP sur GitHub

Le 3 mars, l'utilisateur 'llamanon' a divulgué le modèle LLaMA de Meta sur le forum technologique /g/ de 4chan, permettant ainsi à n'importe qui de le télécharger. Un troll a tenté d'ajouter le lien torrent au repo officiel LLaMA Github de Meta.

Leak du modèle sur 4chan

Comment installer Llama CPP

Installer les dépendances

Voici comment installer LLaMA sur un Mac avec Apple Silicon M1. Ouvrez votre Terminal et entrez ces commandes une par une :

git clone https://github.com/ggerganov/llama.cpp
cd llama.cpp
make

Dans ce tutoriel, nous ne téléchargerons que le modèle 7B, il s'agit du modèle le plus léger. vous pouvez utiliser le logiciel Transmission pour le télécharger.

N'oubliez pas de décocher les modèles que vous ne souhaitez pas télécharger

Dans le dossier models de llama.cpp, vous devez avoir la structure de fichier suivante :

13B
30B
65B
7B
llama.sh
tokenizer.model
tokenizer_checklist.chk
  • Xcode doit être installé pour compiler le projet C++. Si vous ne l'avez pas, veuillez procéder comme suit dans votre terminal :
  • xcode-select --install
  • Si Homebrew n'est pas installé, toujours dans l'app Terminal sur votre mac, entrez
  • /bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"
  • Gardez la fenêtre du terminal ouverte et suivez les instructions sous "Next steps" pour ajouter Homebrew à votre PATH.
  • Ensuite nous installons Python 3.10 :
  • brew install python@3.10
  • Une fois Homebrew installé, vous pouvez l'utiliser pour installer Pipenv en exécutant la commande suivante dans le Terminal :
  • brew install pipenv
  • Puis on lance avec :
  • pipenv shell --python 3.10
pipenv

Importer les modèles

Vous devez créer un dossier /models dans votre répertoire llama.cpp qui contient directement le 7B (ou d'autres modèles) et les fichiers du téléchargement du modèle LLaMA.

Votre répertoire /models

Convertir les modèles

  • Ensuite, installez les dépendances nécessaires au script de conversion Python :
  • pip install torch numpy sentencepiece
  • Le premier script convertit le modèle au format "ggml FP16" :
  • python convert-pth-to-ggml.py models/7B/ 1
  • Cela devrait produire models/7B/ggml-model-f16.bin - un autre fichier de 13 Go. Le second script "quantifie le modèle à 4 bits" :
  • ./quantize ./models/7B/ggml-model-f16.bin ./models/7B/ggml-model-q4_0.bin 2
  • Cela produit models/7B/ggml-model-q4_0.bin - un fichier de 3,9 Go. C'est le fichier que nous utiliserons pour exécuter le modèle.

Utiliser Llama CPP

Maintenant que tout est prêt, nous pouvons exécuter le modèle :

./main -m ./models/7B/ggml-model-q4_0.bin \
  -t 8 \
  -n 128 \
  -p 'Bitcoin is a cryptocurrency '

./main --help affiche les options. -m est le modèle. -t est le nombre de threads à utiliser. -n est le nombre de jetons à générer. -p est le prompt. Pour obtenir des réponses plus longues il faudra augmenter -n, par exemple -n 512.

Réponse de Llama CPP

Réponse de Llama CPP :

Bitcoin is a cryptocurrency, a digital asset designed to work as a medium of exchange like traditional currencies such as USD, EUR, JPY, etc. It is also the first decentralized digital currency; no single institution backs it and it is run by a distributed network of users. [end of text]

Conclusion

Vous pouvez désormais intéragir avec votre propre IA, sur votre Mac sans avoir besoin d'internet. Si vous rencontrez des erreurs durant l'installation de Llama CPP, n'hésitez pas à les copier, et à les coller dans ChatGPT en lui disant : J'obtiens cette erreur dans mon Terminal sur un Mac : [coller l'erreur] il devrait être en mesure de vous apporter la solution.

À voir aussi :

Comment installer Stable Diffusion 1.5 & 2.1 en local sur un Mac (Apple Silicon M1)
Dans ce guide nous allons voir comment installer Stable Diffusion, ainsi que les modèles 1.5 et 2.1, sur un Mac possédant la puce Silicon M1. Le tout dans un environnement local. Vous n’avez pas besoin de connaissances techniques spécifiques, il vous suffit de suivre notre guide ! Actuellement, la

Recevez les dernières actualités sur l'IA dans votre boite mail

envelope
Si vous souhaitez recevoir un résumé de l'actualité ainsi que nos derniers guides sur l'IA rejoignez nous !
Actualités Guides Liste IA Prompts Newsletter