Recherche de site Web

Comment installer LM Studio pour exécuter des LLM localement sous Linux


LM Studio est une application de bureau conviviale qui vous permet de télécharger, d'installer et d'exécuter de grands modèles de langage (LLM) localement sur votre machine Linux.

Grâce à LM Studio, vous pouvez vous libérer des limitations et des problèmes de confidentialité associés aux modèles d'IA basés sur le cloud, tout en bénéficiant d'une interface familière de type ChatGPT.

Dans cet article, nous vous guiderons dans l'installation de LM Studio sur Linux à l'aide du format AppImage et vous fournirons un exemple d'exécution d'un Linux spécifique.LLM localement.

Configuration requise

La configuration matérielle et logicielle minimale requise pour exécuter LM Studio sous Linux est :

  • Carte graphique dédiée NVIDIA ou AMD avec au moins 8 Go de VRAM.
  • Un processeur compatible avec AVX2 et au moins 16 Go de RAM sont requis.

Installer LM Studio sous Linux

Pour commencer, vous devez télécharger la dernière version de LM Studio AppImage à partir du site Web ou du référentiel officiel.

Une fois AppImage téléchargée, vous devez la rendre exécutable et extraire le contenu de AppImage, qui se décompressera dans un répertoire nommé squashfs-root. .

chmod u+x LM_Studio-*.AppImage
./LM_Studio-*.AppImage --appimage-extract

Accédez maintenant au répertoire squashfs-root extrait et définissez les autorisations appropriées sur le fichier chrome-sandbox, qui est un fichier binaire d'assistance dont l'application a besoin pour s'exécuter en toute sécurité.

cd squashfs-root
sudo chown root:root chrome-sandbox
sudo chmod 4755 chrome-sandbox

Vous pouvez désormais exécuter l'application LM Studio directement à partir des fichiers extraits.

./lm-studio

C'est ça! LM Studio est désormais installé sur votre système Linux et vous pouvez commencer à explorer et à exécuter des LLM locaux.

Exécuter un modèle de langage localement sous Linux

Après avoir installé et exécuté avec succès LM Studio, vous pouvez commencer à l'utiliser pour exécuter des modèles de langage localement.

Par exemple, pour exécuter un modèle linguistique pré-entraîné appelé GPT-3, cliquez sur la barre de recherche en haut, tapez « GPT-3 » et téléchargez-le.

Une fois le téléchargement terminé, cliquez sur l'onglet « Chat » dans le volet de gauche. Dans l'onglet « Chat », cliquez sur le menu déroulant en haut et sélectionnez le modèle GPT-3 téléchargé.

Vous pouvez désormais commencer à discuter avec le modèle GPT-3 en saisissant vos messages dans le champ de saisie en bas de la fenêtre de discussion.

Le modèle GPT-3 traitera vos messages et fournira des réponses basées sur son entraînement. Gardez à l’esprit que le temps de réponse peut varier en fonction du matériel de votre système et de la taille du modèle téléchargé.

Conclusion

En installant LM Studio sur votre système Linux à l'aide du format AppImage, vous pouvez facilement télécharger, installer et exécuter de grands modèles linguistiques localement sans recourir à des services basés sur le cloud.

Cela vous donne un meilleur contrôle sur vos données et votre confidentialité tout en bénéficiant des avantages des modèles d’IA avancés. N'oubliez pas de toujours respecter les droits de propriété intellectuelle et d'adhérer aux conditions d'utilisation des LLM que vous téléchargez et exécutez à l'aide de LM Studio.