Code

LM Studio sur PC

Quoi ?

Faire tourner en local sur sa machine un agent conversationnel de manière confidentielle ? Est-ce possible ? Apparemment : Oui

Usage ?

Voici quelques exemples d’application d’IA Générative : création de contenu, générer du code, traduction, recettes, discussions.

Pourquoi en local ?

Dans l’idéal, on aurait :

  1. Confidentialité et contrôle des données,
  2. Indépendance vis-à-vis d’Internet,
  3. Réduction des coûts,
  4. Personnalisation et flexibilité,
  5. Performances optimales et faible latence,
  6. Sécurité renforcée.
Illustration du codeur barbu montrant du doight le texte.

Comment ?

installer un logiciel qui permet de charger des modèles et de converser avec.

Utiliser un éditeur de code et y greffer un agent conversationnel et collaborer avec.


Illustration de la mascotte LLMA

Il y a plusieurs solutions, il suffit de faire un peu de veille technologique.

Sous windows, mon choix et mes tests ont été faits avec :

  1. LM Studio .exe
    [ mstudio.ai ]
  2. Visual Studio Code .exe
  3. Extension Continue .vsix
    [ continue.dev ]
  4. La plateforme Huggin face
    [ huggingface.co ]

Des modèles :

  • Qwen 2.5
  • Llama 3.2
  • Mistral (Tester Codestral !)
  • Phi
  • Gemma
  • DeepSeek

Tout cela peut aussi fonctionner sous osx, linux, ou dans un conteneur docker.

Pourquoi LLAMA ?

Llama est une famille de modèles de langage développée par Meta.

Ollama.com ?
Un peu plus technique que LM Studio : ollama.com est un autre beau point de départ.

Pourquoi L’alpaga pour représenter LLMA ?

L’alpaga est devenu une mascotte symbolique jouant sur le jeu de mots avec « Llama » (lama en anglais) et représentant de manière ludique l’accessibilité et la « domestication » de ces technologies d’IA avancées. 

Lexique : LLM pour Large Language Mode [ article wikipedia ]


Illustration de la mascotte android

Pour avoir son petit agent conversationnel sur son smartphone android, PocketPal semble faire l’affaire.

Pour le choix de l’app, faire attention :

  • Au permissions
  • Aux achat in app

On utilisera un modèle léger selectionnable directement depuis PocketPal.

Et le matos avec tout cela ? Une grosse carte graphique 🔥🔥🔥

Et pour de la génération d’image ? Il existe une solution avec Krita, peut-être quelques liens dans un futur article.

Amusez-vous bien !


Voici un petit tableau comparatif des principaux modèles d’IA très résumé :

ModèleRemarques
Qwen 2.5– codage et mathématiques
Llama 3.2– Premier modèle multimodal de Meta
– Versions légères pour mobile (1B et 3B)
Mistral– Modèle français
– Dialogue et le code
Phi– Petit modèle développé par Microsoft
– Optimisé pour des tâches spécifiques
– Idéal pour le déploiement local
Gemma– Modèle développé par Google
DeepSeek– Performances comparables à GPT-4

Quelques termes issus du domaine de l’IA généré par perplexity utilisant Claude 3.5 Sonnet :

Citations:
[1] https://www.sap.com/suisse/products/artificial-intelligence/what-is-generative-ai.html
[2] https://bigmedia.bpifrance.fr/news/intelligence-artificielle-generative-de-quoi-parle-t
[3] https://aws.amazon.com/fr/what-is/generative-ai/
[4] https://www.lemagit.fr/conseil/IA-machine-learning-deep-learning-IA-generative-quelles-differences
[5] https://www.gartner.fr/fr/themes/intelligence-artificielle
[6] https://www.hubvisory.com/fr/blog/comprendre-lia-le-machine-learning-le-deep-learning-et-la-gen-ai-guide-pour-les-product-managers
[7] https://www.followtribes.io/lintelligence-artificielle-ia/


Article en version 0.0.1 — pré alpha 😮

Évaluation
0

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *