DeepSeek R1un nouveau modèle de langage d'IA à code source ouvert développé par la société d'IA chinoise DeepSeek, est très populaire en ce moment.

Certains utilisateurs affirment qu'il est comparable, voire supérieur, à o1 d'OpenAI en termes de capacités d'inférence.

Actuellement, DeepSeek est gratuit, ce qui est une bonne nouvelle pour les utilisateurs, mais soulève également quelques questions.

Comment vont-ils gérer le coût du serveur à mesure que le nombre d'utilisateurs augmente ? Le matériel qui fait fonctionner le modèle ne devrait pas être bon marché, n'est-ce pas ?

On peut raisonnablement penser qu'il s'agit de données.

Ils peuvent collecter des données sur les utilisateurs d'une manière ou d'une autre, et ces données peuvent être utiles pour leurs modèles commerciaux ou d'autres formes de monétisation.

Si vous êtes préoccupé par la confidentialité des données mais que vous souhaitez utiliser R1 sans partager les données, la meilleure option est d'exécuter le modèle localement.

Qu'est-ce que DeepSeek R1?

Il y a quelques jours, DeepSeek R1 a été présenté comme un modèle entièrement open source. Cela signifie que tout le monde peut accéder à son code sous-jacent, y apporter des modifications et même l'adapter à ses propres besoins.

DeepSeek R1 (souvent abrégé en R1) est dérivé d'un grand modèle de base appelé DeepSeek-V3.

L'équipe de recherche a optimisé ce modèle en combinant le réglage fin supervisé (SFT) avec des données annotées manuellement de haute qualité et l'apprentissage par renforcement (RL).

Il en résulte un chatbot capable de traiter des messages complexes, d'expliquer le raisonnement qui sous-tend des questions complexes (parfois plus clairement que d'autres modèles), et même de présenter du code dans l'interface de chat pour des tests rapides.

C'est vraiment impressionnant, surtout pour un modèle open-source.

Comment exécuter DeepSeek R1 localement

Vers Exécuter DeepSeek R1 localementNous utiliserons un outil appelé Ollama.

Ollama est un outil gratuit et open source qui permet aux utilisateurs d'exécuter de grands modèles de langage (LLM) localement sur leurs ordinateurs.

Il est disponible pour macOS, Linux et Windows. Visitez le site officiel d'Ollama, cliquez sur le bouton "Télécharger" et installez-le sur votre système.

Pour confirmer la réussite de l'installation,

Ouvrez un terminal et exécutez la commande suivante : ollama -v

Vous devriez voir le numéro de version d'Ollama au lieu d'un message d'erreur.

Sous l'onglet "Modèles", recherchez le mot-clé "deepseek" et vous devriez voir "deepseek-r1" en haut de la liste.

Cliquez dessus, et dans la section "Modèles", vous verrez qu'il y a plusieurs tailles de modèles avec des paramètres allant de 5 milliards à 671 milliards.En règle générale, les modèles plus grands nécessitent des GPU plus puissants pour fonctionner.

Un petit modèle comme la version à 8 milliards de paramètres peut fonctionner avec un GPU doté de 8 Go de mémoire graphique, tandis que les modèles plus importants nécessitent beaucoup plus de ressources (voir la section ci-dessous sur la mémoire graphique et la configuration requise pour le GPU).

Pour télécharger et exécuter le modèle à 8 milliards de paramètres, utilisez la commande suivante :ollama run deepseek-r1:8b

Le modèle commence à se télécharger (environ 4,9 Go). Avant de continuer, assurez-vous que vous disposez d'un espace disque suffisant.

Une fois le téléchargement terminé, le modèle s'exécutera sur votre ordinateur local et vous pourrez immédiatement entamer une conversation avec lui.

Testons cela avec un exemple d'invite :

Prompt : Qu'est-ce que DeepSeek R-1 ??

Réponse : DeepSeek R-1 est un assistant d'intelligence artificielle développé par la société chinoise DeepSeek.

Il est conçu pour fournir des réponses et de l'aide sur une variété de sujets, y compris, mais sans s'y limiter, les mathématiques, la programmation, le traitement du langage naturel, etc. Si vous avez des questions ou besoin d'aide, n'hésitez pas à me demander !

Très bien.

Il est rapide et fonctionne même lorsque je déconnecte mon ordinateur portable du réseau Wi-Fi. Veuillez noter qu'il ne peut pas accéder à l'internet même si vous y êtes connecté.

Conseil : Quel est le dernier cours de l'action AAPL ?

Réponse : En tant qu'assistant IA, je n'ai pas accès aux données en temps réel et ne peux donc pas fournir le dernier cours de l'action d'Apple Inc. (AAPL).

Pour obtenir les informations les plus précises et les plus récentes, je vous suggère de consulter les plateformes d'informations financières ou vos services de courtage :

Exécuter les LLM localement, y compris LLaMA2, Phi 4, Mistral et Gemma 2Permettre aux utilisateurs de créer et de partager leurs propres LLMPackager les poids des modèles, les configurations et les données dans un seul packageOptimiser les paramètres et les détails de configuration, y compris l'utilisation du GPU.

Exigences en matière de GPU et de mémoire

Les besoins en mémoire de DeepSeek-R1 dépendent de facteurs tels que la taille du modèle, le nombre de paramètres et la technique de quantification.

Voici un aperçu détaillé des besoins en mémoire pour DeepSeek-R1 et son modèle réduit, ainsi que les GPU recommandés :

Note importante sur l'utilisation de la mémoire :

Configuration GPU distribuée pour les grands modèles : DeepSeek-R1-Zero et DeepSeek-R1 nécessitent beaucoup de mémoire graphique et donc une configuration GPU distribuée (par exemple NVIDIA A100 ou H100 dans une configuration multi-GPU) pour des performances optimales.

Les modèles Lite sont optimisés pour fonctionner sur un seul GPU avec des exigences de mémoire graphique plus faibles, à partir de 0,7 Go.

Utilisation de mémoire supplémentaire : L'activation, les tampons et les tâches par lots peuvent consommer de la mémoire supplémentaire.

Pourquoi fonctionner localement ?

Le chatbot web et l'application mobile de DeepSeek sont gratuits et très pratiques. Vous n'avez aucune installation à faire et des fonctions comme DeepThink et la recherche sur le web sont intégrées.

Toutefois, il peut être préférable de l'exécuter localement pour les raisons suivantes

Vie privée

Lorsque vous utilisez la version web ou l'application, vos requêtes et tous les fichiers joints sont envoyés aux serveurs de DeepSeek pour y être traités. Nous ne savons pas ce qu'il advient de ces données. L'exécution locale du modèle garantit que vos données restent sur votre ordinateur, ce qui vous donne un contrôle total sur votre vie privée.

Accès hors ligne

L'exécution locale du modèle signifie que vous n'avez pas besoin d'une connexion internet.

Si vous voyagez, si vous rencontrez un Wi-Fi instable ou si vous préférez simplement travailler hors ligne, l'installation locale vous permet d'utiliser DeepSeek à tout moment et en tout lieu.

À l'épreuve du temps

Actuellement, les services de DeepSeek sont gratuits, mais cela ne durera probablement pas éternellement. À un moment donné, ils devront être monétisés, et des restrictions d'utilisation ou des frais d'abonnement pourraient apparaître. Avec le modèle local, vous pouvez éviter complètement ces restrictions.

Flexible

Avec la version locale, vous n'êtes pas limité par les paramètres par défaut. Vous souhaitez affiner le modèle ?

L'intégrer à d'autres outils ? Construire une interface personnalisée... La nature open source de DeepSeek R1 vous offre des possibilités infinies.

Résumé

À l'heure actuelle, la manière dont DeepSeek traite les données des utilisateurs n'est pas encore claire.

Si vous ne vous souciez pas de la confidentialité des données, il peut être préférable d'utiliser le web ou les applications mobiles. Elles sont plus faciles à utiliser et offrent des fonctionnalités telles que DeepThink et la recherche sur le web.

Mais si vous vous souciez de la destination de vos données, le modèle local est une bonne alternative à envisager.

Le modèle DeepSeek est conçu pour fonctionner correctement même sur du matériel qui n'est pas particulièrement puissant.

Alors que les modèles plus importants comme DeepSeek-R1-Zero nécessitent une configuration de GPU distribués, la version allégée permet de fonctionner sans problème sur un seul GPU avec des exigences de mémoire moindres.

A lire également

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *