Moment Of Game
  • Accueil
  • Actualités
  • Jeux Vidéo
  • Technologie
  • Divertissement
  • Gadgets
Aucun résultat
Voir tous les résultats
Moment Of Game
  • Accueil
  • Actualités
  • Jeux Vidéo
  • Technologie
  • Divertissement
  • Gadgets
Aucun résultat
Voir tous les résultats
Moment Of Game

Comment exécuter Deepseek R1 localement : processus étape par étape

Moment Of Game par Moment Of Game
il y a 5 mois
dans Technologie
A A
Comment executer Deepseek R1 localement processus etape par etape.webp
0
SHARES
0
VUES
Share on FacebookShare on Twitter

Vous avez probablement entendu le buzz sur Deepseek R1. Il s’agit d’un modèle d’IA open source comparé aux modèles propriétaires de haut niveau comme O1 d’OpenAI. Plus que cela, c’est un modèle de raisonnement, ce qui signifie qu’il utilise une chaîne de processus de pensée pour analyser les problèmes et ses propres réponses logiquement, puis arriver lentement à une réponse. Cette approche aide le modèle d’IA à générer des réponses plus précises, en résolvant des questions complexes qui nécessitent de sérieuses compétences de raisonnement. Comme il s’agit d’un modèle open source, pour la première fois, vous pouvez installer un modèle AI de raisonnement sur votre PC et l’exécuter hors ligne. Pas besoin de s’inquiéter de la vie privée.

Comment exécuter Deepseek R1 Localement étape par étape Process.webp

Dans ce guide, je vais vous montrer comment configurer Deepseek R1 localement, même si c’est votre première fois et que vous êtes nouveau dans l’exécution de modèles d’IA. Les étapes sont les mêmes pour Mac, Windows ou Linux.

Articles Similaires

Android 16 QPR Beta 1 : Material 3 Expressif est ici !

Android 16 QPR Beta 1 : Material 3 Expressif est ici !

il y a 4 semaines
Honkai Star Rail Rail GAXION Meilleure Construction : Cons de lumière, reliques et compositions d’équipe

Honkai Star Rail Rail GAXION Meilleure Construction : Cons de lumière, reliques et compositions d’équipe

il y a 4 semaines
Connexions du NYT d’aujourd’hui # 702 Indices et réponses pour le 13 mai 2025

Connexions du NYT d’aujourd’hui # 711 Indices, réponses – 22 mai 2025

il y a 4 semaines
Bordure NYT d’aujourd’hui # 1378 Indices et réponses pour le 28 mars 2025

Bordure NYT d’aujourd’hui # 1433 indices, réponses – 22 mai 2025

il y a 4 semaines

Modèles que vous pouvez installer et pré-requis

Deepseek R1 est disponible en différentes tailles. Bien que l’exécution du plus grand modèle de paramètres 671b n’est pas possible pour la plupart des machines, plus petites, Des versions distillées peuvent être installées localement sur vos PC. Notez que l’exécution des modèles d’IA localement est à forte intensité de ressources nécessitant un espace de stockage, une RAM et une puissance GPU. Chaque modèle a des exigences matérielles spécifiques et voici un aperçu rapide:

ModèleParamètres (b)Spaceam disqueGPU recommandé
Deepseek-R1-Distill-Qwen-1.5b1.5b1,1 Go~ 3,5 GoNvidia rtx 3060 12 Go ou plus
Deepseek-R1-Distill-Qwen-7b7b4,7 Go~ 16 GoNvidia RTX 4080 16 Go ou plus
Deepseek-R1-Distill-Lama-8b8b4,9 Go~ 18 GoNvidia RTX 4080 16 Go ou plus
Deepseek-R1-Distill-Qwen-14b14B9 Go~ 32 GoConfiguration multi-GPU (par exemple, Nvidia RTX 4090 x2)
Deepseek-R1-Distill-QWEN-32B32b20 Go~ 74 GoConfiguration multi-GPU (par exemple, Nvidia RTX 4090 x4)
Deepseek-R1-Distill-Lama-70b70b43 Go~ 161 GoConfiguration multi-GPU (par exemple, Nvidia A100 80 Go x2)
Deepseek-R1671b404 Go~ 1 342 GoConfiguration multi-GPU (par exemple, NVIDIA A100 80GB X16)

C’est mieux si vous avez plus de RAM. En fait, nous vous recommandons d’ajouter un RAM puissant si possible pour obtenir de meilleurs résultats.

Conseil de pro: Début et confus sur le modèle R1 à installer. Nous vous recommandons d’essayer d’installer le Modèle de paramètres 1,5b le plus petit (Le premier dans le tableau ci-dessus) – il est léger et facile à tester.

Comment installer Deepseek R1 localement

Il existe différentes façons d’installer et d’exécuter les modèles Deepseek localement sur votre ordinateur. Nous partagerons quelques-uns faciles ici.

Conseil de pro: Nous recommandons Méthodes Olllama et Chatbox Si vous débutez et souhaitez un moyen facile d’installer le modèle R1 Deepseek ou n’importe quel modèle d’IA d’ailleurs.

Méthode 1: Installation de R1 à l’aide d’Olllama et de Chatbox

C’est le moyen le plus simple de commencer, même pour les débutants.

Étape 1: Installer Olllama

1. Aller au Site Web Olllama et téléchargez l’installateur pour votre système d’exploitation (Mac, Windows ou Linux). Exécutez le programme d’installation et suivez les instructions à l’écran.

2. Une fois installé, terminal ouvert pour confirmer que cela fonctionne. Copier-coller la commande ci-dessous.

Olllama – Version

1738149844 246 Comment exécuter Deepseek R1 Processus localement étape par étape.webp

Vous devriez voir un numéro de version apparaître, ce qui signifie que Olllama est prêt à l’emploi.

Étape 2: Téléchargez et exécutez le modèle Deepseek R1

1 et 1 Donnez la commande suivante dans le terminal. Remplacer [model size] avec le modèle de l’IA que vous souhaitez installer. Par exemple, pour le modèle de paramètre 1.5b, exécutez cette commande: Olllama Run Deepseek-R1: 1.5b.

Olllama Run Deepseek-R1:[model size]

2 Attendez le téléchargement du modèle. Vous verrez des progrès dans le terminal.

1738149845 673 Comment exécuter Deepseek R1 Processus local étape par étape.webp

3 et 3 Une fois téléchargé, le modèle commencera à fonctionner. Vous pouvez interagir directement avec le terminal. À l’avenir, vous pouvez utiliser la même commande Terminal pour discuter avec le modèle Deepseek R1 AI.

Maintenant, nous allons montrer comment installer Chatbox pour une interface conviviale.

Étape 3: Installez Chatbox

1 et 1 Téléchargez Chatbox depuis son site officiel. Installez et ouvrez l’application. Vous verrez une interface simple et conviviale.

2. Dans Chatbox, allez à Paramètres En cliquant sur l’icône COG dans la barre latérale.

1738149845 7 Comment exécuter Deepseek R1 Processus localement étape par étape.webp

3 et 3 Définissez le fournisseur de modèles sur Ollla.

4 Définissez l’hôte de l’API pour:

http://127.0.0.1:11434

5 Sélectionnez le modèle Deepseek R1 (par exemple, Deepseek-R1: 1.5b) dans le menu déroulant.

1738149845 480 Comment exécuter Deepseek R1 Processus local étape par étape.webp

6. Frapper Sauvegarder Et commencez à discuter.

1738149845 988 Comment exécuter Deepseek R1 Processus local étape par étape.webp

Méthode 2: Utilisation d’Olllama et Docker

Cette méthode est excellente si vous souhaitez exécuter le modèle dans un conteneur Docker.

Étape 1: Installer Docker

1 et 1 Aller au Site Web de Docker et télécharger Docker Desktop pour votre système d’exploitation. Installez Docker en suivant les instructions à l’écran.

2 Ouvrez l’application et connectez-vous avec le service.

3 et 3 Tapez la commande ci-dessous dans le terminal pour l’exécuter.

Docker – Version

Vous devriez voir un numéro de version apparaître, ce qui signifie que le Docker est installé.

1738149846 220 Comment exécuter Deepseek R1 Processus localement étape par étape.webp

Étape 2: Tirez l’image Open Webui

1 et 1 Ouvrez votre terminal et type:

docker tire ghcr.io/open-webui/open-webui:main

2 Cela téléchargera les fichiers nécessaires pour l’interface.

1738149846 124 Comment exécuter Deepseek R1 Processus localement étape par étape.webp

Étape 3: Exécutez le conteneur Docker et Ouvrir webui

1 et 1 Démarrez le conteneur Docker avec un stockage de données persistant et des ports mappés en exécutant:

docker run -d -p 9783: 8080 -v open webui: / app / backend / data –name open-webui ghcr.io/open-webui/open-webui:main

2 Attendez quelques secondes pour que le conteneur commence.

3 et 3 Ouvrez votre navigateur et allez à:

http: // localhost: 9783 /

4 Créez un compte comme invité et vous serez redirigé vers l’interface principale. À ce stade, aucun modèle ne sera disponible pour la sélection.

1738149846 328 Comment exécuter Deepseek R1 Processus local étape par étape.webp

Étape 5: Configurer Olllama et intégrer Deepseek R1

1 et 1 Visiter le Site Web Olllama et le télécharger / l’installer.

2 Dans le terminal, téléchargez le modèle Deepseek R1 souhaité en tapant:

Olllama Run Deepseek-R1: 1.5b

1738149845 673 Comment exécuter Deepseek R1 Processus local étape par étape.webp

3 et 3 Actualisez la page Open Webui dans votre navigateur. Vous verrez le modèle de profondeur R1 téléchargé (par exemple, Deepseek-R1: 8b) dans la liste des modèles.

1738149847 259 Comment exécuter Deepseek R1 Processus local étape par étape.webp

4 Sélectionnez le modèle et commencez à discuter.

1738149847 748 Comment exécuter Deepseek R1 Processus local étape par étape.webp

Méthode 3: Utilisation de LM Studio

Fonctionne très bien si vous ne souhaitez pas utiliser le terminal pour interagir avec Deepseek localement. Cependant, LM Studio ne prend actuellement en charge que les modèles QWEN 7B et 8B. Donc, si vous souhaitez installer des modèles 1.5b ou même plus élevés comme 32b, cette méthode ne fonctionnera pas pour vous.

1 et 1 Téléchargez LM Studio à partir de son site officiel. Installez et lancez l’application.

2 Cliquez sur le Icône de recherche Dans la barre latérale et rechercher le modèle Deepseek R1 (par exemple, Deepseek-R1-Distill-Llama-8b).

1738149847 168 Comment exécuter Deepseek R1 Processus localement étape par étape.webp

3 et 3 Faire un clic Télécharger et attendez que le processus se termine.

1738149847 349 Comment exécuter Deepseek R1 Processus local étape par étape.webp

4 Une fois téléchargé, cliquez sur le barre de recherche Au sommet de la page d’accueil de LM Studio.

1738149848 153 Comment exécuter Deepseek R1 Processus localement étape par étape.webp

5 Sélectionnez le modèle téléchargé et chargez-le.

1738149848 74 Comment exécuter Deepseek R1 Processus local étape par étape.webp

6. C’est ça. Tapez votre rapide Dans la zone de texte et frapper Entrer. Le modèle générera une réponse.

Réflexions finales

L’exécution Deepseek R1 offre localement la confidentialité, les économies de coûts et la flexibilité pour personnaliser votre configuration d’IA.

Si vous êtes nouveau dans ce domaine, commencez par Olllama et Chatbox pour une configuration simple. Docker est idéal pour les utilisateurs familiers avec la conteneurisation, tandis que LM Studio fonctionne mieux pour ceux qui évitent les commandes du terminal. Essayez un modèle plus petit comme le 8b ou 1,5b pour commencer, et acquitter au fur et à mesure.

Mots clés: CommentDeepSeekétapeexécuterlocalementparprocessus
PartagerTweetPin

Articles Similaires

Android 16 QPR Beta 1 : Material 3 Expressif est ici !
Technologie

Android 16 QPR Beta 1 : Material 3 Expressif est ici !

il y a 4 semaines
Honkai Star Rail Rail GAXION Meilleure Construction : Cons de lumière, reliques et compositions d’équipe
Technologie

Honkai Star Rail Rail GAXION Meilleure Construction : Cons de lumière, reliques et compositions d’équipe

il y a 4 semaines
Connexions du NYT d’aujourd’hui # 702 Indices et réponses pour le 13 mai 2025
Technologie

Connexions du NYT d’aujourd’hui # 711 Indices, réponses – 22 mai 2025

il y a 4 semaines
Bordure NYT d’aujourd’hui # 1378 Indices et réponses pour le 28 mars 2025
Technologie

Bordure NYT d’aujourd’hui # 1433 indices, réponses – 22 mai 2025

il y a 4 semaines
Lies Danse sur la brise dans HSR 3.3 : Statistiques et matériaux
Technologie

Lies Danse sur la brise dans HSR 3.3 : Statistiques et matériaux

il y a 4 semaines
Charger plus
  • Tendance
  • Commentaires
  • Dernier
Ultimate Arise Crossover Guide du Débutant (bêta)

Ultimate Arise Crossover Guide du Débutant (bêta)

11 mars 2025
Comment trouver le trésor de Ventza dans Kingdom Come Deliverance 2

Comment trouver le trésor de Ventza dans Kingdom Come Deliverance 2

7 février 2025
Codes de simulateur de creusement de forage Roblox (mars 2025)

Codes de simulateur de creusement de forage Roblox (mars 2025)

4 mars 2025
Top 10 des jeux les plus joués sur Roblox de tous les temps en 2025

Top 10 des jeux les plus joués sur Roblox de tous les temps en 2025

28 février 2025
Codes pour Roblox Anime Adventures

Codes pour Roblox Anime Adventures

0
Toutes les légendes locales de Natlan dans Genshin Impact

Toutes les légendes locales de Natlan dans Genshin Impact

0
Mises à jour et récompenses des codes de Slayer Battlegrounds de septembre 2024

Mises à jour et récompenses des codes de Slayer Battlegrounds de septembre 2024

0
Maîtriser le Tripcaster pour vaincre les ennemis dans Astro Bot

Maîtriser le Tripcaster pour vaincre les ennemis dans Astro Bot

0
Android 16 QPR Beta 1 : Material 3 Expressif est ici !

Android 16 QPR Beta 1 : Material 3 Expressif est ici !

22 mai 2025
Honkai Star Rail Rail GAXION Meilleure Construction : Cons de lumière, reliques et compositions d’équipe

Honkai Star Rail Rail GAXION Meilleure Construction : Cons de lumière, reliques et compositions d’équipe

22 mai 2025
Connexions du NYT d’aujourd’hui # 702 Indices et réponses pour le 13 mai 2025

Connexions du NYT d’aujourd’hui # 711 Indices, réponses – 22 mai 2025

22 mai 2025
Bordure NYT d’aujourd’hui # 1378 Indices et réponses pour le 28 mars 2025

Bordure NYT d’aujourd’hui # 1433 indices, réponses – 22 mai 2025

22 mai 2025

À propos

Moment Of Game offre une couverture intelligente et approfondie des jeux vidéo, films, séries TV et de la culture geek, avec des contenus captivants pour informer et divertir nos lecteurs.

Catégories

  • Jeux Vidéo
  • Technologie

Article récent

  • Android 16 QPR Beta 1 : Material 3 Expressif est ici !
  • Honkai Star Rail Rail GAXION Meilleure Construction : Cons de lumière, reliques et compositions d’équipe
  • Connexions du NYT d’aujourd’hui # 711 Indices, réponses – 22 mai 2025
  • Bordure NYT d’aujourd’hui # 1433 indices, réponses – 22 mai 2025
  • À propos
  • Conditions d’utilisation
  • Politique de confidentialité
  • Politique de cookies
  • Contactez-nous

© 2024 Moment Of Game - Tous droits réservés.

Aucun résultat
Voir tous les résultats
  • Accueil
  • Actualités
  • Jeux Vidéo
  • Technologie
  • Divertissement
  • Gadgets

© 2024 Moment Of Game - Tous droits réservés.