DeepSeek-R1-Distill-Qwen-1.5B部署教程:WSL2环境下Ubuntu子系统完整配置流程

张开发
2026/4/17 8:31:54 15 分钟阅读

分享文章

DeepSeek-R1-Distill-Qwen-1.5B部署教程:WSL2环境下Ubuntu子系统完整配置流程
DeepSeek-R1-Distill-Qwen-1.5B部署教程WSL2环境下Ubuntu子系统完整配置流程1. 项目简介DeepSeek-R1-Distill-Qwen-1.5B是一个超轻量级的智能对话模型专门为本地化部署设计。这个模型结合了DeepSeek优秀的逻辑推理能力和Qwen成熟的架构设计经过蒸馏优化后在保持强大能力的同时大幅降低了计算资源需求。只需要1.5B的参数规模让这个模型完美适配各种硬件环境包括显存较小的GPU或者普通的CPU计算环境。项目使用Streamlit构建了直观的聊天界面不需要复杂的配置就能开始使用。这个模型特别擅长逻辑推理、数学解题、代码编写等需要思考过程的任务。它会自动将思考过程结构化展示让你清晰看到AI的推理逻辑。所有数据处理都在本地完成完全保障你的隐私安全。2. 环境准备与系统配置2.1 WSL2和Ubuntu安装首先需要在Windows系统上启用WSL2功能。打开PowerShell管理员身份运行以下命令wsl --install这个命令会自动安装WSL2和默认的Ubuntu发行版。安装完成后需要设置WSL版本wsl --set-default-version 2重启系统后从开始菜单启动Ubuntu完成初始用户设置。2.2 系统更新和基础依赖进入Ubuntu终端首先更新系统包sudo apt update sudo apt upgrade -y安装Python和pipsudo apt install python3 python3-pip python3-venv -y安装CUDA工具包如果使用NVIDIA GPUsudo apt install nvidia-cuda-toolkit -y3. 模型部署详细步骤3.1 创建项目目录首先创建一个专门的项目目录mkdir ~/deepseek-chat cd ~/deepseek-chat创建Python虚拟环境python3 -m venv venv source venv/bin/activate3.2 安装依赖包安装必需的Python包pip install torch torchvision torchaudio pip install transformers streamlit pip install accelerate bitsandbytes3.3 下载模型文件创建模型存储目录sudo mkdir -p /root/ds_1.5b从魔塔平台下载模型文件需要先获取下载链接# 示例下载命令实际链接可能需要根据平台要求获取 wget -O /root/ds_1.5b/model.safetensors 模型下载链接 wget -O /root/ds_1.5b/config.json 配置文件链接3.4 创建Streamlit应用创建主程序文件touch app.py编辑app.py文件添加以下代码import streamlit as st from transformers import AutoTokenizer, AutoModelForCausalSeq2Seq import torch # 设置页面标题 st.set_page_config(page_titleDeepSeek R1 智能助手) # 缓存加载模型和分词器 st.cache_resource def load_model(): model_path /root/ds_1.5b tokenizer AutoTokenizer.from_pretrained(model_path) model AutoModelForCausalSeq2Seq.from_pretrained( model_path, device_mapauto, torch_dtypeauto ) return tokenizer, model tokenizer, model load_model() # 初始化对话历史 if messages not in st.session_state: st.session_state.messages [] # 清空对话函数 def clear_chat(): st.session_state.messages [] torch.cuda.empty_cache() # 侧边栏 with st.sidebar: st.title(DeepSeek R1 设置) st.button( 清空对话, on_clickclear_chat) # 显示历史消息 for message in st.session_state.messages: with st.chat_message(message[role]): st.markdown(message[content]) # 用户输入 if prompt : st.chat_input(考考 DeepSeek R1...): st.session_state.messages.append({role: user, content: prompt}) with st.chat_message(user): st.markdown(prompt) # 生成回复 with st.chat_message(assistant): with st.spinner(思考中...): # 准备输入 inputs tokenizer.apply_chat_template( st.session_state.messages, add_generation_promptTrue, return_tensorspt ).to(model.device) # 生成回复 with torch.no_grad(): outputs model.generate( inputs, max_new_tokens2048, temperature0.6, top_p0.95, do_sampleTrue ) # 处理回复 response tokenizer.decode(outputs[0][len(inputs[0]):], skip_special_tokensTrue) # 格式化输出 if |im_start|assistant in response: response response.split(|im_start|assistant)[-1] response response.replace(|im_end|, ).strip() st.markdown(response) st.session_state.messages.append({role: assistant, content: response})4. 启动和使用指南4.1 启动服务在项目目录下运行streamlit run app.py首次启动需要一些时间加载模型大约10-30秒之后会显示本地访问地址通常是http://localhost:8501。4.2 开始对话在浏览器中打开显示的地址你会看到简洁的聊天界面在底部输入框输入你的问题按回车发送消息等待模型生成回复回复会以清晰的气泡形式展示4.3 使用技巧复杂问题可以问数学题、编程问题、逻辑推理等需要多步思考的问题连续对话模型会记住之前的对话上下文可以进行多轮交流清空对话点击侧边栏的清空按钮可以开始新的话题思考过程模型会自动展示推理过程让你了解它的思考逻辑5. 常见问题解决5.1 模型加载失败如果模型加载失败检查模型文件路径是否正确ls -la /root/ds_1.5b/确保包含以下文件config.jsonmodel.safetensorstokenizer.json5.2 显存不足问题如果遇到显存不足可以修改模型加载方式model AutoModelForCausalSeq2Seq.from_pretrained( model_path, device_mapauto, torch_dtypeauto, load_in_8bitTrue # 使用8bit量化减少显存使用 )5.3 性能优化如果响应速度较慢可以调整生成参数outputs model.generate( inputs, max_new_tokens1024, # 减少生成长度 temperature0.7, top_p0.9, do_sampleTrue )6. 总结通过这个教程你已经成功在WSL2的Ubuntu环境中部署了DeepSeek-R1-Distill-Qwen-1.5B模型。这个轻量级模型为你提供了本地化的智能对话服务既保证了数据隐私又提供了强大的推理能力。这个解决方案特别适合需要本地化部署的场景对数据隐私有要求的应用教育资源和个人学习使用开发和测试AI应用原型模型在逻辑推理、数学解题、代码编写等方面表现优秀而且能够清晰展示思考过程非常适合教育和技术探索用途。所有操作都在本地完成不需要担心数据安全问题。现在你可以开始体验本地智能对话的便利了尝试问一些需要深度思考的问题观察模型的推理过程相信你会对这个轻量级模型的能力感到惊喜。获取更多AI镜像想探索更多AI镜像和应用场景访问 CSDN星图镜像广场提供丰富的预置镜像覆盖大模型推理、图像生成、视频生成、模型微调等多个领域支持一键部署。

更多文章