Qwen3.5-9B虚拟机应用指南:在VMware中配置Ubuntu开发环境运行AI模型

张开发
2026/4/9 11:44:11 15 分钟阅读

分享文章

Qwen3.5-9B虚拟机应用指南:在VMware中配置Ubuntu开发环境运行AI模型
Qwen3.5-9B虚拟机应用指南在VMware中配置Ubuntu开发环境运行AI模型1. 前言为什么选择虚拟机方案对于Windows或macOS开发者来说直接运行Linux环境往往是个挑战。物理机安装双系统不仅操作复杂还存在驱动兼容性问题。而虚拟机方案提供了完美的折中方案——在熟悉的操作系统内创建一个隔离的Linux环境既能体验完整的Ubuntu功能又不会影响主机系统。Qwen3.5-9B作为一款强大的开源大语言模型在Linux环境下运行效果最佳。本教程将手把手带你完成从零开始的完整配置流程即使你是Linux新手也能轻松上手。整个过程大约需要2-3小时具体时间取决于你的网络速度和硬件配置。2. 准备工作与环境搭建2.1 硬件与软件需求在开始之前请确保你的电脑满足以下基本要求主机系统Windows 10/11或macOS 10.15及以上版本处理器Intel/AMD 64位CPU建议4核以上内存至少16GB推荐32GB存储空间50GB可用空间SSD更佳显卡NVIDIA显卡可选如需GPU加速软件准备VMware Workstation Player免费版或Pro版本Ubuntu 22.04 LTS桌面版ISO镜像2.2 安装VMware虚拟机软件访问VMware官网下载对应版本的Workstation Player运行安装程序按照向导完成安装首次启动时接受许可协议可选注册免费许可证密钥对于macOS用户可以使用VMware Fusion操作逻辑类似。本教程以Windows环境为例但关键步骤在不同平台基本一致。3. 创建并配置Ubuntu虚拟机3.1 新建虚拟机实例打开VMware点击创建新虚拟机选择自定义高级配置硬件兼容性选择最新版本如Workstation 17.x选择稍后安装操作系统客户机操作系统选择Linux版本选择Ubuntu 64位为虚拟机命名如Ubuntu_Qwen并选择存储位置3.2 配置虚拟机硬件参数这一步对后续运行Qwen模型至关重要处理器分配至少4个核心如有内存分配至少8GB16GB更佳网络建议使用NAT模式磁盘创建新虚拟磁盘磁盘类型选择SCSI容量至少50GB建议100GB选择将虚拟磁盘拆分成多个文件其他移除不必要的硬件如打印机确保开启虚拟化支持VT-x/AMD-V3.3 安装Ubuntu系统右键新建的虚拟机选择设置在CD/DVD选项中选择使用ISO映像文件浏览选择下载的Ubuntu ISO启动虚拟机进入Ubuntu安装界面选择安装Ubuntu键盘布局选择English (US)安装类型选择最小安装并勾选安装第三方软件分区选择清除整个磁盘并安装Ubuntu设置时区、用户名和密码等待安装完成约15-30分钟重启虚拟机4. 优化虚拟机性能4.1 安装VMware ToolsVMware Tools能显著提升虚拟机性能在VMware菜单选择虚拟机→安装VMware Tools在Ubuntu中打开文件管理器挂载出现的VMware Tools虚拟光盘打开终端执行tar -xzf /media/$USER/VMware\ Tools/VMwareTools-*.tar.gz -C /tmp/ cd /tmp/vmware-tools-distrib/ sudo ./vmware-install.pl所有提示按回车使用默认值安装完成后重启虚拟机4.2 调整显示设置打开设置→显示器分辨率调整为适合你屏幕的值关闭动画效果外观→行为4.3 共享文件夹设置可选如需在主机和虚拟机间共享文件在VMware设置中添加共享文件夹在Ubuntu中安装open-vm-toolssudo apt install open-vm-tools-desktop共享文件夹通常挂载在/mnt/hgfs/5. 配置Python与CUDA环境5.1 基础软件包安装首先更新系统并安装必要工具sudo apt update sudo apt upgrade -y sudo apt install -y git curl wget python3-pip python3-venv build-essential5.2 安装NVIDIA驱动如有GPU如果你的主机有NVIDIA显卡并希望启用GPU加速检查可用驱动版本ubuntu-drivers devices安装推荐驱动sudo ubuntu-drivers autoinstall重启后验证nvidia-smi5.3 配置CUDA和cuDNN可选对于GPU加速需要安装CUDA工具包wget https://developer.download.nvidia.com/compute/cuda/repos/ubuntu2204/x86_64/cuda-ubuntu2204.pin sudo mv cuda-ubuntu2204.pin /etc/apt/preferences.d/cuda-repository-pin-600 wget https://developer.download.nvidia.com/compute/cuda/12.3.2/local_installers/cuda-repo-ubuntu2204-12-3-local_12.3.2-545.23.08-1_amd64.deb sudo dpkg -i cuda-repo-ubuntu2204-12-3-local_12.3.2-545.23.08-1_amd64.deb sudo cp /var/cuda-repo-ubuntu2204-12-3-local/cuda-*-keyring.gpg /usr/share/keyrings/ sudo apt-get update sudo apt-get -y install cuda安装完成后将CUDA加入环境变量echo export PATH/usr/local/cuda/bin:$PATH ~/.bashrc echo export LD_LIBRARY_PATH/usr/local/cuda/lib64:$LD_LIBRARY_PATH ~/.bashrc source ~/.bashrc5.4 创建Python虚拟环境为避免依赖冲突建议为Qwen创建独立环境python3 -m venv ~/qwen-env source ~/qwen-env/bin/activate6. 部署与测试Qwen3.5-9B模型6.1 安装依赖库激活虚拟环境后安装必要包pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118 pip install transformers accelerate sentencepiece tiktoken6.2 下载模型权重Qwen3.5-9B模型可以从Hugging Face获取git lfs install git clone https://huggingface.co/Qwen/Qwen1.5-9B如果网络条件不佳可以考虑使用镜像源或提前下载好权重文件。6.3 运行基础测试创建一个简单的测试脚本test_qwen.pyfrom transformers import AutoModelForCausalLM, AutoTokenizer model_path Qwen1.5-9B tokenizer AutoTokenizer.from_pretrained(model_path) model AutoModelForCausalLM.from_pretrained(model_path, device_mapauto) input_text 请介绍一下人工智能的发展历史 inputs tokenizer(input_text, return_tensorspt).to(cuda) outputs model.generate(**inputs, max_new_tokens100) print(tokenizer.decode(outputs[0], skip_special_tokensTrue))运行脚本python test_qwen.py首次运行会下载一些额外文件之后就能看到模型生成的文本了。7. 常见问题与优化建议在实际使用中你可能会遇到以下情况内存不足问题如果遇到OOM错误可以尝试增加虚拟机内存分配使用量化版本的模型如4bit量化减少max_new_tokens参数值性能优化确保VMware Tools正常运行在虚拟机设置中启用3D加速关闭不必要的Ubuntu视觉效果网络问题如果模型下载慢可以配置pip和git的国内镜像源考虑提前下载好模型权重再导入虚拟机整体用下来这套方案在16GB内存的机器上运行基础推理任务已经足够流畅。虽然性能不如物理机直接安装Linux但对于学习和开发测试来说完全够用。特别是对于想体验Qwen模型但又不想折腾双系统的开发者这确实是个不错的折中方案。获取更多AI镜像想探索更多AI镜像和应用场景访问 CSDN星图镜像广场提供丰富的预置镜像覆盖大模型推理、图像生成、视频生成、模型微调等多个领域支持一键部署。

更多文章