GLM-OCR模型部署精讲:在VMware虚拟机中配置GPU加速环境

张开发
2026/5/5 1:07:02 15 分钟阅读

分享文章

GLM-OCR模型部署精讲:在VMware虚拟机中配置GPU加速环境
GLM-OCR模型部署精讲在VMware虚拟机中配置GPU加速环境如果你是一名开发者想在本地电脑上搭建一个既能做开发测试、又能利用GPU加速的AI环境那么这篇文章就是为你准备的。很多朋友可能觉得在虚拟机里用GPU是件挺麻烦的事尤其是想跑像GLM-OCR这样的视觉模型总担心性能跟不上或者配置太复杂。今天我就来带你一步步搞定这件事。我们会在VMware虚拟机里配置好GPU加速环境然后把GLM-OCR模型部署起来跑通。整个过程我会尽量讲得明白把那些容易踩坑的地方都指出来。你不用有太深的虚拟化或者CUDA背景跟着做就行。1. 准备工作理清思路与检查清单在动手之前我们先搞清楚我们要做什么以及需要准备些什么。这能帮你少走很多弯路。我们的目标很明确在一台安装了VMware的物理主机上创建一个虚拟机让这个虚拟机能够“借用”主机的物理GPU来加速计算最后在这个配置好的虚拟机里部署并运行GLM-OCR镜像。听起来好像步骤不少但其实可以分解成三个核心阶段主机与虚拟机准备确保你的物理机硬件和VMware软件支持GPU直通或虚拟化并创建一个合适的虚拟机。GPU环境配置这是最关键的一步让虚拟机识别并使用主机的GPU包括安装必要的驱动和CUDA工具包。GLM-OCR部署与验证在配置好的GPU环境中拉取并运行GLM-OCR的Docker镜像测试OCR功能是否正常工作。为了顺利进行请先核对一下你的“装备”物理主机需要有一块NVIDIA的独立显卡。这是GPU加速的硬件基础。宿主机系统Windows 10/11 或 Linux 都可以但需要已安装对应显卡的驱动程序。VMware Workstation Pro/Player建议使用较新的版本如17.x对GPU虚拟化支持更好。本文以Workstation Pro为例。虚拟机系统我们将使用Ubuntu 22.04 LTS。它社区支持好软件包丰富是AI开发的热门选择。你需要提前准备好ISO镜像文件。稳定的网络后续需要下载安装包和Docker镜像。好了清单核对完毕我们正式开始。2. 阶段一创建与准备Ubuntu虚拟机首先我们得有一个“房子”虚拟机才能在里面搞装修配置环境。2.1 创建新的虚拟机打开VMware Workstation点击“创建新的虚拟机”。选择“典型”配置即可。安装来源选择“安装程序光盘映像文件(iso)”然后浏览找到你下载的Ubuntu 22.04 ISO文件。个性化给你的虚拟机取个名字比如GLM-OCR-GPU-VM。设置用户名和密码这个密码要记住后面常用。指定磁盘容量建议至少分配50GB。选择“将虚拟磁盘拆分成多个文件”这样迁移和备份会更灵活。硬件自定义关键步骤在最后一步先别急着点完成点击“自定义硬件”。内存建议分配至少8GB8192 MB如果主机内存充裕16GB会更流畅。处理器核心数建议给2个或以上。勾选“虚拟化Intel VT-x/EPT或AMD-V/RVI”选项这对后续某些虚拟化功能有益。新CD/DVD确认已关联到你的Ubuntu ISO文件。网络适配器选择“NAT模式”这样虚拟机就能通过主机上网了。USB控制器建议存在方便未来传文件。打印机通常用不到可以移除以节省资源。点击“关闭”然后点击“完成”。虚拟机就创建好了。2.2 安装Ubuntu系统现在启动这台新虚拟机它会从ISO镜像引导进入Ubuntu安装界面。选择“Install Ubuntu”。语言选择“中文(简体)”然后点击“继续”。键盘布局选择“Chinese”继续。在“安装类型”页面保持默认的“正常安装”和“为图形或无线硬件以及其它媒体格式安装第三方软件”为选中状态点击“继续”。在“安装类型”最关键的一步选择“清除整个磁盘并安装Ubuntu”不用担心这只是清空虚拟机的虚拟磁盘不会影响你主机上的数据。点击“现在安装”。弹出确认对话框点击“继续”。设置时区地图上点击“Shanghai”即可。再次确认你的用户名和密码点击“继续”。接下来就是自动安装过程泡杯茶休息一下。安装完成后提示重启点击“现在重启”。重启后输入密码登录一个崭新的Ubuntu桌面环境就准备好了。进入系统后第一件事是打开“终端”运行系统更新确保所有软件包是最新的sudo apt update sudo apt upgrade -y更新完成后建议再次重启虚拟机。3. 阶段二配置虚拟机GPU加速环境这是最具挑战性但也最核心的部分。VMware虚拟机使用物理GPU主要有两种方式直通Passthrough和虚拟GPUvGPU。对于个人开发测试虚拟GPU是更通用、更简单的方式也是我们本次教程采用的方法。3.1 在VMware中启用虚拟GPU首先你需要完全关闭刚才安装好的Ubuntu虚拟机不是挂起。在VMware的虚拟机库中右键点击你的GLM-OCR-GPU-VM选择“设置”。在“硬件”选项卡中点击“添加...”。在弹出的硬件类型中选择“PCI设备”点击“下一步”。这时你应该能在列表里看到你主机的NVIDIA显卡例如NVIDIA GeForce RTX 4060。勾选它。点击“下一步”然后“完成”。你会看到硬件列表里多出了一个“PCI设备”。至关重要的一步选中这个新添加的PCI设备在右侧详情中你会看到一个选项“在客户端操作系统中预留所有内存”。务必勾选这个选项。这能确保GPU内存被完整分配给虚拟机避免性能问题。点击“确定”保存设置。现在启动你的Ubuntu虚拟机。3.2 在Ubuntu虚拟机内安装NVIDIA驱动虚拟机启动后我们需要在Ubuntu内部安装能让系统识别这块“虚拟”出来的GPU的驱动程序。首先检查系统是否检测到了新的显示设备。打开终端输入lspci | grep -i nvidia如果输出中包含你的NVIDIA显卡型号信息恭喜你第一步成功了。Ubuntu提供了一个非常方便的工具来安装专有驱动。打开“软件和更新”应用。切换到“附加驱动”选项卡。系统会自动扫描可用的驱动程序。你应该能看到一个由NVIDIA Corporation提供的驱动列表例如“使用NVIDIA driver metapackage来自nvidia-driver-535 (专有)”。选择一个推荐的版本比如535点击“应用更改”。系统会要求你输入密码然后自动下载并安装驱动和相关的依赖包。安装完成后必须重启虚拟机。重启后再次打开终端输入以下命令验证驱动是否安装成功nvidia-smi如果这个命令能正常运行并输出一个包含GPU型号、驱动版本、CUDA版本可能显示为N/A因为还没装CUDA等信息表格那么驱动就安装妥当了。这是你看到的第一个胜利标志3.3 安装CUDA Toolkit与cuDNN光有驱动还不够我们还需要CUDA这个计算平台和cuDNN这个深度神经网络加速库。访问NVIDIA官网的CUDA Toolkit下载页面。选择适合的版本Operating System: LinuxArchitecture: x86_64Distribution: UbuntuVersion: 22.04Installer Type:runfile (local)选择runfile安装方式能给我们更多控制权避免与系统包管理器冲突。复制给出的安装命令它看起来像wget https://developer.download.nvidia.com/compute/cuda/12.3.2/local_installers/cuda_12.3.2_545.23.08_linux.run sudo sh cuda_12.3.2_545.23.08_linux.run在终端中依次运行下载和安装命令。在安装界面中按空格键取消勾选“Driver”因为我们已经装好了。确保“CUDA Toolkit”被选中。可以修改安装路径但默认的/usr/local/cuda-12.3通常没问题。点击“Install”开始安装。安装完成后需要将CUDA添加到系统环境变量。编辑你的~/.bashrc文件nano ~/.bashrc在文件末尾添加以下几行export PATH/usr/local/cuda/bin:$PATH export LD_LIBRARY_PATH/usr/local/cuda/lib64:$LD_LIBRARY_PATH保存并退出按CtrlX然后按Y再按Enter。让配置生效source ~/.bashrc验证CUDA安装nvcc --version应该能输出CUDA编译器的版本信息。接下来安装cuDNN。你需要先在NVIDIA开发者网站注册并登录然后下载与CUDA 12.x版本对应的cuDNN Local Installer for Linux (x86_64)的tar文件。下载后在终端中执行以下命令请将文件名替换为你下载的实际文件名tar -xvf cudnn-linux-x86_64-8.9.7.29_cuda12-archive.tar.xz sudo cp cudnn-*-archive/include/cudnn*.h /usr/local/cuda/include sudo cp -P cudnn-*-archive/lib/libcudnn* /usr/local/cuda/lib64 sudo chmod ar /usr/local/cuda/include/cudnn*.h /usr/local/cuda/lib64/libcudnn*至此GPU的软件环境就全部配置完成了。再次运行nvidia-smi这次在CUDA Version那一栏应该能看到具体的版本号如12.3而不再是N/A了。4. 阶段三部署与运行GLM-OCR环境已经就绪现在让我们把主角GLM-OCR请上场。我们将使用Docker来部署这是最干净、最不容易出问题的方式。4.1 安装Docker与NVIDIA Container Toolkit首先在Ubuntu虚拟机中安装Docker引擎。可以使用官方提供的便捷脚本curl -fsSL https://get.docker.com -o get-docker.sh sudo sh get-docker.sh安装完成后将你的用户加入docker组这样就不用每次都加sudo了sudo usermod -aG docker $USER重要执行此命令后你需要完全注销当前用户并重新登录或者重启虚拟机才能使组权限生效。安装NVIDIA Container Toolkit它让Docker容器能够访问宿主机的GPU。distribution$(. /etc/os-release;echo $ID$VERSION_ID) curl -s -L https://nvidia.github.io/nvidia-docker/gpgkey | sudo apt-key add - curl -s -L https://nvidia.github.io/nvidia-docker/$distribution/nvidia-docker.list | sudo tee /etc/apt/sources.list.d/nvidia-docker.list sudo apt update sudo apt install -y nvidia-container-toolkit sudo systemctl restart docker验证Docker和GPU访问是否正常docker run --rm --gpus all nvidia/cuda:12.3.2-base-ubuntu22.04 nvidia-smi这个命令会下载一个小的CUDA基础镜像并运行nvidia-smi。如果它能成功输出和在宿主机上运行nvidia-smi一样的信息那就完美了这说明Docker容器已经能直接调用虚拟机的GPU了。4.2 拉取并运行GLM-OCR镜像假设GLM-OCR的镜像已经发布在某个容器仓库例如registry.example.com/glm-ocr:latest这里请替换为实际的镜像地址。拉取镜像docker pull registry.example.com/glm-ocr:latest运行容器。这里的关键是--gpus all参数它把GPU资源传递给容器。我们同时把本地的/tmp目录映射到容器内的/app/data方便传入待识别的图片和取出结果。docker run -itd --name glm-ocr-container \ --gpus all \ -p 7860:7860 \ -v /tmp:/app/data \ registry.example.com/glm-ocr:latest-p 7860:7860: 将容器的7860端口映射到宿主机的7860端口如果镜像提供了Web界面我们可以通过http://虚拟机IP:7860来访问。-v /tmp:/app/data: 建立了数据卷方便文件交换。4.3 测试OCR功能容器运行起来后我们来测试一下。首先准备一张包含文字的测试图片比如一个截图放到虚拟机的/tmp目录下假设文件名为test.png。我们可以通过进入容器内部来执行命令或者如果镜像提供了API则通过HTTP请求调用。这里假设镜像启动后在容器内运行了一个服务。我们可以用docker exec执行命令docker exec glm-ocr-container python -c # 这里是一个假设的Python调用示例具体命令需参考GLM-OCR镜像的文档 from your_ocr_module import recognize result recognize(/app/data/test.png) print(result) 更常见的情况是通过映射的端口访问Web界面。在Ubuntu虚拟机内部打开浏览器访问http://localhost:7860。如果服务正常你应该能看到一个上传图片和显示识别结果的界面。上传我们刚才放入/tmp/test.png的图片看看它是否能正确识别出文字。如果一切顺利看到识别出的文字框和文本结果那么整个部署就大功告成了你成功地在VMware虚拟机里搭建了一个带GPU加速的GLM-OCR本地开发测试环境。5. 总结与后续建议走完这一整套流程你可能觉得步骤不少但每一步拆开看其实都是在解决一个具体的小问题。从创建虚拟机、配置虚拟GPU、安装驱动和CUDA到用Docker部署应用这套组合拳在本地AI环境搭建中非常典型。实际体验下来在VMware虚拟机里通过虚拟GPU的方式跑GLM-OCR对于模型推理、功能测试和日常开发来说性能是足够用的最重要的是它把环境和你的主机系统完全隔离开了非常干净。当然如果是要做大规模训练那还是直接装在物理机上或者用云服务器更合适。如果你在配置过程中遇到了问题我建议按阶段排查先确保nvidia-smi在虚拟机内能运行再确保Docker容器能调用nvidia-smi最后再排查GLM-OCR应用本身。日志是你的好朋友多看看终端和Docker容器的输出信息。这个环境搭好之后你不仅可以跑GLM-OCR其他需要GPU的AI镜像比如Stable Diffusion、LLM对话模型等也都可以用类似的方式在这个虚拟机里部署测试非常方便。希望这篇详细的指南能帮你扫清障碍顺利开启你的本地AI开发之旅。获取更多AI镜像想探索更多AI镜像和应用场景访问 CSDN星图镜像广场提供丰富的预置镜像覆盖大模型推理、图像生成、视频生成、模型微调等多个领域支持一键部署。

更多文章