网站首页 > 教程文章 正文
一、安装好Git和Python3.10,再安装CUDA12.4以上版本,最后下载ANACONDA软件,创建虚拟环境
先默认安装好Git和Python3.10软件,Git下载地址:
https://github.com/git-for-windows/git/releases/download/v2.48.1.windows.1/Git-2.48.1-64-bit.exe
Python3.10下载地址:
https://www.python.org/ftp/python/3.10.11/python-3.10.11-amd64.exe
再安装CUDA12.4以上版本,CUDA12.4下载地址:
https://developer.download.nvidia.com/compute/cuda/12.4.0/local_installers/cuda_12.4.0_551.61_windows.exe
ANACONDA下载地址:
https://repo.anaconda.com/archive/Anaconda3-2024.10-1-Windows-x86_64.exe
安装好下载的ANACONDA软件后,打开软件安装插件程序“anaconda_prompt1.1.0”
安装好后,关闭“ANACONDA软件”从开始—任务栏中运行“anaconda prompt”小程序插件
二、创建Conda虚拟环境
打开运行后,在命令行窗口中输入“ d: ”回车进入D盘下,将下载好的程序文件“torch-2.4.0+
cu124-cp310-cp310-win_amd64.whl”提前放置在D盘下,并继续在命令行窗口中输入“python -m pip install torch-2.4.0+
cu124-cp310-cp310-win_amd64.whl”安装完成后,接着再在命令行窗口中输入“git clone
https://github.com/QwenLM/Qwen2.5-VL”克隆代码库,完成之后再输入“cd Qwen2.5-VL”目录下,创建虚拟环境输入“conda create -n qwen_env python=3.10”
虚拟环境创建完成后,在命令行提示符中输入“conda activate qwen_env”进入虚拟环境
三、安装依赖项、PyTorch和加速库GPU版
接着安装依赖项,在命令行提示符中输入“pip install -r requirements_web_demo.txt”,耐心等待下载时间~~~
依赖项完成后,再安装PyTorch和加速库GPU版,在命令行提示符中输入“pip install torch torchvision torchaudio --index-url
https://download.pytorch.org/whl/cu124”,耐心等待下载时间~~~
接着在命令行提示符中输入“pip install -U gradio gradio_client”更新 Gradio 和 Gradio Client 以避免连接和 UI 相关的错误
四、下载Qwen2.5-VL视觉模型
最后下载模型,在命令行提示符中输入:python web_demo_mm.py --checkpoint-path "
Qwen/Qwen2.5-VL-3B-Instruct" 完成模型下载后,根据提示命令行中显示Runing on local URL:http://127.0.0.1:7860,表示本地部署成功,可在浏览器中打开本地链接 http://127.0.0.1:7860 即可使用。
猜你喜欢
- 2025-08-02 微软新专利探索Copilot AI应用,匹配视频等生成背景音乐
- 2025-08-02 告别工具切换烦恼!Kimi-Audio开源:一个模型搞定所有音频任务
- 2025-08-02 通义开源音频生成模型ThinkSound:可像“专业音效师”一样思考
- 2025-08-02 音乐的指纹:听歌识曲app是怎么识别音乐的?算法原理揭秘
- 2025-08-02 利用代码实现_剪映小助手数据生成器_的audio_infos功能
- 2025-08-02 视频文件音频提取工具深度解析:三款主流工具技术对比与选型指南
- 2025-08-02 剪映音频处理深度全解:从基础操作到专业混音的2000字终极指南
- 2025-08-02 用python编辑视频神器:moviepy
- 2025-08-02 音频工程师首选的音频分析神器分享给大家
- 2025-08-02 利用Python实现录音播放并翻译,真正的实时进行翻译
- 08-02微软新专利探索Copilot AI应用,匹配视频等生成背景音乐
- 08-02告别工具切换烦恼!Kimi-Audio开源:一个模型搞定所有音频任务
- 08-02通义开源音频生成模型ThinkSound:可像“专业音效师”一样思考
- 08-02音乐的指纹:听歌识曲app是怎么识别音乐的?算法原理揭秘
- 08-02利用代码实现_剪映小助手数据生成器_的audio_infos功能
- 08-02视频文件音频提取工具深度解析:三款主流工具技术对比与选型指南
- 08-02剪映音频处理深度全解:从基础操作到专业混音的2000字终极指南
- 08-02Qwen2.5-VL视觉模型本地部署:支持发票识别/视频分析/JSON输出等
- 最近发表
-
- 微软新专利探索Copilot AI应用,匹配视频等生成背景音乐
- 告别工具切换烦恼!Kimi-Audio开源:一个模型搞定所有音频任务
- 通义开源音频生成模型ThinkSound:可像“专业音效师”一样思考
- 音乐的指纹:听歌识曲app是怎么识别音乐的?算法原理揭秘
- 利用代码实现_剪映小助手数据生成器_的audio_infos功能
- 视频文件音频提取工具深度解析:三款主流工具技术对比与选型指南
- 剪映音频处理深度全解:从基础操作到专业混音的2000字终极指南
- Qwen2.5-VL视觉模型本地部署:支持发票识别/视频分析/JSON输出等
- 用python编辑视频神器:moviepy
- 音频工程师首选的音频分析神器分享给大家
- 标签列表
-
- location.href (44)
- document.ready (36)
- git checkout -b (34)
- 跃点数 (35)
- 阿里云镜像地址 (33)
- qt qmessagebox (36)
- mybatis plus page (35)
- vue @scroll (38)
- 堆栈区别 (33)
- 什么是容器 (33)
- sha1 md5 (33)
- navicat导出数据 (34)
- 阿里云acp考试 (33)
- 阿里云 nacos (34)
- redhat官网下载镜像 (36)
- srs服务器 (33)
- pico开发者 (33)
- https的端口号 (34)
- vscode更改主题 (35)
- 阿里云资源池 (34)
- os.path.join (33)
- redis aof rdb 区别 (33)
- 302跳转 (33)
- http method (35)
- js array splice (33)