一、 大模型简介
Qwen2-VL 是 Qwen 模型系列中视觉语言模型的最新版本。
主要增强功能:
- SoTA 对各种分辨率和比例的图像的理解 :Qwen2-VL 在视觉理解基准上实现了最先进的性能,包括 MathVista、DocVQA、RealWorldQA、MTVQA 等。
- 理解 20 分钟以上的视频 :借助在线流媒体功能,Qwen2-VL 可以通过基于高质量视频的问答、对话、内容创作等方式理解 20 分钟以上的视频。
- 可以操作你的手机、机器人等的代理 :Qwen2-VL 具有复杂的推理和决策能力,可以与手机、机器人等设备集成,根据视觉环境和文本指令进行自动操作。
- 多语言支持 :为了服务全球用户,除了英语和中文,Qwen2-VL 现在还支持理解图像中不同语言的文本,包括大多数欧洲语言、日语、韩语、阿拉伯语、越南语等。
模型架构更新:
- 简单的动态分辨率 :与以前不同,Qwen2-VL 可以处理任意图像分辨率,将它们映射到动态数量的视觉标记中,提供更像人类的视觉处理体验。
- 多模态旋转位置嵌入(M-ROPE) :将位置嵌入分解为各个部分,以捕获 1D 文本、2D 视觉和 3D 视频位置信息,增强其多模态处理能力。
二、大模型 Qwen2-VL 一键使用
基础环境最低要求说明:
环境名称 | 版本信息 1 |
Ubuntu | 22.04.4 LTS |
Cuda | V12.1.105 |
Python | 3.12 |
NVIDIA Corporation | RTX 3090 |
1. 根据需求选择主机和镜像,进行一键创建实例
租用实例 --》一键使用 --》进入“应用社区”--》搜索并选择“Qwen2-VL” 大模型 --》选择 RTX 3090 GPU ,即可在平台进行实例创建。
2. 进入网页端命令行
项目实例 --》点击“WebSSH”--》执行“启动 web 页面”的相关命令
3. 启动 web_demo.py 文件
# 切换到项目工作目录
cd /Qwen2-VL
# 设置 huggingface 加速
export HF_ENDPOINT=https://hf-mirror.com
# 运行 web_demo_mm.py 文件
python web_demo_mm.py
4. 获取端口号
5. 进入 web 页面
将获取到的链接复制到本地浏览器:
# 比如当前获取的地址如下:
http://xn-a.suanjiayun.com:30779
三、本地部署
基础环境最低要求说明:
环境名称 | 版本信息 1 |
Ubuntu | 22.04.4 LTS |
Cuda | V12.1.105 |
Python | 3.12 |
NVIDIA Corporation | RTX 3090 |
1. 更新基础软件包
查看系统版本信息
# 查看系统版本信息,包括ID(如ubuntu、centos等)、版本号、名称、版本号ID等
cat /etc/os-release
配置 apt 国内源
# 更新软件包列表
apt-get update
这个命令用于更新本地软件包索引。它会从所有配置的源中检索最新的软件包列表信息,但不会安装或升级任何软件包。这是安装新软件包或进行软件包升级之前的推荐步骤,因为它确保了您获取的是最新版本的软件包。
# 安装 Vim 编辑器
apt-get install -y vim
这个命令用于安装 Vim 文本编辑器。-y 选项表示自动回答所有的提示为“是”,这样在安装过程中就不需要手动确认。Vim 是一个非常强大的文本编辑器,广泛用于编程和配置文件的编辑。
为了安全起见,先备份当前的 sources.list 文件之后,再进行修改:
# 备份现有的软件源列表
cp /etc/apt/sources.list /etc/apt/sources.list.bak
这个命令将当前的 sources.list 文件复制为一个名为 sources.list.bak 的备份文件。这是一个好习惯,因为编辑 sources.list 文件时可能会出错,导致无法安装或更新软件包。有了备份,如果出现问题,您可以轻松地恢复原始的文件。
# 编辑软件源列表文件
vim /etc/apt/sources.list
这个命令使用 Vim 编辑器打开 sources.list 文件,以便您可以编辑它。这个文件包含了 APT(Advanced Package Tool)用于安装和更新软件包的软件源列表。通过编辑这个文件,您可以添加新的软件源、更改现有软件源的优先级或禁用某些软件源。
在 Vim 中,您可以使用方向键来移动光标,i 键进入插入模式(可以开始编辑文本),Esc 键退出插入模式,:wq 命令保存更改并退出 Vim,或 :q! 命令不保存更改并退出 Vim。
编辑 sources.list 文件时,请确保您了解自己在做什么,特别是如果您正在添加新的软件源。错误的源可能会导致软件包安装失败或系统安全问题。如果您不确定,最好先搜索并找到可靠的源信息,或者咨询有经验的 Linux 用户。
使用 Vim 编辑器打开 sources.list 文件,复制以下代码替换 sources.list 里面的全部代码,配置 apt 国内阿里源。
deb http://mirrors.aliyun.com/ubuntu/ jammy main restricted universe multiverse
deb-src http://mirrors.aliyun.com/ubuntu/ jammy main restricted universe multiverse
deb http://mirrors.aliyun.com/ubuntu/ jammy-security main restricted universe multiverse
deb-src http://mirrors.aliyun.com/ubuntu/ jammy-security main restricted universe multiverse
deb http://mirrors.aliyun.com/ubuntu/ jammy-updates main restricted universe multiverse
deb-src http://mirrors.aliyun.com/ubuntu/ jammy-updates main restricted universe multiverse
deb http://mirrors.aliyun.com/ubuntu/ jammy-backports main restricted universe multiverse
deb-src http://mirrors.aliyun.com/ubuntu/ jammy-backports main restricted universe multiverse
安装常用软件和工具
# 更新源列表,输入以下命令:
apt-get update
# 更新系统软件包,输入以下命令:
apt-get upgrade
# 安装常用软件和工具,输入以下命令:
apt-get -y install vim wget git git-lfs unzip lsof net-tools gcc cmake build-essential
出现以下页面,说明国内 apt 源已替换成功,且能正常安装 apt 软件和工具
2. 安装 NVIDIA CUDA Toolkit 12.1
- 下载 CUDA Keyring :
wget https://developer.download.nvidia.com/compute/cuda/repos/ubuntu2204/x86_64/cuda-keyring_1.0-1_all.deb
这个命令用于下载 CUDA 的 GPG 密钥环,它用于验证 CUDA 软件包的签名。这是确保软件包安全性的一个重要步骤。
- 安装 CUDA Keyring :
dpkg -i cuda-keyring_1.0-1_all.deb
使用 dpkg 安装下载的密钥环。这是必要的,以便 apt 能够验证从 NVIDIA 仓库下载的软件包的签名。
- 删除旧的 apt 密钥(如果必要) :
apt-key del 7fa2af80
这一步可能不是必需的,除非您知道 7fa2af80 是与 CUDA 相关的旧密钥,并且您想从系统中删除它以避免混淆。通常情况下,如果您只是安装 CUDA 并使用 NVIDIA 提供的最新密钥环,这一步可以跳过。
- 更新 apt 包列表 :
apt-get update
更新 apt 的软件包列表,以便包括刚刚通过 cuda-keyring 添加的 NVIDIA 仓库中的软件包。
- 安装 CUDA Toolkit :
apt-get -y install cuda-toolkit-12-1
出现以下页面,说明 NVIDIA CUDA Toolkit 12.1 安装成功
注意:这里可能有一个问题。NVIDIA 官方 Ubuntu 仓库中可能不包含直接名为 cuda-toolkit-12-1 的包。通常,您会安装一个名为 cuda 或 cuda-12-1 的元包,它会作为依赖项拉入 CUDA Toolkit 的所有组件。请检查 NVIDIA 的官方文档或仓库,以确认正确的包名。
如果您正在寻找安装特定版本的 CUDA Toolkit,您可能需要安装类似 cuda-12-1 的包(如果可用),或者从 NVIDIA 的官方网站下载 CUDA Toolkit 的 .run 安装程序进行手动安装。
请确保您查看 NVIDIA 的官方文档或 Ubuntu 的 NVIDIA CUDA 仓库以获取最准确的包名和安装指令。
- 出现以上情况,需要配置 NVIDIA CUDA Toolkit 12.1 系统环境变量
编辑 ~/.bashrc 文件
# 编辑 ~/.bashrc 文件
vim ~/.bashrc
插入以下环境变量
# 插入以下环境变量
export PATH=/usr/local/cuda/bin:$PATH
export LD_LIBRARY_PATH=/usr/local/cuda/lib64:$LD_LIBRARY_PATH
激活 ~/.bashrc 文件
# 激活 ~/.bashrc 文件
source ~/.bashrc
查看 cuda 系统环境变量
which nvcc
nvcc -V
3. 安装 Miniconda
- 下载 Miniconda 安装脚本 :使用 wget 命令从 Anaconda 的官方仓库下载 Miniconda 的安装脚本。Miniconda 是一个更小的 Anaconda 发行版,包含了 Anaconda 的核心组件,用于安装和管理 Python 包。
- 运行 Miniconda 安装脚本 :使用 bash 命令运行下载的 Miniconda 安装脚本。这将启动 Miniconda 的安装过程。
# 下载 Miniconda 安装脚本
wget https://repo.anaconda.com/miniconda/Miniconda3-latest-Linux-x86_64.sh
# 运行 Miniconda 安装脚本
bash Miniconda3-latest-Linux-x86_64.sh
# 初次安装需要激活 base 环境
source ~/.bashrc
按下回车键(enter)
输入 yes
输入 yes
安装成功如下图所示
pip 配置清华源加速
# 编辑 /etc/pip.conf 文件
vim /etc/pip.conf
加入以下代码
[global]
index-url = https://pypi.tuna.tsinghua.edu.cn/simple
注意事项:
- 请确保您的系统是 Linux x86_64 架构,因为下载的 Miniconda 版本是为该架构设计的。
- 在运行安装脚本之前,您可能需要使用 chmod +x Miniconda3-latest-Linux-x86_64.sh 命令给予脚本执行权限。
- 安装过程中,您将被提示是否同意许可协议,以及是否将 Miniconda 初始化。通常选择 "yes" 以完成安装和初始化。
- 安装完成后,您可以使用 conda 命令来管理 Python 环境和包。
- 如果链接无法访问或解析失败,可能是因为网络问题或链接本身的问题。请检查网络连接,并确保链接是最新的和有效的。如果问题依旧,请访问 Anaconda 的官方网站获取最新的下载链接。
4. 从github 仓库克隆项目
- 克隆存储库:
# 克隆项目
git clone https://github.com/QwenLM/Qwen2-VL.git
出现以上页面即是克隆项目成功!
请注意,如果 git clone https://github.com/QwenLM/Qwen2-VL.git 这个链接不存在或者无效,git clone 命令将不会成功克隆项目,并且会报错。确保链接是有效的,并且您有足够的权限访问该存储库。
5. 创建虚拟环境
# 创建一个名为 Qwen2_VL 的新虚拟环境,并指定 Python 版本为 3.12
conda create --name Qwen2_VL python=3.12 -y
安装完成
6. 安装模型依赖库
- 切换到项目目录、激活 Qwen2_VL 虚拟环境、安装 requirements.txt 依赖
# 切换到项目工作目录
cd /Qwen2-VL
# 激活 Qwen2_VL 虚拟环境
conda activate Qwen2_VL
# 在 Qwen2_VL 环境中安装依赖
pip install git+https://github.com/huggingface/transformers accelerate
依赖安装成功如下图所示:
7. 下载预训练模型
- 下载 Qwen/Qwen2-VL-2B-Instruct
git lfs install
git clone https://hf-mirror.com/Qwen/Qwen2-VL-2B-Instruct Qwen/Qwen2-VL-2B-Instruct
8. 运行 web_demo_mm.py 文件
# 设置 huggingface 加速
export HF_ENDPOINT=https://hf-mirror.com
# 运行 web_demo_mm.py 文件
python web_demo_mm.py
出现以上代码“ModuleNotFoundError: No module named 'gradio'”报错,直接安装 requirements_web_demo.txt 依赖
# 安装 requirements_web_demo.txt
pip install -r requirements_web_demo.txt -i http://mirrors.aliyun.com/pypi/simple --trusted-host mirrors.aliyun.com
安装完成
继续运行 web_demo_mm.py 文件
# 运行 web_demo_mm.py 文件
python web_demo_mm.py
出现以上报错,需要修改 web_demo_mm.py 文件
# 编辑 web_demo_mm.py 文件
vim web_demo_mm.py
找到以上红框的代码,替换为
Qwen/Qwen2-VL-2B-Instruct
继续运行 web_demo_mm.py 文件
# 运行 web_demo_mm.py 文件
python web_demo_mm.py
出现以上结果,还需要修改 web_demo_mm.py 文件
# 编辑 web_demo_mm.py 文件
vim web_demo_mm.py
修改为
parser.add_argument('--server-port', type=int, default=8080, help='Demo server port.')
parser.add_argument('--server-name', type=str, default='0.0.0.0', help='Demo server name.')
继续运行 web_demo_mm.py 文件
# 运行 web_demo_mm.py 文件
python web_demo_mm.py
9. 网页演示
出现以下 Gradio 页面,即是模型已搭建完成。
以上就是一键使用以及本地部署的详细教程。进入算家云-AI-应用社区 | 模型社区 | 镜像社区一键使用,快来体验吧~