文章详情

短信预约-IT技能 免费直播动态提醒

请输入下面的图形验证码

提交验证

短信预约提醒成功

探索阿里通义千问的 Qwen2-VL:新一代视觉语言模型本地体验实战大全

2024-11-29 19:01

关注

一、模型特点

1. 强大的视觉理解能力

2. 多语言支持

Qwen2-VL 除了支持英语和中文外,还能理解图像视频中的多种语言文本,包括大多数欧洲语言、日语、韩语、阿拉伯语、越南语等,真正做到了面向全球用户,打破了语言的障碍,为多语言环境下的应用提供了便利。

3. 视觉智能体能力

Qwen2-VL 具备强大的视觉智能体能力,可自主操作手机和机器人等设备。借助其复杂的推理和决策能力,能够根据视觉环境和文字指令进行自动操作,实现了人工智能与现实世界的更紧密结合,为智能家居、智能机器人等领域的发展带来了新的机遇。

二、模型架构

1. 模型结构

Qwen2-VL 延续了上一代 Qwen-VL 中 ViT 加 Qwen2 的串联结构,三个不同规模的模型都采用了 600M 规模大小的 ViT,支持图像和视频统一输入。这种结构使得模型能够更好地融合视觉和语言信息,提高对多模态数据的理解能力。

图片

2. 多模态旋转位置编码(M-ROPE)

传统的旋转位置嵌入只能捕捉一维序列的位置信息,而 Qwen2-VL 采用的 M-ROPE 将旋转位置编码分解成时间、空间(高度和宽度)三部分,使大规模语言模型能够同时捕捉和整合一维文本、二维视觉和三维视频的位置信息,赋予了模型强大的多模态处理和推理能力,能够更好地理解和建模复杂的多模态数据。

图片

三、模型性能

1. 基准测试成绩优异

在多个权威测评中,Qwen2-VL 创造了同等规模开源模型的最佳成绩。在 mathvista、docvqa、realworldqa、mtvqa 等基准测试中创下全球领先的表现,在文档理解方面优势尤其明显。与 GPT-4O 和 Claude3.5-Sonnet 等闭源模型相比,Qwen2-VL 在大部分指标上都达到了最优。

2. 高效的计算效率

在保证高性能的同时,Qwen2-VL 还具有较高的计算效率,能够在不同的硬件平台上快速运行,为大规模应用提供了可能。其量化版本的发布,进一步提高了模型的计算效率,降低了部署成本。

图片


四、模型体验

在线体验https://huggingface.co/spaces/Qwen/Qwen2-VL

图片

五、模型下载

此次 Qwen2 - VL 进行了开源,其中包含两个尺寸的模型,分别是 Qwen2 - VL - 2B - Instruct 以及 Qwen2 - VL - 7B - Instruct,同时还提供了其 GPTQ 和 AWQ 的量化版本。

以下是模型相关链接:

Qwen2 - VL - 2B - Instruct:https://www.modelscope.cn/models/qwen/Qwen2-VL-2B-Instruct

Qwen2 - VL - 7B - Instruct:https://www.modelscope.cn/models/qwen/Qwen2-VL-7B-Instruct

我们推荐使用 ModelScope CLI 进行模型下载,具体命令如下:

modelscope download --model=qwen/Qwen2-VL-7B-Instruct --local_dir ./Qwen2-VL-7B-Instruct

下载完成如下:

图片

六、模型推理

1. 安装依赖

pip install git+https://github.com/huggingface/transformers


pip install qwen-vl-utils

安装如下:

图片

2. 模型推理

from transformers import Qwen2VLForConditionalGeneration, AutoTokenizer, AutoProcessor
from qwen_vl_utils import process_vision_info
# default: Load the model on the available device(s)
# model = Qwen2VLForConditionalGeneration.from_pretrained(
# "./Qwen2-VL-7B-Instruct", torch_dtype="auto", device_map="auto"
# )
import torch


model = Qwen2VLForConditionalGeneration.from_pretrained(
  "./Qwen2-VL-7B-Instruct",
  torch_dtype=torch.bfloat16,
  attn_implementatinotallow="flash_attention_2",
).to("cuda:0")


# We recommend enabling flash_attention_2 for better acceleration and memory saving, especially in multi-image and video scenarios.
# model = Qwen2VLForConditionalGeneration.from_pretrained(
# "Qwen/Qwen2-VL-7B-Instruct",
# torch_dtype=torch.bfloat16,
# attn_implementatinotallow="flash_attention_2",
# device_map="auto",
# )
# default processer
processor = AutoProcessor.from_pretrained("./Qwen2-VL-7B-Instruct")
# The default range for the number of visual tokens per image in the model is 4-16384.
# You can set min_pixels and max_pixels according to your needs, such as a token range of 256-1280, to balance performance and cost.
# min_pixels = 256*28*28
# max_pixels = 1280*28*28
# processor = AutoProcessor.from_pretrained("Qwen/Qwen2-VL-7B-Instruct", min_pixels=min_pixels, max_pixels=max_pixels)


messages = [
  {
    "role": "user",
    "content": [
      {
        "type": "image",
        "image": "https://www.528045.com/file/upload/202411/29/qbmmi1wdnbp.jpg",
      },
      {"type": "text", "text": "Describe this image."},
    ],
  }
]
# Preparation for inference
text = processor.apply_chat_template(
  messages, tokenize=False, add_generation_prompt=True
)
image_inputs, video_inputs = process_vision_info(messages)
inputs = processor(
  text=[text],
  images=image_inputs,
  videos=video_inputs,
  padding=True,
  return_tensors="pt",
)
inputs = inputs.to("cuda")
# Inference: Generation of the output
generated_ids = model.generate(**inputs, max_new_tokens=128)
generated_ids_trimmed = [
  out_ids[len(in_ids) :] for in_ids, out_ids in zip(inputs.input_ids, generated_ids)
]
output_text = processor.batch_decode(
  generated_ids_trimmed, skip_special_tokens=True, clean_up_tokenization_spaces=False
)
print(output_text)

输出如下:

图片

七、模型微调

1. 安装依赖

swift开源地址:https://github.com/modelscope/swift

在开始微调之前,先准备好环境

git clone https://github.com/modelscope/swift.git
cd swiftpip install -e .[llm]
pip install pyav qwen_vl_utils

2. 模型微调

图像描述微调我们使用 coco-en-mini 数据集进行微调,该数据集的任务是对图片内容进行描述。

可以在 modelscope 上找到该数据集:https://modelscope.cn/datasets/modelscope/coco_2014_caption/summary

# 默认会将lora_target_modules设置为llm的所有linear
CUDA_VISIBLE_DEVICES=0,1,2,3 NPROC_PER_NODE=4 swift sft \
--model_type qwen2-vl-7b-instruct \
--model_id_or_path qwen/Qwen2-VL-7B-Instruct \
--sft_type lora \
--dataset coco-en-mini#20000 \
--deepspeed default-zero2

如果要使用自定义数据集,只需按以下方式进行指定:

--dataset train.jsonl \
--val_dataset val.jsonl \

自定义数据集支持json和jsonl样式,以下是自定义数据集的样例:

{"query": "55555", "response": "66666", "images": ["image_path"]}
{"query": "eeeeeeeeeeeeeee", "response": "fffff", "history": [], "images": ["image_path1", "image_path2"]}
{"query": "EEEEE", "response": "FFFFF", "history": [["query1", "response2"

微调后推理脚本如下:

CUDA_VISIBLE_DEVICES=0 swift infer \
--ckpt_dir output/qwen2-vl-7b-instruct/vx-xxx/checkpoint-xxx \
--load_dataset_config true --merge_lora true

八、结语

阿里通义千问的 Qwen2-VL 是一款具有强大功能和优异性能的视觉语言模型,它的发布为多模态技术的发展带来了新的机遇。无论是在视觉理解能力、多语言支持还是视觉智能体能力方面,Qwen2-VL 都表现出了卓越的性能,为各种应用场景的智能化发展提供了有力的支持。随着技术的不断发展和应用场景的不断拓展,相信 Qwen2-VL 将在未来发挥更加重要的作用。

来源:小兵的AI视界内容投诉

免责声明:

① 本站未注明“稿件来源”的信息均来自网络整理。其文字、图片和音视频稿件的所属权归原作者所有。本站收集整理出于非商业性的教育和科研之目的,并不意味着本站赞同其观点或证实其内容的真实性。仅作为临时的测试数据,供内部测试之用。本站并未授权任何人以任何方式主动获取本站任何信息。

② 本站未注明“稿件来源”的临时测试数据将在测试完成后最终做删除处理。有问题或投稿请发送至: 邮箱/279061341@qq.com QQ/279061341

软考中级精品资料免费领

  • 历年真题答案解析
  • 备考技巧名师总结
  • 高频考点精准押题
  • 2024年上半年信息系统项目管理师第二批次真题及答案解析(完整版)

    难度     813人已做
    查看
  • 【考后总结】2024年5月26日信息系统项目管理师第2批次考情分析

    难度     354人已做
    查看
  • 【考后总结】2024年5月25日信息系统项目管理师第1批次考情分析

    难度     318人已做
    查看
  • 2024年上半年软考高项第一、二批次真题考点汇总(完整版)

    难度     435人已做
    查看
  • 2024年上半年系统架构设计师考试综合知识真题

    难度     224人已做
    查看

相关文章

发现更多好内容

猜你喜欢

AI推送时光机
位置:首页-资讯-后端开发
咦!没有更多了?去看看其它编程学习网 内容吧
首页课程
资料下载
问答资讯