NVIDIA 开源 Live VLM WebUI:摄像头实时测试视觉语言模型

GPU图像处理RTC

NVIDIA 开源了 Live VLM WebUI,一个让你在本地用摄像头实时测试视觉语言模型的工具。一句话说明白:把摄像头画面直接喂给 AI,实时看分析结果。

picture.image

核心功能

通过 WebRTC 技术将摄像头视频流实时传输给支持视觉的 Ollama 模型,AI 分析结果直接叠加在视频画面上。不是截图上传那种,是真正的视频流处理。

这个工具其实是 NVIDIA Jetson 团队之前工作的演进版本。最初他们在 Jetson 上做过 WebRTC 集成的实时摄像头流处理,但当时和特定硬件绑定太紧。

Ollama 出现后,标准化的 API 让这种实时流处理可以在任何平台上工作。所以他们把之前的经验现代化了:支持任何 VLM 后端,运行在任何平台,体验比在 Open WebUI 上传图片等响应要好得多。

技术细节:

  • WebRTC 低延迟视频传输

  • 实时显示处理帧率、GPU 使用率、VRAM 占用

  • 支持 Ollama、vLLM、NVIDIA API Catalog、OpenAI 等多种后端

  • 跨平台:Windows(WSL)、macOS、Linux、Jetson

    支持的模型包括:

  • Gemma 系列: gemma3:4bgemma3:12b

  • Llama Vision: llama3.2-vision:11bllama3.2-vision:90b

  • Qwen VL:从 qwen2.5-vl:3bqwen3-vl:235b

  • LLaVA: llava:7bllava:13bllava:34b

  • MiniCPM-V: minicpm-v:8b

实际应用场景

NVIDIA 工程师分享了几个有用的场景:

模型对比测试 :同一个场景下比较 gemma:4b vs gemma:12b vs llama3.2-vision 的表现差异

性能基准测试 :直接看到你硬件上的实际推理速度,不用猜

实时提示工程 :调整视觉提示词的同时看到实时效果,反馈循环很快

picture.image

交互演示 :给别人展示视觉模型能力时,比上传静态图片有说服力

安装和使用

最简单的方式:

  
pip install live-vlm-webui  
live-vlm-webui

然后打开 https://localhost:8090,选择后端和模型就能用。

除了 pip 安装,还支持 Docker:

  
docker run -d --gpus all --network host \  
  ghcr.io/nvidia-ai-iot/live-vlm-webui:latest

对 Jetson 用户有专门的镜像标签:latest-jetson-orinlatest-jetson-thor

Docker Compose 可以一键部署(VLM + WebUI):

  
./scripts/start_docker_compose.sh ollama  
docker exec ollama ollama pull llama3.2-vision:11b

硬件需求

网友测试发现,7B 参数的模型在普通笔记本上就能接近实时分析。不需要昂贵的云计算资源,本地跑就行。

界面显示详细的系统监控:GPU 利用率、VRAM 使用、CPU 和内存状态,还有推理延迟、tokens/sec 等指标。

小结 相较于传统静态图片测试,这种通过摄像头实时测试更加具有实际意义,能够更充分体现各个模型的优劣。后续,开发团队还会进一步优化对比体验,项目完全开源,感兴趣的可以使用。

地址:https://github.com/NVIDIA-AI-IOT/live-vlm-webui

相关阅读:

关注公众号回复“进群”入群讨论。

0
0
0
0
评论
未登录
看完啦,登录分享一下感受吧~
暂无评论