点击下方卡片,关注「集智书童」公众号
模板跟踪是一项任务,涉及识别模板的位置和类别,然后为视频流中的检测分配唯一ID。跟踪器的输出与添加了模板ID的检测相同。
YOLOv8加入了哪些检测器?
以下跟踪算法已经实现,可以通过 tracker=tracker_type.yaml
实现:
- BoT-SORT -
botsort.yaml
- ByteTrack -
bytetrack.yaml
默认跟踪器为:BoT-SORT
Tracking
将训练好的 YOLOv8n/YOLOv8n-seg model加入到不同的跟踪器之中里进行视频流的检测和跟踪。
示例1
from ultralytics import YOLO
# Load a model
model = YOLO("yolov8n.pt") # load an official detection model
model = YOLO("yolov8n-seg.pt") # load an official segmentation model
model = YOLO("path/to/best.pt") # load a custom model
# Track with the model
results = model.track(source="https://youtu.be/Zgi9g1ksQHc", show=True)
results = model.track(source="https://youtu.be/Zgi9g1ksQHc", show=True, tracker="bytetrack.yaml")
命令行如下
yolo track model=yolov8n.pt source="https://youtu.be/Zgi9g1ksQHc" # official detection model
yolo track model=yolov8n-seg.pt source=... # official segmentation model
yolo track model=path/to/best.pt source=... # custom model
yolo track model=path/to/best.pt tracker="bytetrack.yaml" # bytetrack tracker
与上述用法一样,YOLOv8支持用于跟踪的检测和分割模型,只需加载相应的(检测或分割)模型即可。
配置
跟踪
跟踪与预测共享配置,即“conf”、“iou”、“show”。更多配置请参考 predict page。
示例1
from ultralytics import YOLO
model = YOLO("yolov8n.pt")
results = model.track(source="https://youtu.be/Zgi9g1ksQHc", conf=0.3, iou=0.5, show=True)
命令行如下
yolo track model=yolov8n.pt source="https://youtu.be/Zgi9g1ksQHc" conf=0.3, iou=0.5 show
跟踪器
YOLOv8还支持使用修改的跟踪器配置文件,只需复制一个配置文件即可,比如复制 custom_tracker.yaml
ultralytics/tracker/cfg并修改配置(比如 tracker_type
)。
示例2
from ultralytics import YOLO
model = YOLO("yolov8n.pt")
results = model.track(source="https://youtu.be/Zgi9g1ksQHc", tracker='custom\_tracker.yaml')
命令行如下
yolo track model=yolov8n.pt source="https://youtu.be/Zgi9g1ksQHc" tracker='custom\_tracker.yaml'
具体可以参考ultralytics/tracker/cfg。
参考
[1].https://github.com/ultralytics/ultralytics.
推荐阅读
[
YOLOv5抛弃Anchor-Base方法 | YOLOv5u正式加入Anchor-Free大家庭](https://mp.weixin.qq.com/s?__biz=MzU5OTA2Mjk5Mw==&mid=2247503230&idx=1&sn=0a986d9a50db9cf9e47469d88ae8596f&chksm=feb82dc0c9cfa4d6f38f165755332497d595e99d0fb95350ef209859c4cd495e171bc809a804&scene=21#wechat_redirect)
[
改进YOLOX | Push-IOU+Dynamic Anchor进一步提升YOLOX性能](https://mp.weixin.qq.com/s?__biz=MzU5OTA2Mjk5Mw==&mid=2247503101&idx=1&sn=50e7c01c31e95009870ac6d8b0b5fda6&chksm=feb82c43c9cfa555dca48247f5c5a41067d7040f7dc624193e1aa38ba2d6d125d5edd20d9c11&scene=21#wechat_redirect)
[
即插即用 | CFNet提出全新多尺度融合方法!显著提升检测和分割精度!](https://mp.weixin.qq.com/s?__biz=MzU5OTA2Mjk5Mw==&mid=2247502354&idx=2&sn=a1391fa665ed11392220164c5e5ba9dd&chksm=feb82aacc9cfa3ba69adc7ba9b268f89832b8f249f88d1cf12991f68c244543a0fb2e27bf960&scene=21#wechat_redirect)
扫码加入👉「集智书童-YOLO算法」交流群
(备注: 方向+学校/公司+昵称 )
想要了解更多:
前沿AI视觉感知全栈知识👉「分类、检测、分割、关键点、车道线检测、3D视觉(分割、检测)、多模态、目标跟踪、NerF」
行业技术方案 👉「AI安防、AI医疗、AI自动驾驶」
AI模型部署落地实战 👉「CUDA、TensorRT、NCNN、OpenVINO、MNN、ONNXRuntime以及地平线框架」
欢迎扫描上方二维码,加入「 集智书童-知识星球 」,日常分享论文、学习笔记、问题解决方案、部署方案以及全栈式答疑,期待交流!
免责声明
凡本公众号注明“来源:XXX(非集智书童)”的作品,均转载自其它媒体,版权归原作者所有,如有侵权请联系我们删除,谢谢。
点击下方“ 阅读原文 ”,
了解更多AI学习路上的 「武功秘籍」