Segment Anything模型部分结构和代码解析

技术

点击下方卡片,关注「集智书童」公众号

点击加入👉「集智书童」交流群

0x0. 前言

上个月Meta提出的Segment Anything Model(SAM)希望在视觉领域通过Prompt+基础大模型的套路来解决目标分割的问题。经过实测,在大多数场景中SAM的表现都足够惊艳,并且基于SAM的各种二创工作也爆发了比如 检测一切的Grounded-Segment-Anything(https://github.com/IDEA-Research/Grounded-Segment-Anything),[将Segment Anything扩展到医学图像领域](https://mp.weixin.qq.com/s?__biz=MzA4MjY4NTk0NQ==&mid=2247509487&idx=1&sn=f53481404bfe3c5227d9e071642841de&scene=21#wechat_redirect) 。但目前中文社区似乎并没有怎么对SAM的模型做细致的解析,所以这里 fork了SAM仓库并且对模型实现部分做了详细的代码解析,fork仓库的地址如下:https://github.com/Oneflow-Inc/segment-anything

本文会对照论文的结构图和fork的SAM仓库中的代码注释尝试梳理一下SAM模型部分的代码。最后,我也会介绍一下如果你想用oneflow来跑SAM应该怎么做,实际上在预测脚本里面加2行代码就可以了:


        
          
import oneflow.mock_torch as mock  
mock.enable(lazy=True, extra_dict={"torchvision": "flowvision"})  

      

最后汇总一下这个fork的SAM仓库做的事情:

欢迎点击star: https://github.com/Oneflow-Inc/segment-anything

picture.image 在这里插入图片描述

0x1. 模型+代码解析

picture.image实际上模型实现部分就对应了这张图。

其中绿色部分表示将原始图像编码为向量,SAM中使用VIT来实现图像编码器。原始图像被等比和 padding 的缩放到1024大小(对应https://github.com/Oneflow-Inc/segment-anything/blob/main/segment_anything/modeling/sam.py#L131),然后采用kernel size16stride也为16的卷积将图像离散化为batch_size x 64x64X768的向量(对应 https://github.com/Oneflow-Inc/segment-anything/blob/main/segment_anything/modeling/image_encoder.py#L482-L518,),向量在W和C上被顺序展平(https://github.com/Oneflow-Inc/segment-anything/blob/main/segment_anything/modeling/image_encoder.py#L208)后再进入多层的transformer encoder,vit输出的向量再通过两层的卷积(kernel size分别为13,每层输出接LayerNorm2d)压缩到特征维度为256https://github.com/Oneflow-Inc/segment-anything/blob/main/segment_anything/modeling/image_encoder.py#L98-L114)。

image encoder部分的详细代码细节的解释请查看:https://github.com/Oneflow-Inc/segment-anything/blob/main/segment\_anything/modeling/image\_encoder.py

接下来紫色部分表示prompt encoder,prompt encoder的输出包括对点,box和text进行编码组成的sparse_embeddings以及对输入mask进行编码的dense_embeddings (对应https://github.com/Oneflow-Inc/segment-anything/blob/main/segment_anything/modeling/prompt_encoder.py#L251)。最后,sparse_embeddings的输出shape是batch_sizexNx(embed_dim=256),其中N由输入的点和框的个数决定。而dense_embeddings的输出shape是batch_sizex(embed_dim=256)x(embed_H)x(embed_W),其中embed_H和embed_H都等于64。(https://github.com/Oneflow-Inc/segment-anything/blob/main/segment_anything/build_sam.py#L73)。注意图上的对mask的卷积操作对应 https://github.com/Oneflow-Inc/segment-anything/blob/main/segment_anything/modeling/prompt_encoder.py#L64-L71

prompt encoder部分的详细代码细节的解释请查看:https://github.com/Oneflow-Inc/segment-anything/blob/main/segment\_anything/modeling/prompt\_encoder.py

最后我们看一下 Mask Decoder部分,也就是图中的橙色部分。Mask Decoder的细节可以用下图来表示:

picture.image 在这里插入图片描述

这里的image embedding(256x64x64)就是上面的image decoder的输出,因为输入到Mask Decoder的时候是对batch维度进行遍历然后处理,所以这里的维度没有Batch。然后左下角的output tokens+prompt tokens()分别表示iou token embedding和3个分割结果 token的embedding(sparse_embeddings+dense_embeddings)。(对应:https://github.com/Oneflow-Inc/segment-anything/blob/main/segment_anything/modeling/mask_decoder.py#LL171C9-L173C1)。这里还需要注意的一个细节是prompt embedding部分的dense embedding直接叠加到了image embedding上。(对应https://github.com/Oneflow-Inc/segment-anything/blob/main/segment_anything/modeling/mask_decoder.py#L175-L177C18)。

接着在 Transformer 实现中每一层都做

  • token embedding 做self attention 计算。
  • token embedding 和src 之间做cross attention 计算。
  • src 和 token embedding 之间做 cross attention 计算。
  • 第 2 和 3 之间有前馈 MLP 网络;cross attention的结果通过残差方式相加并norm。

详细的代码解释请看:https://github.com/Oneflow-Inc/segment-anything/blob/main/segment\_anything/modeling/transformer.py#L133-L244

这个Transformer 块里面的右上角有一个 x2 ,这里的意思是Transformer的层数为2。然后这里的紫色和绿色的箭头表示当前的Attention模块的query, key, value的来源,每层有1个self attention和2个cross attention模块。transform最终输出前,token embedding 还需要和src 做一次cross attention,也就是图中的token to image attn。

最后,Transformer 返回的3个 mask token 的 embedding 经过3层mlp后,与对齐后的图像embedding点积得到 3 个最终的分割结果;iou token 经过mlp得到3个分割结果置信度得分。(对应:https://github.com/Oneflow-Inc/segment-anything/blob/main/segment_anything/modeling/mask_decoder.py#L182-L199

0x2. 切换SAM的后端

SAM的推理脚本默认是使用PyTorch运行,如果你想使用oneflow来执行并尝试获得推理加速,可以在运行脚本之前加上:


        
          
import oneflow.mock_torch as mock  
mock.enable(lazy=True, extra_dict={"torchvision": "flowvision"})  

      

OneFlow版本需要安装nightly,这样就可以用上OneFlow作为后端来推理SAM了。关于mock torch 黑魔法可以查看 https://docs.oneflow.org/master/cookies/oneflow\_torch.html 这个官方文档。

oneflow nightly版本的安装方法如下:https://github.com/Oneflow-Inc/oneflow#install-with-pip-package

遗憾的是,我们还未来得及做调优工作,如果对使用OneFlow对SAM做推理加速感兴趣的读者可以自行尝试或者联系我本人一起讨论和实施。

0x3. 总结

本文介绍了 https://github.com/Oneflow-Inc/segment-anything 做的一些事情并解析了SAM的结构和代码实现。对于SAM来说,相比于模型更重要的是最数据进行处理,关于这方面大家可以参考:https://zhuanlan.zhihu.com/p/620355474

0x4. 后续工作

后面有时间的话会继续汉化onnx导出的jupyet notebook,并且做一下相关的性能调优工作以及剩余的SamAutomaticMaskGenerator的解析。

picture.image

[picture.image

YOLO-NAS | YOLO新高度,引入NAS,出于YOLOv8而优于YOLOv8](https://mp.weixin.qq.com/s?__biz=MzU5OTA2Mjk5Mw==&mid=2247507762&idx=3&sn=1296dce501afb79a995900bcc0adfc4c&chksm=feb83f8cc9cfb69aa30056306c2e3dc7d55d494263632335deb282f69ab22aa6c02bb850fc62&scene=21#wechat_redirect)

[picture.image

使用GPT4做Leetcode第 102 场双周赛](https://mp.weixin.qq.com/s?__biz=MzU5OTA2Mjk5Mw==&mid=2247507700&idx=3&sn=70d265925f15c559adf6400c9565efb1&chksm=feb83e4ac9cfb75ce156037a0b104765dcfcc322d0f6949d5d1c1111431cd5dc3df70bc393fb&scene=21#wechat_redirect)

[picture.image

大模型系列 | Grounded-SAM:只动嘴不动手的全自动化视觉工具](https://mp.weixin.qq.com/s?__biz=MzU5OTA2Mjk5Mw==&mid=2247507259&idx=3&sn=2e56abbd3293a294d6775f181523f1f7&chksm=feb83d85c9cfb493c58fbf672f0dd0f7ae158ab0b3f71377a7fb50c54dd8a07ba2f8496c7dcc&scene=21#wechat_redirect)

扫码加入👉「集智书童」交流群

(备注: 方向+学校/公司+昵称 )

picture.image

picture.image

picture.image

picture.image

picture.image

picture.image

想要了解更多:

前沿AI视觉感知全栈知识👉「分类、检测、分割、关键点、车道线检测、3D视觉(分割、检测)、多模态、目标跟踪、NerF」

行业技术方案 👉「AI安防、AI医疗、AI自动驾驶」

AI模型部署落地实战 👉「CUDA、TensorRT、NCNN、OpenVINO、MNN、ONNXRuntime以及地平线框架」

欢迎扫描上方二维码,加入「 集智书童-知识星球 」,日常分享论文、学习笔记、问题解决方案、部署方案以及全栈式答疑,期待交流!

免责声明

凡本公众号注明“来源:XXX(非集智书童)”的作品,均转载自其它媒体,版权归原作者所有,如有侵权请联系我们删除,谢谢。

点击下方“ 阅读原文 ”,

了解更多AI学习路上的 「武功秘籍」

0
0
0
0
评论
未登录
看完啦,登录分享一下感受吧~
暂无评论