YOLO-NAS:一种基于Deci的目标检测新模型
一种新的目标检测模型即将问世,它声称是世界上最先进的模型——YOLO-NAS。
Deci的研究人员已经(今天!)推出了一种新的对象检测模型YOLO-NAS,它在检测小对象、定位精度和性能计算比方面优于SOTA对象检测模型(是的,我们正在看你的YOLOv8)。加入我们,一起探索YOLO-最佳电子竞技即时竞猜平台。NAS为计算机视觉及其他领域开辟的令人兴奋的可能性。

什么是YOLO-NAS?
YOLO-NAS是Deci研究人员在自动化人工智能的帮助下开发的一种新的目标检测模型。研究人员利用神经结构搜索(NAS)和自动神经结构构建(AutoNAC)引擎,使用深度学习算法以最佳电子竞技即时竞猜平台。自动化的方式探索和测试新的模型架构。
研究团队从10^14个潜在架构的巨大搜索空间开始。使用AutoNAC引擎,他们浏览了这个空间,并确定了“效率边界”,即算法可以平衡延迟和吞吐量的区域。整个搜索过程花费了团队3800个GPU小时!
ylo - nas在开源许可下可用,其预训练权值可用于SuperGradients (Deci基于pytorch的开源计算机视觉训练库)的非商业用途。使用SuperGradients,用户可以从头开始训练模型或微调现有模型,利用先进的内置训练技术,如分布式数据并行、指数移动平均、自动混合精度和量化感知训练。

YOLO-NAS架构的独特之处是什么?
YOLO-NAS的架构采用量化感知块和选择性量化来优化性能。该模型的设计特点是自适应量化,基于延迟/吞吐量改进和准确性损失之间的平衡跳过特定层的量化。当转换为INT8量化版本时,与在量化过程中损失1-2个mAP点的其他模型相比,YOLO-NAS的精度下降较小(S、M和L变体的mAP值分别为0.51、0.65和0.45点)。这些技术在具有卓越目标检测能力和一流性能的创新架构中达到顶峰。YOLO-NAS架构和预训练权重定义了低延迟推理的新领域,也是微调下游任务的绝佳起点。
YOLO-NAS是如何训练的?
YOLO-NAS经历了一个多阶段的训练过程,包括在Objects365数据集上进行预训练,利用COCO数据集生成伪标记数据,并结合知识蒸馏(KD)和分布焦点损失(DFL)技术。
Objects365由200万张图像和365个类别组成,在8块NVIDIA RTX A5000 gpu上进行25-40次预训练。COCO数据集提供了额外的123k未标记的图像,这些图像用于生成用于训练模型的伪标记数据。
KD技术通过向损失函数中添加一个项来应用,允许学生网络模拟教师网络的分类和DFL预测。同时,DFL通过将盒预测离散为有限值,学习盒回归作为分类任务,并预测这些值的分布,然后通过加权和将其转换为最终预测。
这些训练方法使YOLO-NAS能够实现高精度和卓越的目标检测能力。
YOLO-NAS有多好?
在纯数字方面,YOLO-NAS比YOLOv8和YOLOv7的等效变体精度提高了~0.5 mAP点,速度提高了10-20%。

结论
总体而言,对于寻求具有最先进目标检测功能的高效架构的研究人员和开发人员来说,YOLO-NAS模型是一个绝佳的选择,可以在量化过程中实现优化性能,同时保持高精度。