核心提示:IT之家7月17日消息,香港科技大学团队开发出一款名为Semantic-SAM的图像分割AI模型,相比Meta此前发布的SAM模型,Semantic-SAM具有更强的粒度和语义功能,能够在不同粒度级别上分割和识别物...
IT之家 7 月 17 日消息,香港科技大学团队开发出一款名为 Semantic-SAM 的图像分割 AI 模型,相比 Meta 此前发布的 SAM 模型,Semantic-SAM 具有更强的粒度和语义功能,能够在不同粒度级别上分割和识别物体,并为分割出的实体提供语义标签。
据悉,Semantic-SAM 基于 Mask DINO 框架进行开发,其模型结构主要改进在 decoder 部分,同时支持通用分割和交互式分割。
研究团队通过采用解耦的物体分类和部件分类方法,学习物体和部件的语义信息,从而实现了多粒度分割任务和交互分割任务的优化。实验结果表明,Semantic-SAM 在分割质量和粒度可控性方面优于 Meta 的 SAM 模型。
该项目目前已经在 GitHub 中发布,论文也同时上传至 ArXiv 中,有兴趣的IT之家小伙伴们可以前往查看。
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。