答辩公告
我的位置在: 首页 > 答辩公告 > 正文
曹意宏博士生预答辩公告
浏览次数:日期:2025-03-29编辑:

学位论文简介

场景感知是计算机视觉的核心任务,在自动驾驶、安防、机器人导航等领域取得重要进展。然而,受限于标注数据,传统有监督模型难以泛化到新场景,而领域自适应技术可有效缓解此问题。本文围绕领域自适应场景感知展开研究,从无监督领域自适应拓展至无源域自适应,再到遮挡感知无缝分割,最终提出无源域遮挡感知无缝分割,系统揭示跨场景感知的关键问题,推动其在复杂环境下的应用。主要贡献如下:

1)无监督领域自适应语义分割:提出自适应精炼-聚集-分离策略,分别针对不同域与类别特征设计适应机制。方法通过动态筛选高置信度特征、领域平衡聚类和自适应特征分离,有效缩小领域间特征差距,在目标域上取得优异性能。

2)无源域领域自适应语义分割:设计重要性注意与原型对比学习方法,在无源域和无目标域标签下提取领域不变与特定知识。基于领域偏移对预测概率分布影响的分析,引入重要性注意机制,并结合原型对称交叉熵与原型增强交叉熵损失,增强模型的目标域适应能力,在无需源域数据的情况下超越部分依赖源域的方法。

3)遮挡感知无缝分割:提出揭示注意力与非模态引导混合策略,结合全景视角与非模态预测以提升遮挡感知能力。设计交替排列的可变形块嵌入以缓解全景畸变,并通过遮挡感知融合模块实现多层级任务的统一推理。此外,构建BlendPASS数据集与场景适应测试基准,实验表明方法能合理预测不可见区域,实现全面感知。

4)无源域遮挡感知无缝分割:提出无约束全面上下文知识学习方法,包括分类别自调整伪标签生成与非模态驱动上下文学习。前者提高伪标签稳定性,后者利用空间感知混合策略增强遮挡推理能力。在不访问源域数据的情况下,方法在实例级任务上超越依赖源域的方法,并对全景语义分割展现良好泛化性。

综上,本文针对复杂环境下的领域自适应场景感知,提出一系列新方法,有效提升模型在多变场景中的泛化能力,推动领域自适应技术向实际应用迈进。

 

主要学术成果

  1. Cao Yihong, Zhang Hui, Lu Xiao, Chen Yurong, Xiao Zheng, Wang Yaonan. Adaptive refining-aggregation-separation framework for unsupervised domain adaptation semantic segmentation. IEEE Transactions on Circuits and Systems for Video Technology, 2023. (SCI一区, 第一作者)

  2. Cao Yihong, Zhang Jiaming, Shi Hao, Peng Kunyu, Zhang Yuhongxuan, Zhang Hui, Rainer Stiefelhagen, Yang Kailun. Occlusion-Aware Seamless Segmentation. European Conference on Computer Vision (ECCV), 2024. (CCF-B, 第一作者)

  3. Lu Xiao, Cao Yihong, Liu Sheng, Chengjiang Long, Zipei Chen, Xuanyu Zhou, Yimin Yang, Chunxia Xiao. Video shadow detection via spatio-temporal interpolation consistency training. Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), 2022. (CCF-A, 作者)