人工智能先进制造研究院招聘
一、研究院简介
人工智能先进制造研究院是学校设立的实体二级教学科研单位(正处级),研究院紧紧围绕十五五规划现代化产业体系、“人工智能+”等重大战略部署,打造从基础研究到成果转化的全链条创新平台。瞄准真实产业需求,产出有国际影响力的硬核成果,支撑学校人工智能学科进入国内第一方阵。
研究院独立建设,初期主要依托计算机学院、国家超算长沙中心、岳麓山工业创新中心等,重点布局:
二、我们希望你来
【1】只设置三个职称层级,教授、副教授、助理教授;均为正式聘任,无特聘岗位、岗位无任何前缀,一心求才
【2】重点引进:自然语言处理、计算机视觉、计算机图形学、人机交互等人工智能相关研究方向的专家和学者。
【3】如果你有AI与机械、电气、土木、化学、材料等学科的交叉背景,我们非常欢迎。
【4】如果你来自企业,懂AI、懂制造、懂场景、能落地,我们特别需要你。
【5】简历投递后,最快一周、最晚一个月内反馈结果,不让你等。
【6】入职即认定博士生导师、硕士生导师资格,直接带研究生,不用等、不用排。
【7】有博士学位即可,成果优先,不限学历背景、不限博士后经历。
【8】简历直达院长,院长亲自看、亲自聊、亲自定,不层层转手,不拖不耗。
推荐有奖,欢迎转发!
我们鼓励广大网友、校友、同事积极推荐优秀人才。
推荐人选成功入职后,推荐人将获得奖励
实验室招生
信科院:
-招收2026级博士研究生2名
-招收2026级硕士研究生4名
国家卓工学院:
-招收2026级博士研究生1名
-招收2026级硕士研究生2名
有博士生、硕士生名额,以及博士后,请提前联系。
欢迎自我激励的硕士、RA、博士后和访问学者加入我的小组。
也欢迎有志于科研的本科生参与科研 (过来聊聊天也可以,出国、生活、谈恋爱都可以 :)。
本人可以积极推荐香港中文大学,香港大学,香港科技大学,多伦多大学等高校进行留学深造。
【招生说明】
本实验室研究领域集中于3D视觉方向,属于 CG&CV交叉方向。自动驾驶,机器人感知,AR&VR等均为相关应用方向。具体来说,专注于 3D 形状、场景智能创建和交互。 目标希望实现高效的、智能的、直观的(例如手势,语言,图像)、交互式地创建高质量和定制的内容。可以简单理解为3D版本的智能PS, 带着AR/VR设备操作3D物体,元宇宙版《我的世界》. (--好玩很重要--)。
另一方面,对于使用计算机图形技术(例如数据合成)来促进计算机视觉任务(例如 2D/3D 理解、分割、 3D 重建、NeRF新视角生成)的方向也非常感兴趣。(--能用也很重要--)。
理想的候选人应该是自我激励的(无论你的目标是学术界还是工业界)、有组织和负责任 (--能卷--)。
编程能力强,数学知识扎实,沟通能力强者优先 (--能干--)。
对实验室研究感兴趣的学生请 (--带带我--):
1. 发送你的简历,成绩单,学习和科研经历(用PPT进行总结展示)
2. 自行修读图形学和视觉基础课程。
图形学:GAMES101线上课程,http://games-cn.org/intro-graphics/ (图形学社区,资源多多)
深度学习、计算机视觉课程:a. 李飞飞:Stanford CS131 (英文),
b. 李宏毅:https://speech.ee.ntu.edu.tw/~tlkagk/courses.html (中文,塑料普通话,主角Pokémon)
2022machinelearning:https://speech.ee.ntu.edu.tw/~hylee/ml/2022-spring.php
以上课程在B站均能找到相关学习视频 (--众所周知,B站是个学习的网站--)
3. 学习网站
B站UP: 跟李沐学AI
OpenGL学习网站(英):http://www.songho.ca/opengl/
OpenGL学习网站(中):https://learnopengl-cn.github.io/
对于实验室工作研究的细节,可以参考我近期的学术报告录频。
【寄语】期望我的学生目光高远,从事高水平的科学研究,最好只在《中国计算机学会推荐期刊会议列表》和一流的期刊会议上发表经得住时间考验的学术成果 (成为大佬)。希望将自身的定位与眼光放在世界第一流团队的第一流工作上,做真正有国际影响力的工作 (带带我)。同时也会我也会尽自己最大努力和自己的学生一起成长 (玩)。另外无论是博士生、研究生还是本科生,均会给与一定的补助 (不白干),对于发表高水平论文的学生,将提供额外的科研奖励 (多劳多得)。也会支持大家积极参与各种学术会议,线上报告等学术社区活动 (交友平台)。论文是伴随终身的成果,最大的受益人最终都会是自己 (不是为老师打工),共勉。
媒体中心招聘
实验室论文
更多论文参见谷歌学术主页
-------------------------------------2026----------------------------------
【CCF-A】Learning Spatial-Temporal Consistency for 3D Semantic Scene Completion. CVPR 2026.
【SCI-1】HSG-Net: Point Cloud Completion via Heuristic Structure.IEEE Transactions on Neural Networks and Learning Systems(TNNLS), 2026.
【CCF-A】PI-Net: Point-to-Image Knowledge Distilation for Camera-based 3D Semantic Scene Completion. IEEE Transactions on Multimedia(TMM). 2026.
【CCF-A】ISDNet: High-fidelity Single-view Reconstruction of Indoor Scenes via Instance Separation and Deformation. IEEE Transactions on Multimedia(TMM).
【CCF-A】LiNeXt: Revisiting LiDAR Completion with Efficient Non-Diffusion Architectures. AAAI 2026.
【CCF-A】PointSLAM++: Robust Dense Neural Gaussian Point Cloud-based SLAM. AAAI 2026.
【CCF-B】PortraVec: Image-Based Portrait Vectorization with Text-Guided Manipulation. ICME 2026
【CCF-B】Disentangled Semantic and Rhythmic Modeling for Co-Speech Gesture Generation. ICME 2026
【CCF-B】HM-Avatar: Towards Realistic Loose Garment Modeling with Hierarchical MLPS. ICASSP 2026
【CCF-B】Input-Faithful Sparse-view 3D Gaussian Splatting with Diffusion Priors.ICASSP 2026
-------------------------------------2025----------------------------------
【CCF-A】Learning Temporal 3D Semantic Scene Completion via Optical Flow Guidance. NeurIPS 2025.
【CCF-A】SDFormer: Vision-based 3D Semantic Scene Completion via SAM-assisted Dual-channel Voxel Transformer. ICCV 2025.
【SCI-1】Vision-based 3D Semantic Scene Completion via Capture Dynamic Representations. Knowledge-Based Systems.2025.
【CCF-A】RWKV-PCSSC: Exploring RWKV Model for Point Cloud Semantic Scene Completion. ACM MM 2025.
【CCF-A】VLScene: Vision-Language Guidance Distillation for Camera-based 3D Semantic Scene Completion. AAAI 2025.
【SCI-1】MixSSC: Forward-Backward Mixture for Vision-based 3D Semantic Scene Completion. IEEE Transactions on Circuits and Systems for Video Technology (TCSVT), 2025.
【SCI-1】FacialTalk: Audio-Driven High-Fidelity Facial Portrait Generation Using 3D Facial Prior. Pattern Recognition.
【SCI-1】Decoupling Upper and Lower Face Transformers for Binary Interactive Video Generation. Neural Networks.
【CCF-B】TD-GS: Few-shot Object View Synthesis via Task-Disentangled 3D Gaussian Splatting. ICASSP 2025.
【CCF-B】Single-View Reconstruction via Decoupled 3D Gaussian Splatting. ICASSP 2025.
【CCF-B】High-Fidelity Single-View Reconstruction of Indoor Scenes using 3D Shape Prior Template and Pixel-Aligned Deformation. ICASSP 2025.
【CCF-B】TextHair3D: Text Driver3D Hair Editing with Generative Priors. ICASSP 2025.
【CCF-B】MoNeRF: Deformable Neural Rendering for Talking Heads via Latent Motion Navigation. Computer Graphics Forum.
【CCF-B】Self-Supervised Point Cloud Completion based on Multi-View Augmentations of Single Partial Point Cloud. ICME 2025.
【CCF-B】MROSS: Multi-Round Region-based Optimization for Scene Sketching. ICME 2025.
-------------------------------------2024----------------------------------
【CCF-A】Bi-SSC: Geometric-Semantic Bidirectional Fusion for Camera-based 3D Semantic Scene Completion. CVPR 2024.
【SCI-1】AWDepth: Monocular Depth Estimation for Adverse Weather via Masked Encoding. IEEE Transactions on Industrial Informatics (TII), 2024.
【CCF-B】Talking Portrait with Discrete Motion Priors in Neural Radiation Field.ICME, 2024.
【CCF-B】DeformingNet: Deforming Multiple Uniform 3D Priors for 3D Point Cloud Completion.ICME, 2024.
【CCF-B】MGS-SLAM: Dense RGB-D SLAM via Multi-level Gaussian Splatting. Pacific Graphics, 2024.
【CCF-B】Semantics-Augmented Quantization-Aware Training for Point Cloud Classification. Pacific Graphics, 2024.
【CCF-B】MC-SORT: A Motion Correction-Based Framework for Long-Term Multiple Object Tracking. ECAI, 2024.
-------------------------------------Before----------------------------------
【CCF-A】SD-Net: Spatially-Disentangled Point Cloud Completion Network. ACMMM 2023 Oral.
【CCF-A】Neural Template: Topology-aware Reconstruction and Disentangled Generation of 3D Meshes. CVPR 2022.
【CCF-A】Point Set Self-Embedding. IEEE TVCG 2022.
【CCF-A】SP-GAN: Sphere-Guided 3D Shape Generation and Manipulation. SIGGRAPH 2021.
【CCF-A】Point Cloud Upsampling via Disentangled Refinement. CVPR 2021.
【CCF-A】PointAugment: an Auto-Augmentation Framework for Point Cloud Classification. CVPR2020.
【CCF-A】PU-GAN: a Point Cloud Upsampling Adversarial Network. ICCV2019.
学生培养
指导博士:
2025级:贺文哲(硕博连读),刘声(硕博连读),张守高,阳致煊
2024级:杨道武,陈文堂
2023级:陈晓军
2021、2022级(联合指导):王萌、薛钰杰、李翔宇、李晓雪,鲁敬敬
指导硕士:
2025级:禹虹霞,刘盾
2024级:胡林君(ICASSP*1),王鸿裕(ICASSP*1)
2023级:王旭(AAAI*1,PG*1)
吴佳霖(ICASSP*1,盒马实习)
张晓豪(ICASSP*1,淘天实习)
朱世明(ICASSP*1,美团实习)
2022级:何孝林(TMM*1,蚂蚁实习,京东工作),龙丹丹(比亚迪工作),韩宜鸣(携程工作),蔡赵兴(建行工作)
2021级:陈俊先(ACMMM Oral*1,南开大学,CMM组读博)
主要科研项目
教育、工作经历