学术报告
我的位置在: 首页 > 学术报告 > 正文
大语言模型的安全测试与评估
浏览次数:日期:2025-09-23编辑:科研办

报 告 人:张天威, 新加坡南洋理工大学(NTU)计算与数据科学学院副教授

报告时间:20250925 上午930  

报告地点:腾讯会议 842-383-417


报告摘要: 大语言模型(LLM)在近年来取得了显著进展。它们极大地简化了基于用户需求生成高质量文本内容的过程。 然而,大语言模型的广泛应用也引发了伦理和社会层面的担忧。与数据隐私、人工智能算法偏见以及模型潜在滥用相关的问题,已成为激烈讨论的焦点。 在本次报告中,我将介绍一些关于大语言模型安全基准和测试的研究工作。这些研究凸显了在保障大模型生态系统安全方面所面临的紧迫挑战与机遇。


报告人简介: 张天威博士现任新加坡南洋理工大学(NTU)计算与数据科学学院副教授。他于 2011 年获得北京大学学士学位,2017 年获得普林斯顿大学博士学位。他曾参与多个国际学术会议的组织工作,以及担任TIFS,TCSVT等期刊编辑。张博士的研究方向聚焦于高效且可信的计算机系统构建。他已在顶级安全、人工智能和系统类会议与期刊上发表论文200余篇,其研究成果获得多项重要奖项,包括 ASPLOS 2023 杰出论文奖、ACL 2024 杰出论文奖、Usenix Security 2024 杰出成果奖和 CCS 2024 杰出成果奖。


邀请人:胡玉鹏


联系人:陈慧玲