智能数字人论坛
智能数字人在元宇宙AIGC中扮演着关键角色,它不仅为功能服务机器人提供了个性化特征,也使得虚拟分身得以拥有独特的身份标识。随着虚拟数字人技术的不断演进,这一技术对于构建一个丰富多元的社交、生活和经济系统变得至关重要。本论坛重点研究基于高度认知拟真数字人关键技术,助于重新构建情感孪生数字人的认知,使其在情感表达上更接近人类价值观。作为下一代沉浸式社交互动的重要标志,本论坛涉猎理论技术为虚拟数字人落地应用提供更科学的理论依据和更稳健的实施路径。
吕科
中国科学院大学特聘教授
简介:吕科,中国科学院大学特聘教授、博士生导师,国家高层次人才特殊支持“万人计划”领军人才,科技部创新人才推进计划“中青年科技创新领军人才”,北京市高等学校高层次人才引进与培养计划特聘教授,鹏城国家实验室双聘教授,国家重点研发计划“基础科研条件与重大科学仪器设备研发”专项项目负责人,享受国务院政府特殊津贴专家。主要研究方向为图像处理、智能信息处理技术。承担国家自然科学基金、国家重点研发计划、中国科学院仪器设备、北京市教委重大专项等科研项目三十余项。在国内外学术期刊和国际主流会议上发表学术论文150 余篇,出版编著两部。研究成果先后获2004年度、2009年度国家科技进步二等奖、2012年度北京市科学技术二等奖、2012年度中国电子学会电子信息科学技术二等奖, 2017年获得中国科学院(京区)成果转化奖,2021年首届全国博士后创新创业大赛团队银奖。
报告题目:高保真数字人建模与驱动关键技术与应用
报告摘要:随着人工智能技术的不断发展,虚拟现实、增强现实、数字孪生和元宇宙正在逐渐从概念走向现实,数字人是其中不可或缺的角色,是近年来产业聚焦的热点和研究的前沿。数字人是存在于非物理世界中多种计算机手段合成的具有多重人类特征的综合体,数字人在泛娱乐、金融、文旅、教育以及医疗等领域都有应用,本报告主要介绍数字人建模与驱动中的关键技术,包括基于情感感知的数字人表情生成方法,多模态协同的人体姿态估计与动作捕捉、面向多级场景的数字人三维重建与背景融合以及面向多级场景的数字人仿真测试与演示验证。
张举勇
中国科学技术大学教授
简介:张举勇,中国科学技术大学数学科学学院教授,获国家基金委优秀青年基金、中科院青促会优秀会员资助。2006年本科毕业于中科大计算机系,2011年博士毕业于新加坡南洋理工大学,2011年至2012年于瑞士联邦理工学院洛桑分校从事博士后研究。研究领域为计算机图形学与三维视觉,近期主要研究兴趣为基于神经隐式表示、逆向渲染与数值优化方法对真实物理世界进行高效高保真三维数字化,以及高真实感虚拟数字内容的创建。
个人主页:http://staff.ustc.edu.cn/~juyong/
报告题目:高保真虚拟数字人:从建模、驱动到生成与编辑
报告摘要:近年来,以NeRF、3D Gaussian为代表的表示方式以其强大的拟合表达能力、可微分等优点在人、物体与场景的重建方面取得了巨大的突破。虚拟数字人要真正的走向应用落地,除建模之外,数字人的多模态驱动、外形与情感的编辑与控制等也是同等重要。在本次报告中,我将介绍课题组在虚拟数字人的快速重建、基于物理的动作与衣服驱动、多模态数字人编辑等方面的研究工作。
晏轶超
上海交通大学助理教授
简介:晏轶超,上海交通大学人工智能研究院助理教授。获上海交通大学电子工程系博士学位,法国里昂中央理工学院硕士学位,曾担任阿联酋起源人工智能研究院研究科学家。主要研究方向为三维数字人技术,发表包括TPAMI、CVPR、NeurIPS在内的论文40余篇。先后主持国家自然科学基金青年项目、CCF-阿里巴巴青年科学家基金等项目8项。入选上海市海外高层次人才计划,获 2020年度中国图象图形学学会优秀博士论奖。
报告题目:三维数字人重建、生成与编辑研究进展
报告摘要:面对大规模三维数字人的生产需求,利用生成式人工智能技术产生高拟真,规模化的虚拟数字人正逐渐成为研究热点。三维高斯、大模型等技术在过去一年快速发展,并与数字人技术进行了广泛结合,本次报告将从数字人重建、生成、编辑等方向介绍数字人领域的最近进展,对数字人技术的发展趋势进行探讨。
赵健
中国电信人工智能研究院多媒体认知学习团队负责人、资深研究科学家
西北工业大学光电与智能研究院研究员、博导
简介:赵健,中国电信人工智能研究院多媒体认知学习团队(EVOL Lab)负责人、资深研究科学家,西北工业大学光电与智能研究院研究员、博导,博士毕业于新加坡国立大学,研究兴趣包括临地安防、AI+文旅、多模态AI Agent。共发表CCF-A类论文60余篇,含一作T-PAMI×2(IF: 20.8)、IJCV×3(IF: 11.6),第一发明人授权国家发明专利5项。相关技术成果在中国电信、百度、蚂蚁金服、奇虎360等7个科技行业领军企业得到应用,产生了显著效益。曾入选中国科协及北京市科协“青年人才托举工程”,主持JKW某特区项目、国自然面上等项目7项。曾获吴文俊人工智能优秀青年奖(2023)、吴文俊人工智能自然科学奖一等奖(2/5,2022)、新加坡模式识别与机器智能协会(PREMIA)Lee Hwee Kuan奖(2019)、ACM Multimedia唯一最佳学生论文奖(一作,1/208,CCF-A类会议,2018),8次在国际重要科技赛事中夺冠。担任北京图象图形学学会理事,国际知名期刊《Pattern Recognition》、《IET Computer Vision》编委,《Pattern Recognition Letters》、《Electronics》特刊客座编辑,VALSE资深领域主席,ACM Multimedia 2021分论坛主席,CICAI 2022/2023领域主席,CCBR 2024论坛主席,中国人工智能学会/中国图象图形学学会高级会员,“挑战杯”大学生科技作品竞赛评委,中国人工智能大赛评审专家,中国电信集团科技奖评审专家等。
报告题目:无约束感知理解:从视觉垂域建模到多模态统一与多任务协同
报告摘要:无约束条件下各种内外干扰相互耦合,给视觉目标感知理解的建模求解带来极大挑战。本报告首先围绕复杂要素耦合空间属性关系挖掘与识别问题,针对目标视觉观测多变性、属性耦合结构多样性、场景目标复杂多元性等挑战,基于数据和知识混合驱动的深度感知理解思想,提出多模融合学习实例级目标跟踪、要素解耦学习属性级目标识别、因果嵌套学习像素级语义解析等创新,进而结合多源融合、通用模型、多任务/增量学习等拓展延伸,构建面向复杂场景多模态非完整信息融合感知理解的通用模型与方法。
张健
北京大学特聘研究员
简介:北京大学深圳研究生院信息工程学院助理教授/研究员、博士生导师,视觉信息智能学习实验室(VILLA)负责人。主要研究方向为视觉智能内容生成与安全,在TPAMI/IJCV/TIP/CVPR/NeurIPS/ICCV等IEEE汇刊和CCF-A类期刊/会议上发表论文80余篇(其中第一/通讯作者60余篇),谷歌学术引用8600余次,h-index值为46,连续四年入选斯坦福全球前2%顶尖科学家榜单,获得北大青年教师教学比赛一等奖、CAAI—华为MindSpore学术奖励基金项目优秀奖、国际期刊/会议最佳论文奖四次、NTIRE全球挑战赛冠军。致力于产学研相结合,成果应用于Stability Al、Hugging Face、免展等知名公司AIGC产品中。担任深圳市人工智能学会青年工作委员会主任、广东省图象图形学会理事、CSIG青年工作委员会委员/数字媒体取证与安全专业委员会委员、VALSE执行委员、JVCIR等国际期刊编委等。
主页:https://jianzhang.tech/
报告题目:面向AIGC内容安全的多功能数字水印
报告摘要:随着人工智能生成内容(AIGC)技术的飞速发展,其在伪造和篡改领域的滥用已引起广泛关注。在此背景下,保护视觉内容的安全性显得尤为迫切。本报告将介绍面向AIGC内容安全的数字水印前沿技术,展示和分享团队在视觉内容版权保护与数字取证方面的探索,以及在面向AIGC的多功能数字水印方面的最新成果,尝试探讨当前所面临的挑战,并对未来的发展趋势进行展望。
刘烨斌
清华大学教授
简介:刘烨斌,清华大学长聘教授,国家杰青基金获得者。研究方向为三维视觉、数字人重建、生成与交互。发表TPAMI/ SIGGRAPH/CVPR/ICCV等论文近百篇。多次担任CVPR、ICCV、ECCV领域主席,SIGGRAPH Asia技术委员会委员,担任IEEE TVCG、CGF编委。任中国图象图形学会三维视觉专委会副主任。获2012年国家技术发明一等奖(排名3),2019年中国电子学会技术发明一等奖(排名1)。
韩晓光
香港中文大学(深圳)理工学院助理教授
简介:韩晓光博士,现任香港中文大学(深圳)理工学院助理教授,校长青年学者。他于2017年获得香港大学计算机科学专业博士学位。其研究方向包括计算机视觉和计算机图形学等,在该方向著名国际期刊和会议已发表论文近100篇,包括顶级会议和期刊SIGGRAPH(Asia), CVPR, ICCV, ECCV, NeurIPS, ACM TOG, IEEE TPAMI等。他曾获得吴文俊人工智能优秀青年奖,广东省杰出青年基金资助,香港中文大学(深圳)青年科研奖。多次担任CVPR、NeurIPS以及ECCV等领域主席,同时也是IEEE TVCG 的编委。他的工作曾两次获得CCF图形开源数据集奖(DeepFashion3D和MVImgNet),曾两次入选CVPR最佳论文列表。
刘昊
宁夏大学教授
简介:刘昊,工学博士,宁夏大学教授、博士生导师,国家级青年托举人才。从事模式识别与AI大模型方向的教学科研工作,已发表IEEE汇刊和CCF国际会议论文50余篇。获批主持国家自然科学基金面上项目2项,中国人工智能学会-华为MindSpore学术奖励基金及中央引导地方专项等10余项省部级项目。担任国际知名会议领域主席和多个国家一级学会专委会委员,CAAI-TRIT国际期刊青年编委。曾获中国人工智能学会优秀博士论文奖和清华大学优秀博士论文奖。
会议注册
1►
注册时间及缴费标准
· 其他参会人员,请选择全额注册。
2►
注册方式
通过以下两种任何一种方式进行注册
2、注册链接:https://hy.mustedu.cn/public/?s=goods/index/id/4.html (点击文末左下方“阅读原文”,可进入)
3►
缴费方式
1、支付宝或线下转账汇款方式
线下转账汇款账户信息:
单位名称:马上科普教育科技(北京)有限公司
开户银行:中国建设银行股份有限公司北京学知支行
银行账号:11050110477000000051
2、付款时请务必附言备注:“CCBR2024+单位+姓名”,例如" CCBR2024+XX大学+张三"。
3、办理转账汇款后,需上传付款凭证截图。
4►
发票开具
1、会议发票由CCBR 2024会务公司:马上科普教育科技(北京)有限公司开具。
2、参会人员预定的酒店,由酒店开具发票。
5►
联系方式
1、注册缴费/发票:李超13439275509
2、mail: ccbr2024@163.com
手部生物特征识别论坛
手部生物特征识别论坛是一个专注于探讨手部生物特征识别技术及其应用的学术交流平台。手部生物特征识别技术是基于手部生物特征进行身份认证和识别的技术,包括指纹识别、掌纹识别、指静脉识别等。随着生物特征识别技术的不断发展,手部生物特征识别技术在刑事侦查、手机解锁、金融支付等诸多领域得到了广泛应用。本次论坛邀请了浙江工业大学王海霞教授、清华大学深圳研究生院杨文明副教授、广东工业大学费伦科副教授、腾讯优图丁守鸿博士、腾讯玄武实验室陈昱博士,分享在他们在手部生物特征识别技术领域的最新研究成果和开展落地应用的实际经验。期待本次论坛能够为与会者提供一个交流和学习的平台,促进专家学者之间的深入合作和学术交流,推动手部生物特征识别技术的进步和产业化进程。
王海霞
浙江工业大学教授
简介:王海霞,浙江工业大学计算机科学与技术学院教授、博导。于2007年和2012年分别在新加坡南洋理工大学获得计算机工程学士学位和博士学位。主要从事生物特征成像、计算成像和三维测量等领域的研究工作。已主持国家自然科学基金面上、青年项目等10余项,参与国家自然基金重大科研仪器等。相关成果在IEEE TPAMI、TIFS、TBIOM等期刊发表学术论文50多篇,获得了2022年度浙江省自然科学一等奖。任国际期刊Optics and Lasers in Engineering编委等。
报告题目:基于光学相干层析成像的皮下指纹研究
报告摘要:指纹识别技术面临两个关键挑战。首先,指纹常常会因为自然老化和长期磨损而发生变形,这直接影响了识别的准确度。统计数据揭示了大约5%的人群因指纹模糊而难以通过身份识别。其次,指纹的伪造问题也日益成为安全领域的一大隐患。针对这些挑战,本研究成功构建了一种基于光学相干断层扫描技术的同步指纹采集系统。该系统能够以三维形式捕捉指尖表面及其下1-2毫米深处的详细信息,包括表面与深层指纹纹路、汗腺等。这些皮下特征即使在皮肤表面受损的情况下也能保持相对清晰,且对于伪造手段具有显著的抵御能力。本研究深入探讨了皮下指纹的采集与提取技术,并对其在身份识别和防伪领域的应用潜力进行了系统分析。
杨文明
清华大学深圳国际研究生院副教授/博导
简介:研究方向为图像处理、计算机视觉、深度学习与人工智能应用。
IEEE Senior Member,累计在IEEE TPAMI、TIP、TIFS、TNNLS、TMM、TCSVT、PR等国际期刊和ICCV、CVPR、ECCV、AAAI、ACM MM、ICML、ICLR等国际会议发表学术论文近200篇,2篇论文入选ESI高被引论文。入选2022与2023年ESI年度科学影响力全球Top 2%科学家名单。荣获2023年中国人工智能学会吴文俊科技进步奖一等奖、2023首届全国人工智能应用场景创新挑战赛一等奖、深圳人工智能自然科学奖一等奖。曾担任多个著名国际期刊客座主编或编委,并组织包括CVPR在内的多个国际学术会议的Workshop或Webinar学术研讨会。
报告题目:两种基于生成式模型的指静脉识别方法
报告摘要:Finger vein recognition technology, celebrated for its high specificity, capability for liveness detection, and non-contact recognition features, has unveiled its considerable application potential across various domains, including terminal identity authentication. In this report, we focus on exploiting generative models such as Diffusion and NeRF for finger vein authentication. We propose a multi-task learning framework for finger vein recognition based on diffusion model. Deviating from conventional approaches that treat vein texture segmentation and recognition as separate stages, we synergistically enhance these tasks by integrating pattern segmentation and category prediction sub-tasks. Central to our DiffVein framework is a bidirectional data pathway mechanism, wherein the segmentation network supplies baseline feature vectors and pattern semantic information to the denoising network. In the realm of reconstruction and authentication based on multi-view finger vein images, we adapt and migrate the neural attenuation field model, originally from the medical imaging domain, to the near-infrared light finger vein imagery modality. By incorporating a neural attenuation field, we model the attenuation process as rays traverse various human media, conforming to the characteristics of transmissive imaging. Extensive series of comparative and ablation experiments on single-view and multi-view finger vein datasets verify the effectiveness of the proposed methodologies.
费伦科
广东工业大学副教授
简介:费伦科,副教授、博士生导师,CCF/CSIG/IEEE高级会员,哈尔滨工业大学博士,澳门大学博士后,研究方向主要包括模式识别、计算机视觉、生物特征识别和机器学习等。发表CCF A/B类期刊和会议论文80余篇,其中IEEE汇刊论文30余篇和“ESI高被引”论文5篇,发表论文Google学术引用6500余次。担任国际期刊《Pattern Recognition》、《IJBM》、《IJIG》编委,《自动化学报(英文版)》首届青年编委。主持国家级课题2项和省部级课题4项,获广东省科技进步二等奖1项,获国际/国内学术会议最佳论文/最佳学生论文奖4项,入选2023 年斯坦福大学发布的全球前2%顶尖科学家榜单。
报告题目:弱约束掌纹识别
报告摘要:掌纹识别技术因其较好的非接触、非侵犯性、掌纹半私密性以及使用便利性而受到广泛关注,近年来,亚马逊和腾讯相继推出“刷手支付”系统Amazon One和WePalm,进一步激发了人们对掌纹识别技术的兴趣。本报告首先介绍掌纹识别技术的主要发展历程,然后介绍项目组开展的弱约束掌纹识别方面的工作,主要包括掌纹图象超分辨率、弱约束掌纹特征提取和VIS-NIR异质掌纹识别等,最后对掌纹识别技术未来发展做一个展望。
丁守鸿
腾讯优图实验室研究总监
简介:丁守鸿,博士毕业于上海交通大学计算机科学与技术专业,自2016年加入腾讯,主要从事生物特征识别、活体检测、内容取证和模型对抗攻防等方面的研究。带领的团队研究成果多次被CVPR、ICCV、ECCV、NIPS等会议录用并发表,负责的技术在微信、腾讯云等多个产品中应用落地。
报告题目:掌纹可控生成与识别
报告摘要:从生物特征识别背景出发,介绍生成技术在生物特征安全、识别与信息保护方面的应用,特别是生成技术辅助提升掌纹识别方面的最新进展,并展示生物特征技术在典型场景中的落地实践。
陈昱
腾讯玄武实验室高级研究员
简介:中科院信息工程研究所博士,玄武实验室安全研究员。感兴趣的领域包括生物认证安全、移动安全、硬件安全、大模型隐私与攻防等。研究成果曾发表在GeekPwn、BlackHat USA、Usenix Security、WASA (best student paper)上。
报告题目:无限手套攻击-手机指纹暴力破解
报告摘要:本研究首次提出了一种针对智能手机指纹认证系统的新型暴力破解攻击,称为“无限手套”。该攻击无需获取受害者的指纹信息,利用了多个制造商和操作系统的设计漏洞,允许无限制地进行认证尝试。通过SPI中间人攻击绕过活体检测,并使用合成指纹生成器创建暴力破解字典,攻击可以在不到一小时内成功。研究表明,这种攻击方法具有低成本和高可扩展性,对多种智能手机型号有效。
冯建江
清华大学副教授
简介:清华大学自动化系长聘副教授,博士生导师。研究方向包括生物特征识别、人机交互、医学影像分析。主持科技部重点研发课题、国自然优秀青年基金等项目。担任IEEE T-IFS编委、中国生物特征识别会议(2015-2021)程序委员会主席、国际生物特征识别会议(2014-2016,2021)领域主席等。发表IEEE和ACM期刊论文50余篇,合著《Handbook of Fingerprint Recognition》第三版(Springer出版)。获国家技术发明二等奖(2018)、中国电子学会一等奖(2011)、浙江省自然科学一等奖(2022)、教育部自然科学二等奖(2011和2015)、中国发明专利银奖(2019),六次获得会议最佳论文奖或提名。
赵启军
四川大学教授
简介:赵启军,四川大学计算机学院(软件学院、智能科学与技术学院)教授、博士生导师、副院长,四川省学术和技术带头人后备人选。长期从事生物特征识别领域的研究工作,研究兴趣包括人脸与指纹识别、动物生物特征识别、生物特征安全等。曾获上海市自然科学奖二等奖、四川省科技进步奖三等奖、国际计算机视觉与模式识别会议(CVPR)杰出评审专家称号、《中国图象图形学学报》优秀编委等。现任《中国图象图形学学报》青年编委、中国图象图形学学会会员发展与服务工作委员会委员、中国计算机学会软件能力认证(CSP)组织委员会常任委员等。
刘凤
深圳大学副教授
简介:刘凤,2014年在香港理工大学电子计算学系获得博士学位,之后作为海外高层次人才由深圳市政府引进,现为深圳大学副教授,博士生导师。获得深圳市海外高层次人才,深圳市后备人才,南山区领航人才称号。主要研究领域为人工智能,计算机视觉,模式识别等领域。近年来在相关领域(TIP,TIFS, IEEE Transactions on Cybernetics, TNNLS, PR等)JCR1区期刊发表学术论文40余篇,并在ICCV, ECCV,AAAI,IJCB等相关领域国际国内会议上发表论文10余篇,其中一篇论文获得广东省计算机学会优秀论文二等奖。申请发明专利20余项,授权国内发明专利10件,并完成授权专利转化 1 项。主持包含国家自然科学基金面上,青年基金等项目10余项。承担多个会议及期刊的审稿工作,并担任相关领域会议ICB,CCBR,PRML,WSB的local chair,session chair等工作。
多模态大模型前沿论坛
多模态大模型因其可以从不同数据中获取多维度信息及共性知识,从而具有优越的通用性,是当前人工智能进一步发展的关键。
本次论坛邀请了中国科学院自动化研究所徐常胜研究员、北京交通大学魏云超教授、中国科学院自动化研究所刘静研究员、中国科学技术大学刘武教授、中国科学院计算技术研究所李亮副研究员分享近期在多模态大模型方面的前沿进展,覆盖多模态融合表征、关联协同、模态迁移、内容生成等多个主题,并共同探讨多模态大模型技术的未来发展。
期待本次论坛能够为与会者提供一个交流和学习的平台,促进专家学者之间的深入合作和学术交流,推动多模态大模型技术的进步和产业化进程。
徐常胜
中国科学院自动化研究所研究员
简介:徐常胜,中国科学院自动化研究所研究员,国家杰出青年基金获得者、国家万人计划领军人才、国家百千万人才工程入选者、首都科技创新领军人才、中科院王宽诚率先人才计划卢嘉锡国际团队负责人,IEEE/IAPR Fellow和ACM杰出科学家。担任ACM多媒体专委会中国区(ACM SIGMM China Chapter)主席。主持过国家重点研发计划、国家自然科学基金重点、国家自然科学基金国际合作重点、中科院前沿重点和中科院国际合作重点项目等。发表IEEE/ACM会刊论文200余篇,CCF-A类会议论文150余篇,在ACM MM和ACM TOMM等多媒体领域国际顶级会议和期刊上获得最佳论文奖10余次,以第一完成人获2018年中国电子学会自然科学一等奖,7次获得中国科学院优秀导师奖。
报告题目:开放世界的多模态大模型研究与应用
报告摘要:与视觉和语言大模型相比,多模态大模型能够从不同模态数据中学习共性知识,因此具有更强的通用性,也更接近人类的认知能力,是目前人工智能进一步发展的关键所在。尽管目前的多模态大模型已取得了重要进展,在跨模态检索、跨模态生成等任务中取得了优异的性能,但在实际应用中面临的开放世界,已有多模态大模型仍然存在很多尚未解决的挑战。本报告主要探讨解决两个方面的问题:(1)如何在保留不同模态数据本身特性的前提下建模多模态数据关联;(2)如何在保证模型泛化性的前提下实现多模态大模型在下游任务中的跨域迁移和小样本迁移。报告分析了多模态大模型中理想的视觉系统所应具备的要素并提出了基于解耦视觉系统的多模态大模型Libra;同时也介绍了针对多模态大模型的多个泛化性保持的跨域和小样本迁移方法。
魏云超
北京交通大学教授
简介:魏云超,北京交通大学计算机学院教授、副院长,国家高层次人才计划获得者。曾在新加坡国立大学、美国伊利诺伊大学厄巴纳-香槟分校、悉尼科技大学从事研究工作。入选MIT TR35 China、百度全球高潜力华人青年学者、《澳大利亚人》TOP 40 Rising Star;获世界互联网大会领先科技奖(2023)、教育部高等学校自然科学奖一等奖(2022)、中国图象图形学学会科技技术奖一等奖(2019)、澳大利亚研究委员会青年研究奖(2019)、IBM C3SR最佳研究奖(2019)、计算机视觉世界杯ImageNet目标检测冠军(2014)及多项CVPR竞赛冠军;发表TPAMI、CVPR等顶级期刊/会议论文100多篇,Google引用超22000多次。目前主要研究方向包括面向非完美数据的视觉感知、多模态数据分析、生成式人工智能等。
报告题目:从3D到4D,快速且时空一致的4D内容生成探索
报告摘要:近年来,借助2D生成大模型的发展,3D内容生成发展迅速,然而由于缺少大量4D数据集和强有力的视频预训练模型,动态3D(4D)内容生成却少有探索。本报告旨从3D生成视角出发,研究快速且时空一致的4D内容生成,将会介绍最新的4D生成工作——4DGen和Diffusion4D。通过探究如何设计时空上高保真度的监督信号,以及如何使用4D数据集对视频生成模型进行微调,实现从文本、图像或视频控制信号到4D内容的快速高质量生成。
刘静
中国科学院自动化研究所研究员
简介:刘静,中国科学院自动化研究所研究员,国科大岗位教授,国家优青。研究方向多媒体分析与理解,带领团队研发了国际首个图文音三模态大模型“紫东太初”。相关成果曾获中国电子学会自然科学一等奖,北京市自然科学二等奖,中国图象图形学学会科学技术二等奖,世界人工智能大会卓越人工智能引领者奖等。已发表高水平学术论文近200篇,谷歌学术引用15000+次,SCI他引6000+次。荣获国际学术竞赛冠军十余项。
报告题目:多模态大模型的研究与实践
报告摘要:多模态大模型是针对图文音视等各种弱关联模态信息,利用自监督学习与模型微调等手段,建立多模态融合表征、关联协同与相互转化等,已被认为是实现类人感认知能力的重要途径,现已得到无论在学术界还是企业界的广泛关注。本报告主要包含三方面内容:回顾当前多模态预训练的研究进展;本人研究团队在多模态大模型构建与优化方面的最新工作;以及对多模态大模型领域的思考与展望。
刘武
中国科学技术大学教授
简介:刘武,中国科学技术大学,特任教授,IET fellow。在多媒体内容分析与搜索领域开展了较为深入的研究,曾获得了IEEE多媒体领域三大国际旗舰期刊和会议IEEE TMM 2019最佳论文奖,IEEE MM 2018最佳论文奖和IEEE ICME 2016最佳学生论文奖。入选了北京市科技新星计划,《麻省理工科技评论》亚太区“35岁以下科技创新35人”,获得了天津市科技进步特等奖、ACM中国新星奖、中科院优秀博士论文奖、中国多媒体企业创新技术奖等奖项,担任了IEEE T-MM Associate Editor,IEEE ICME 2022和ACM MM Asia 2021技术委员会主席,以及ACM MM、AAAI、ACL、CIKM等领域主席,作为主席组织过14个国际Workshop、Tutorial、Special Session和竞赛。
报告题目:自然场景下大规模步态识别关键技术研究
报告摘要:步态是一种极具潜力的生物特征,能反映人们的行走方式。由于个体运动和体型等差异,每个人都具有独特的步态特征,因此可以利用步态特征对视频中的目标行人进行身份识别。相比其他生物特征,步态具有远程获取、非侵犯性和难以伪装等优势。现有研究大多集中在受控场景和二值轮廓等低信息熵步态表征上,限制了其实际应用中的推广与落地。为解决上述问题,我们首次探索了高信息熵步态表征,并构建了首个基于多种步态表征的自然场景大规模步态识别数据集Gait3D。基于Gait3D,我们首次提出了SMPLGait、MTSGait、ParsingGait和XGait等多种新型网络框架,在Gait3D数据集上取得了优秀的性能,探索并验证了3D人体网格模型、细粒度分割图等新型表征,以及表征融合等方式在步态识别上的可行性。
李亮
中国科学院计算技术研究所副研究员
简介:李亮,博导,国家自然科学基金委优秀青年基金获得者,研究方向为生成式人工智能和跨模态学习等,发表TPAMI等汇刊和CCF-A类会议论文80余篇,谷歌引用4000余次,获国际会议最佳论文奖2次,6项工作入选ESI高被引论文。主持/参与科技部科技创新2030重大项目、973课题、NSFC重点和面上项目等20余项,参与组织7次IEEE/ACM国际会议和6次国内会议,国际期刊Electronics和JCST编委,ACL、EMNLP、NAACL和ACM MM等顶会的领域主席,获2022年浙江省科学技术进步奖一等奖、2020年吴文俊人工智能自然科学一等奖。与新华社共同起草制定了的全球首个内容自动化生产标准《机器生产内容自动化分级》,相关技术在华为、淘宝、大华、华数传媒等公司使用,服务于2022北京冬奥会等重要任务。
报告题目:跨模态时空关联关键技术
报告摘要:计算机视觉和自然语言处理是人工智能的两大分支,它们专注于在视觉和语言上模拟人类智能。两者都用于描述客观世界,只是表述形式不同,存在相当密切的关联,现实世界的问题往往是同时涉及视觉和语言两种模态的。本次报告分享不同模态间在时间和空间上的定位,包括语言到图像的定位、语言到视频的定位、音频到视频的定位。此外,也将介绍在弱监督和开放域等复杂场景下的跨模态定位工作。
赵健
中国电信人工智能研究院、西北工业大学
简介:赵健,中国电信人工智能研究院多媒体认知学习实验室(EVOL Lab)负责人、资深研究科学家(GitHub主页:https://zhaoj9014.github.io),西北工业大学光电与智能研究院研究员、博导(学院主页:https://iopen.nwpu.edu.cn/info/1252/4626.htm),博士毕业于新加坡国立大学,研究兴趣包括临地安防、AI+文旅、多模态AI Agent。共发表CCF-A类论文60余篇,含一作T-PAMI×2(IF: 20.8)、IJCV×3(IF: 11.6),第一发明人授权国家发明专利5项。相关技术成果在中国电信、百度、蚂蚁金服、奇虎360等7个科技行业领军企业得到应用,产生了显著效益。曾入选中国科协及北京市科协“青年人才托举工程”,主持JKW某特区项目、国自然面上科学基金等项目7项。曾获吴文俊人工智能优秀青年奖(2023)、吴文俊人工智能自然科学奖一等奖(2/5,2022)、新加坡模式识别与机器智能协会(PREMIA)Lee Hwee Kuan奖(2019)、ACM Multimedia唯一最佳学生论文奖(一作,1/208,CCF-A类会议,2018),8次在国际重要科技赛事中夺冠。担任北京图象图形学学会理事,国际知名期刊《Pattern Recognition》、《Artificial Intelligence Advances》、《IET Computer Vision》编委,《Pattern Recognition Letters》、《Electronics》特刊客座编辑,VALSE资深领域主席,ACM Multimedia 2021分论坛主席,CICAI 2022/2023领域主席,CCBR 2024论坛主席,中国人工智能学会/中国图象图形学学会高级会员,“挑战杯”大学生科技作品竞赛评委,中国人工智能大赛评审专家委委员,中国电信集团科技奖评审专家委委员等。
刘昕
AutoDL.com首席科学家
简介:刘昕,工学博士,2017年毕业于中科院计算所,导师山世光研究员,现任AutoDL.com首席科学家,兼任中国图象图形学学会青年工作委员会副秘书长、中国图象图形学学会多媒体专委会副秘书长。他的研究方向为计算机视觉和深度学习,近期主要关注AIGC技术的研发落地,特别是大模型驱动的视频生成与理解技术。在IEEE TIP、CVPR、ICCV等计算机视觉重要期刊和会议上发表论文20余篇。他曾入选福布斯U30、中关村雏鹰人才和联想之星CEO特训班LS10期。
金磊
北京邮电大学
简介:金磊,北京邮电大学特聘副研究员,博士生导师,研究方向为人体感知理解、具身智能,现有工作聚焦于基于计算机视觉的人体姿态估计、人体解析、行为理解等,相关成果发表在CVPR/AAAI/ACMMM/TMM等CCF-A类和中科院一区期刊会议10余篇,主持一项国家自然科学基金青年项目/一项国家自然科学基金面上项目,参与两项国家重点研发项目以及四项国家自然基金面上项目。多次依托国内及国际会议ICCV2021/CVPR2023/FG2024/PRCV2024组织相关研讨会。
会议注册
1►
注册时间及缴费标准
· 其他参会人员,请选择全额注册。
2►
注册方式
通过以下两种任何一种方式进行注册
2、注册链接:https://hy.mustedu.cn/public/?s=goods/index/id/4.html (点击文末左下方“阅读原文”,可进入)
3►
缴费方式
1、支付宝或线下转账汇款方式
线下转账汇款账户信息:
单位名称:马上科普教育科技(北京)有限公司
开户银行:中国建设银行股份有限公司北京学知支行
银行账号:11050110477000000051
2、付款时请务必附言备注:“CCBR2024+单位+姓名”,例如" CCBR2024+XX大学+张三"。
3、办理转账汇款后,需上传付款凭证截图。
4►
发票开具
1、会议发票由CCBR 2024会务公司:马上科普教育科技(北京)有限公司开具。
2、参会人员预定的酒店,由酒店开具发票。
5►
联系方式
1、注册缴费/发票:李超13439275509
2、mail: ccbr2024@163.com
生物特征安全论坛
“生物特征安全论坛”旨在共同探讨生物特征识别技术在安全领域的最新进展和应用。本次论坛将特别关注人脸防伪、深度伪造(Deepfake)、对抗攻击检测以及生成式人工智能内容(AIGC)等前沿领域。人脸防伪技术旨在识别和防止利用照片、视频等手段进行的身份冒用,确保面部识别系统的安全性和可靠性。深度伪造技术的快速发展带来了新的安全威胁,论坛将探讨如何检测和防范这些伪造内容,以保护个人隐私和数据安全。对抗攻击检测则关注如何识别和抵御针对生物特征识别系统的恶意攻击,确保系统的稳健性和安全性。通过此次论坛,我们希望能够搭建一个高水平的交流平台,推动生物特征识别技术在全球范围内的广泛应用,为构建更加安全、便捷的社会环境贡献力量。
张宁
公安部鉴定中心研究员
简介:张宁,正高级警务技术职称,清华大学博士,公安部鉴定中心研究员,主要研究方向为视频图像分析、物证光学检验以及法庭科学标准化研究。先后主持和参与国家和省部级科研项目20余项,在Nature Communications等知名期刊发表学术论文50余篇。
报告题目:法庭科学视角下的人像证伪技术探索与应用
报告摘要:近年来,通过“AI换脸”、“面具伪装”等方式实施欺诈、制造虚假信息等新型违法犯罪活动日趋频繁,维护国家安全和社会稳定面临新挑战。本报告立足法庭科学的视角,从证伪鉴定、来源追溯、攻击防御、风险评估四个维度探讨人像证伪关键技术,通过开发一套集成化的人像证伪平台,初步应用在实际案件中,有效提升了公安机关对伪造人像的鉴定能力和质量。
苏航
清华大学副研究员
简介:苏航,清华大学计算机系副研究员,入选国家级青年人才计划,主要研究鲁棒机器学习和具身智能等相关领域,发表CCF推荐A类会议和期刊论文100余篇,谷歌学术论文引用10000余次,获得吴文俊人工智能自然科学一等奖,ICME铂金最佳论文、MICCAI青年学者奖和AVSS最佳论文等多个学术奖项,现任中国图像图形学会青工委执委、IEEE TPAMI和Artificial Intelligence编委,IEEE P7018 生成式大模型安全标准工作组主席,曾任VALSE执行AC委员会主席,NeurIPS的领域主席(Area Chair)、AAAI Workshop Co-Chair等。
报告题目:大模型时代的人工智能对抗安全风险探索
报告摘要:在GPT等大型模型的快速发展推动下,人工智能系统正加速技术革命和产业进步,逐步融入人类日常生活。在这背景下,确保人工智能系统的安全性和可靠性显得尤为重要。当前的人工智能普遍存在鲁棒性不足,容易受到欺骗和误导,为其大规模应用和部署带来安全隐患。本报告将重点探讨深度学习算法安全中的挑战,从对抗鲁棒的基本原理出发,详细介绍基于对抗攻击的深度学习模型风险识别方法,尤其是面向GPT4等多模态大模型的黑盒对抗攻防问题。同时,报告将阐述在此基础上发展的鲁棒深度学习算法,讨论如何利用扩散模型等预训练方法提升模型的安全性和可靠性方法。
吴保元
香港中文大学(深圳)数据科学学院副教授,助理院长(科研)
简介:吴保元博士现任香港中文大学(深圳)数据科学学院终身副教授和助理院长(科研)、深圳市模式分析与感知计算重点实验室(筹)副主任、龙岗区智能数字经济安全重点实验室主任。其研究方向包括可信人工智能、机器学习和计算机视觉,在人工智能的顶级期刊和会议上发表论文90余篇,并曾入选人工智能顶级会议CVPR 2019最佳论文候选名单。其担任人工智能领域国际期刊Neurocomputing编委、第五届中国模式识别与计算机视觉大会PRCV 2022组委会主席、国际会议CVPR 2024、NeurIPS 2022/2023/2024、NeurIPS Datasets and Benchmarks Track 2023/2024、ICLR 2022/2023/2024/2025、ICML 2023/2024、AAAI 2022/2024/2025领域主席、中国自动化学会模式识别与机器智能专委会副秘书长,入选斯坦福大学“全球前2%顶尖科学家”2021、2022年度榜单。作为项目负责人承担广东省自然科学基金杰出青年项目1项,科技部重点研发计划重点专项课题1项,国家自然科学基金面上项目1项, 深圳市优秀科技创新人才优秀青年基础研究项目1项,CCF-腾讯犀牛鸟基金1项,CCF-海康威视斑头雁基金1项,CAAI-华为MindSpore学术奖励基金1项,腾讯犀牛鸟研究专项基金2项。
报告题目:基于多模态大模型的可解释深度伪造检测
报告摘要:随着生成式人工智能技术的快速发展,深度伪造(DeepFake)检测已成为一项重大挑战。传统检测方法虽然能够判断内容真假,但往往缺乏解释性,导致模型在实际应用中的可信度不足。为了充分发挥多模态大模型在DeepFake检测中的潜力,我们首先对不同提示(prompt)在GPT-4和Gemini等多模态大模型上的表现进行了评测。结果显示,这些大模型在某些方面表现出色,但也存在一定的局限性。基于这些评测结果,借鉴取长补短的思想,我们设计了一套新框架,不仅强化了模型的优势,还有效弥补了其短板。同时,该框架具备良好的可扩展性,并在确保解释性的前提下,检测性能也达到了SOTA水平。更多详细信息可参见 (https://arxiv.org/abs/2410.06126)。
周文柏
中国科学技术大学副教授
简介:周文柏,中国科大“墨子杰出青年”,微软“铸星计划”访问学者。主要研究兴趣包括信息隐藏和人工智能安全,发表安全领域四大顶会CCS、IEEE TPAMI、CVPR等高水平论文四十余篇。获中央军委某部主办的“众智2022”创新应用大赛获得第一名,参与Facebook发起的全球最权威深伪检测挑战赛DFDC,获全球第二,奖金30万美元,入选2014年以来中国人工智能安全领域8项代表性成果,主导研发全球最具影响力深伪工具DeepFaceLab,与OpenAI研发的GPT2共同入选2020年十大Github开源项目,主导研发“合成现实数字人钱学森”,获中央电视台、新华网、人民日报等主流媒体专访报道。主持某工程重点项目、国家自然科学基金、国家重点研发计划课题等项目。获国家授权发明专利4项,担任TPAMI、IJCV、CVPR等多个期刊会议的组委会成员与审稿人。
报告题目:生成式人工智能安全与新质数字资产
报告摘要:生成式人工智能技术(AIGC)是新质生产力技术中最具代表性的技术之一。AIGC技术的快速发展带来了潜在的安全问题,尤其是对人脸等生物属性的模仿合成导致认知威胁、电信诈骗等国家安全与公共安全威胁,因此生成式人工智能安全问题亟待关注与解决。另一方面,AIGC技术具有巨大的应用潜力,可以用于新质数字资产的构建,不同于传统“数字资产”将有型的实物数字化,新质“数字资产”以“合成现实技术”为核心,将真实世界的不可再生资产(如历史人物、文学著作角色等)数字化、再生化,在文化力传播、科学精神传播、IP资产保护与利用等方面产生巨大价值。本报告将以AIGC与新质数字资产为主题,简述生成式人工智能的安全风险与合成现实技术的发展及应用。
余梓彤
大湾区大学助理教授研究员
简介:余梓彤,大湾区大学信息科学技术学院助理教授,研究员,博导,IEEE高级会员。研究方向为可信媒体计算和以人为中心的计算机视觉。以第一/通信作者发表CCF-A类顶刊顶会论文17篇(含2篇一作TPAMI和2篇一作IJCV),以通信作者发表1篇Cell子刊Patterns,发表论文谷歌总引用4567次,h-index 30,带领团队获3项国际学术竞赛冠亚军。担任国际期刊Frontiers in Artificial Intelligence编委,曾担任ICME 2023、BMVC 2024、IJCB 2024领域主席。获IEEE芬兰最佳学生会议论文奖,ICME 2024最佳论文候选,IEEE芬兰信号处理/电路与系统社区最佳论文奖亚军,国家优秀海外自费留学生奖,入选斯坦福2023世界前2%顶尖科学家榜单,指导学生获IAPR最佳学生论文奖。
报告题目:多模态大模型幻觉与鲁棒的一些思考
报告摘要:随着人工智能的发展,多模态大模型的鲁棒性和安全性逐渐成为影响用户体验与使用的关键议题。幻觉现象,即模型输出与输入不一致的问题,和面向人眼难以察觉对抗攻击的鲁棒性,已然成为研究重点。本报告将探索关于图文多模态大模型的幻觉现象与对抗鲁棒特性的关系,并对视听多模态大模型的幻觉现象进行思考总结。
金哲
安徽大学教授
简介:教授,博士、入选安徽省“百人计划”。作为玛丽居里学者在意大利萨萨里大学、奥地利萨尔斯堡大学从事生物特征保护和加密方向的研究。目前主要从事可信人工智能、计算机视觉、模式识别及多媒体安全等方面的研究。主持国家自然科学基金面上项目、安徽省自然科学基金面上项目等省部级课题和马来西亚教育部等多项海外科研项目等。已发表高水平期刊和会议学术论文70余篇,包括IEEE、ACM会刊及CCF推荐A类国际会议。
万军
中国科学院自动化研究所研究员
简介:万军,多模态人工智能系统全国重点实验室研究员,北京市杰青,科技部“战略性科技创新合作”重点专项项目负责人,中国科学院国合重点项目负责人,IEEE Senior Member,Chalearn理事会成员。从事智能视频分析与交互技术研究,发表学术论著90余篇(一作/通讯PAMI4篇,最佳论文奖2篇)。受IEEE TPAMI前主编、多伦多大学Sven Dickinson 教授邀请以第一作者撰写首部多模态人脸防伪专著。担任顶级刊物IEEE TPAMI和IJCV客座编辑、CCF A类信息安全刊物IEEE TIFS编委、IET Biometrics编委和ICME /FG/ICPR领域主席。以Chair身份在CVPR (2019、2020、2023、2024),ICCV 2021上举办人脸防伪赛事,吸引超1600 支国内外队伍参赛,获国内外广泛关注。获得2022年度中国图象图形学学会自然科学奖二等奖(第一完成人),第十三届北京青年优秀科技论文一等奖,国内外竞赛冠亚军8项。
李岳尊
中国海洋大学讲师
简介:李岳尊,中国海洋大学,硕士生导师。本硕毕业于山东大学,博士毕业于美国纽约州立大学奥尔巴尼分校,师从IEEE Fellow Siwei Lyu教授。曾在美国州立大学布法罗分校担任高级研究科学家。主要研究方向为计算机视觉安全与分析,近年来专注于深度伪造检测与防御,研究成果发表于CVPR、ICCV、ECCV、TIFS、TNNLS、TCSVT、PR等国际顶级会议和期刊,谷歌学术引用6000余次,多篇论文的单篇学术引用超过1000次(CVPR20,CVPRW19,ICASSP19,WIFS18),其中WIFS18曾被CCTV13《世界周刊深度伪造专题》报道。担任TPAMI、TIP、IJCV、TIFS、ICCV、CVPR、AAAI、NeurIPS、ICLR等多个国际顶级期刊和会议的审稿人。主持国家自然科学青年基金、博士后站前特别资助项目、博士后面上项目、中央高校基本科研业务费、青岛市博士后项目等多个项目。
声纹识别论坛
声纹识别论坛将聚焦当前声纹识别与语音鉴伪的前沿技术,探讨其在复杂场景中的应用及安全防护需求。随着声纹识别广泛应用于身份验证、智能交互、金融安全等领域,如何确保其在面对合成语音攻击时的鲁棒性和可靠性成为关键挑战。本次论坛将从基于大语言模型的语音细粒度理解与精细可控生成及克隆、面向复杂场景的深度合成语音鉴别、大规模高精度可解释的声纹识别、鲁棒声纹识别的对抗防御、面向话者隐私保护的语音匿名化方法研究等几个角度深入分析这些技术的创新与应用。通过探讨这些领域的最新技术与应用,将这些技术创新和社会需求的结合,本论坛将为提高声纹识别技术的安全性、准确性和隐私保护提供新的思路,推动其在各个领域的广泛应用和社会数字信任体系的构建。
吴志勇
清华大学深圳国际研究生院副研究员
简介:吴志勇,清华大学深圳国际研究生院副研究员、博士生导师,中国计算机学会CCF语音对话与听觉专委副秘书长。研究兴趣为智能语音交互技术,曾获教育部、北京市、深圳市科技进步等奖励。获2023年度ICASSP语音信号质量增强挑战赛冠军、ICASSP Top 3%论文、中国多媒体大会最佳论文、INTERSPEECH最佳学生论文、CVPR Highlight论文等。获深圳市教学成果奖、清华大学良师益友荣誉称号、CCF语音对话与听觉专委卓越服务者奖励。
报告题目:基于大语言模型的语音细粒度理解与精细可控生成及克隆
报告摘要:语音是人类交互最自然和直接的方式,其不仅承载语义内容,更蕴含各种言外之意,如说话人音色、年龄、身份;音高、语速、能量等韵律特性;情感、态度、场景等副语言信息,给多模态大模型的构建带来重大挑战。本报告将探讨基于大语言模型的语音细粒度理解与精细可控生成方法,旨在通过更准确的语音理解和更精确的可控生成,构建基于人工指令的精细可控的表现力语音生成大模型,为实现和谐自然的多模态交互提供新的解决方案。
易江燕
中国科学院自动化研究所副研究员
简介:易江燕,中国科学院自动化所多模态人工智能系统全国重点实验室副研究员、博士生导师、国家优青。曾在阿里巴巴iDST(达摩院)工作,主要研究方向为语音信息安全,研究成果于2022年获中国人工智能学会吴文俊人工智能技术发明特等奖、2023年获北京市发明专利奖一等奖、2024年获中国发明协会成果奖一等奖。主持国家自然科学基金、科技部重大项目和国际合作项目等10余项,在IEEE TASLP、AI、PR、ICML、AAAI、ACM MM和ICASSP等重要国际期刊和会议上发表论文80余篇,已授权发明专利57项(含美国发明专利9项)。多次担任语音领域重要国际会议Interspeech和ICASSP的领域主席与分会主席,担任国内外重要会议出版主席和学生论坛主席,在国际重要会议上发起了“深度合成音频鉴别”国际挑战赛ADD。
报告题目:面向复杂场景的深度合成语音鉴别
报告摘要:ChatGPT、GPT-4、GPT-4o和GPT o1 等大模型的迭代问世,显著改善了人类生活,但被恶意利用的AIGC技术也给社会和人类带来巨大危害。故此,深度合成语音鉴别技术受到越来越多的关注,尽管研究者做了大量有益的尝试,大多工作聚焦于在特定环境下的语音鉴别。但是,在复杂场景下,面对强干扰音频,比如人工模仿、局部篡改等生成痕迹微弱的语音,已有鉴别技术并不适用,因此本报告拟针对语音鉴别模型难以应对强干扰音频的难题,着重介绍提升鉴别模型鲁棒性的解决思路和方法,以及探讨对鉴别结果进行溯源分析的思路和尝试,并展望未来潜在的研究重点。
何亮
清华大学和新疆大学教授
简介:何亮,教授、博士生导师,清华大学援疆干部,新疆大学智能与科学技术学院院长兼计算机科学与技术学院常务副院长。研究领域:语音处理、知识图谱。主持6项国家级项目,科研成果在国家重要部门与地区部署。与华为、淘宝和腾讯等知名公司合作。多次参加国际权威评测(NIST SRE、LRE和OpenKWS等),技术指标多次名列国际前列。发表学术论文100余篇,授权国家发明专利8项。担任中文信息学会开源情报技术专委会秘书长等。全国高校黄大年式教师团队成员。ICASSP、Interspeech、ICME、Odyssey等国际会议程序委员会主席、领域主席和分会主席等,联合发起全国声纹识别技术与应用研讨会。
报告题目:自监督和噪声鲁棒的声纹识别系统研究
报告摘要:声纹识别作为生物特征识别领域的一个重要分支,其应用范围日益广泛。然而,传统的声纹识别系统面临着数据标注成本高昂、模型对未知环境适应能力差等问题。为此,我们展开了两阶段自监督说话人识别系统的研究,重点关注第二阶段的噪声伪标签清理过程,降低了对标注数据的依赖。此外,为了提高说话人模型在噪声环境下的鲁棒性,我们采用基于稳定学习的域泛化策略,使得模型能够在噪声环境下保持较高的识别精度。
张晓雷
西北工业大学教授
简介:张晓雷,西北工业大学教授,博导。入选国家与省部级青年人才计划。从事智能语音处理,机器学习,人工智能的研究工作。在IEEE TPAMI、IEEE TCYB、IEEE/ACM TASLP等期刊、会议发表论文100余篇。出版专著2部、译著1部。申请发明专利30余项。承担省部级以上项目10余项。获得国际神经网络学会Neural Networks最佳论文、亚太信号与信息处理学会杰出讲者、中国造船工程学会创新团队、北京市科学技术一等奖、陕西省高等学校优秀科学研究成果一等奖等。研究成果在国内电信运营商等企业的服务与产品中成功应用。目前担任Neural Networks、IEEE/ACM TASLP、IEEE SPL等多个国际期刊的编委、IEEE信号处理学会语音语言技术委员会委员、中国中文信息学会语音信息专委会副主任委员等。
报告题目:鲁棒声纹识别的对抗防御
报告摘要:生物特征识别是信息安全领域的一种重要方式。人的声纹识别(也称作说话人识别)作为生物特征的一种形式,具有非接触性特点,在国安、金融等领域有广泛应用。现代声纹识别模型以深度神经网络为主,对恶意攻击的扰动噪声敏感,造成了模型的脆弱性及安全隐患,对此,亟待开展面向恶意扰动攻击的鲁棒声纹识别对抗防御研究。本报告将在分析白盒攻击、黑盒迁移攻击、组合攻击、后门攻击等攻击方法基础上,介绍近年来的白盒和黑盒声纹对抗防御方法,包括对抗样本检测、纯化、鲁棒模型训练等,并简要探讨未来的发展方向。
凌震华
中国科学技术大学教授
简介:凌震华,中国科学技术大学信息学院教授、博士生导师,语音及语言信息处理国家工程研究中心副主任,入选教育部CJ学者校企联聘学者。主要从事语音信号处理、自然语言处理等方向的研究。主持多项国家自然科学基金、国家重点研发计划课题、安徽省语音专项等科研项目,已发表论文200 余篇,累计被引1万余次,获国家科技进步奖、IEEE信号处理学会最佳青年作者论文奖等奖项,多次在国际语音语言技术评测中获得第一名。任IEEE/ACM TASLP等期刊编委、IEEE信号处理学会语音与语言处理技术委员会委员、中国计算机学会语音听觉与对话专委会秘书长、全国人机语音通讯学术会议常设机构委员会委员。
报告题目:面向话者隐私保护的语音匿名化方法研究
报告摘要:近年来,随着话者识别和语音伪造等技术的快速进步,语音中话者信息被恶意利用的威胁逐渐加剧,话者隐私保护需求日益凸显,为此,我们展开语音匿名化方法的研究。具体地,针对匿名化语音与原语音在机器和主观感知之间的一致性,分别研究同步和异步语音匿名化方法。其中,同步语音匿名化通过将原话者替换为伪话者获得被机器和主观听感一致感知为伪话者的匿名化语音,本研究以提高原话者隐藏能力和伪话者独特性为目标,开展基于伪话者不确定性建模的语音匿名化方法研究。在异步语音匿名化中,分别以语音和话者表征为对象,探索基于话者对抗扰动的匿名化语音生成方法,实现在模糊原语音中话者身份信息机器感知的同时,保留原话者的主观感知。
陶建华
清华大学教授
简介:陶建华,清华大学教授,国家杰青获得者,国家级领军人才,科技部信息光子领域专家,长期从事智能信息融合与处理、语音处理、情感计算、大数据分析等方向。先后负责和参与国家级项目40余项,在国内外主要期刊发表具有国际影响力的论文400余篇,已授权中国发明专利125项、美国发明专利19项,并完成多项国家和国际标准,研究成果获中国人工智能学会吴文俊技术发明特等奖、中国电子学会技术发明奖一等奖、中国电子学会技术进步奖一等奖,及多次获得国家国内学术会议及竞赛优胜奖。
张超
清华大学助理教授
简介:张超,清华大学电子工程系助理教授,博士生导师,伦敦大学学院脑科学部荣誉副教授,研究方向为多模态语音语言处理技术和计算认知神经科学。张超于2009和2012年在清华大学计算机系获得本科和硕士学位,2017年在剑桥大学工程系获博士学位。博士毕业后曾任剑桥大学副研究员、京东AI顾问和语音组联合负责人、Google公司高级研究科学家等职务。还发表了90多篇同行评议的会议和期刊论文,其中包括ICASSP、ASRU、SLT和Interspeech等语音领域旗舰级会议的最佳学生论文奖。还担任剑桥大学工程系客座研究员、中国中文信息学会语音信息专委会副秘书长等学术兼职。入选国家高层次人才计划青年项目。
范存航
安徽大学副教授
简介:范存航,安徽大学计算机科学与技术学院副教授,入选安徽省优青人才项目,曾获安徽省计算机学会优秀青年科学家奖。主持国家自然科学基金、国家重点研发计划子课题等国家/省部级项目6项。近5年,以第一或通讯作者在TPAMI、TASLP、TAFFC、ACM MM、IJCAI和AAAI等国际顶级期刊和会议上发表论文30余篇。曾获安徽省科技进步三等奖、中国人工智能学会教学激励计划一类成果、安徽省教学成果二等奖等。多次获国内外学术会议的最佳论文奖,指导学生获得国际多模态情感计算挑战赛(MuSe-Mimic)第一名和挑战杯黑科技赛道特等奖(星系级)等。
视觉基础模型论坛
“视觉基础模型论坛”聚焦于当前人工智能领域的前沿课题,探讨如何通过深度学习技术从海量图像和视频数据中有效提取特征,以解决图像分类、目标检测、动作识别等关键问题。视觉基础模型凭借其强大的泛化能力,已经广泛应用于医疗、教育、金融等多个领域,成为推动行业变革的重要技术驱动力。此次论坛汇集了来自不同领域的顶尖专家、学者和研究人员,共同探讨视觉基础模型的最新进展和应用前景。本论坛从图像与视频数据的复原、理解到生成的多个核心方向,深入解析视觉基础模型的技术挑战和创新机遇。本论坛旨在通过跨领域的交流与合作,推动视觉基础模型在实际应用中的突破,助力人工智能技术的进一步发展。期待通过此次思想碰撞,为行业带来新思路,推动视觉基础模型在未来实现更深层次的变革与创新。
左旺孟
哈尔滨工业大学教授
简介:左旺孟,哈尔滨工业大学计算机学院教授、博士生导师。主要从事底层视觉、视觉生成、视觉理解和多模态学习等方面的研究。在CVPR/ ICCV/ECCV/NeurIPS/ICLR等顶级会议和T-PAMI、IJCV及IEEE Trans.等期刊上发表论文200余篇,谷歌学术引用60,000余次。曾任ICCV、CVPR等CCF-A类会议领域主席,现任IEEE T-PAMI、T-IP、中国科学-信息科学、自动化学报等期刊编委。
报告题目:工业视觉缺陷检测大模型及黑盒调优算法
报告摘要:视觉缺陷检测是工业制造的重要组成部分,由于产品种类繁多,制造工艺复杂,缺陷多样,通常的视觉模型往往难以适应新产品、新制程和新缺陷的变化。考虑到视觉-语言大模型在通用视觉任务中强大的语言和视觉理解能力,我们提出了一个工业视觉缺陷检测大模型,通过引入视觉专家模块和利用语言大模型改善缺陷检测的泛化能力和适应性。另一方面,随着语言大模型和多模态大模型的持续发展,当前的多数商用基础模型如ChatGPT和Gemini已不再开源模型结构与代码。为此,报告还将关注黑盒大模型的微调,使之更适用于特定的下游任务,以及如何利用黑盒大模型的推理与求解能力,更好地求解视觉学习中的优化问题。
赵洲
浙江大学教授
简介:浙江大学计算机学院教授、博士生导师。主要研究方向为多媒体计算和交互式生成模型,在国际期刊TPAMI和机器学习和视觉计算会议NeurIPS、ICML、ICLR、CVPR和ICCV等发表60余篇论文,包括:低延时伪数值扩散模型推理算法PNDM(ICLR22)、并行化语音生成算法FastSpeech 1/2和DiffSinger(NeurIPS19/ICLR21/AAAI22)、单图三维重构算法GeneFace(ICLR23/ICLR24)和零样本语音合成MegaTTS(ICLR24)等,谷歌学术引用近1.3万次,应用于微软、字节、Stability AI、华为等公司,获2021年度中国电子学会科技进步一等奖、2022年度教育部科技进步一等奖,入选斯坦福大学发布的“全球前2%顶尖科学家榜单”。
报告题目:跨模态内容理解与生成
报告摘要:多模态理解融合文本、图像和音频等输入以深化场景理解,通过特征提取、对齐和整合实现。多模态生成则基于此理解创建协调的跨模态输出。传统的多模态对齐方法主要通过对比学习在大型配对数据集上进行预训练,这不仅耗费巨大的计算资源,而且依赖于模态配对数据。我们的研究方法颠覆了这一模式,仅通过引入一个轻量级映射层,我们能在不解冻预训练模型编码器的情况下实现高效的微调,将多种预训练模型的知识融合,在不依赖配对数据的情况下扩展任意两两模态间的对齐,极大的拓展了下游多模态任务的使用场景。在多模态对齐的基础上,我们提升了多模态生成能力,通过音视频模态对齐、非自回归特征估计和特征融合技术实现同步生成。此外,使用扩散模型在对齐空间中从动作创造音乐,为多模态内容的理解与创作开辟了新途径。
王利民
南京大学教授
简介:王利民,南京大学教授,博士生导师,国家海外高层次青年人才计划入选者,科技创新2030-“新一代人工智能”重大项目青年科学家。2011年在南京大学获得学士学位,2015年在香港中文获得博士学位,2015年至2018年在苏黎世联邦理工学院(ETH Zurich)从事博士后研究工作。主要研究领域为计算机视觉和深度学习,专注视频理解和动作识别,在IJCV、T-PAMI、CVPR、ICCV、NeurIPS等学术期刊和会议发表论文100余篇。根据Google Scholar统计,论文被引用 23000余次,两篇一作论文取得了单篇引用接近或超过4000的学术影响力。在视频分析领域做出了一系列有重要影响力的研究工作,例如:TSN网络架构,VideoMAE预训练方法,MixFormer跟踪器等。曾获得广东省技术发明一等奖,世界人工智能大会青年优秀论文奖,ACM MM 2023最佳论文荣誉提名奖。入选2022年度AI 2000人工智能全球最具影响力学者榜单,2022年度全球华人AI青年学者榜单,2021-2023年度爱思唯尔中国高被引学者榜单。担任CVPR/ICCV/NeurIPS等重要国际会议的领域主席和计算机视觉领域旗舰期刊IJCV的编委。
报告题目:多模态视频理解大模型InternVideo
报告题目:构建多模态基础模型已经成为计算机视觉领域的研究热点。视频理解面临着数据维度高、信息容量大、场景变化多等核心挑战,如何构建通用视频理解基础模型已经成为现阶段一项极具挑战的任务。本次报告将主要介绍多模态视频理解基础模InternVideo及其背后的关键技术,包括单模态视频自监督预训练方法VideoMAE, 多模态视频弱监督预训练方法UMT和多模态视频交互对话模型VideoChat。同时还将介绍多模态视频数据集InternVid和多模态视频评测基准MVBench。最后将展望多模态视频基础模型发展趋势。
吴祖煊
复旦大学副教授
简介:复旦大学计算机科学技术学院副教授、博士生导师,入选国家级青年人才计划。2020年在美国马里兰大学获得博士学位。主要研究方向为计算机视觉与深度学习,近年来发表TPAMI、IJCV、ACM/IEEE汇刊、CVPR、NeurIPS等中国计算机学会A类国际期刊、会议长文五十余篇,谷歌学术引用7000余次。曾获2022年教育部自然科学奖一等奖、2022年AI 2000多媒体领域最具影响力学者等奖项。主持国家自然科学基金青年基金、科技创新2030“新一代人工智能”重大项目子课题以及来自华为等知名企业的多项科研项目。担任CVPR、NeurIPS等多个国际顶级学术会议领域主席或高级程序委员会委员。
报告题目:视频内容理解与生成
报告摘要:随着电子设备和互联网技术的不断普及和成熟,视频正逐渐成为用户更加偏好的内容传播方式。在视频总体数量急剧上升的背景下,如何高效识别视频中的动作、事件,实现对视频内容的自动理解对视频推荐、视频检索、智能安防等应用有着重要的意义。此外,高效的视频理解技术对于实现高质量的视频内容生成具有重要意义。本报告聚焦高效视频内容理解与生成,主要内容包括两个方面:(1)针对内容理解,探讨视频的高效表征学习;(2)针对内容生成,探讨基于扩散模型的视频生成与编辑。
李翔
南开大学副教授
简介:李翔,南开大学计算机学院副教授,博导,主持国自然青基,入选博新计划、南开百青,获CCF优博提名,吴文俊优青。在SCI一区/CCF A类刊物上发表40余篇学术论文,谷歌学术总引用14000余次。所提出的GFL目标检测算法成为最新YOLO系列标准配置(如YOLOv8/9/11)。合作提出的PVT模型入选ICCV21 Top-10最具影响力工作;PVTv2获CVMJ 2022年度最佳论文提名奖。担任Image and Vision Computing期刊编委。带领团队取得阿里巴巴天池首届大数据竞赛冠军(1/7186队伍)、滴滴研究院首届大数据竞赛冠军(1/7664队伍),粤港澳首届算法算例大赛(遥感目标检测赛道)亚军(2/116队伍),其中阿里竞赛相关成果被央视科教频道《走近科学》专集报道。
报告题目:遥感视觉基础模型
报告摘要:遥感目标检测技术在国防安全、环境监测、灾害预防等领域具有重要意义。其中,遥感目标检测是支撑诸多应用的视觉基础技术,近年来也受到了广泛的关注。本报告将介绍课题组近年来在遥感目标检测方向上的网络架构、数据集的相关工作,以及参与遥感类算法竞赛获奖及承办遥感类比赛情况。
潘金山
南京理工大学教授
简介:潘金山,南京理工大学计算机科学与工程学院教授、博士生导师。主要从事图像视频复原与增强等相关底层视觉问题的研究。目前在国际权威期刊和会议上发表论文100余篇。所发表论文在Google Scholar中被引用15000余次。研究工作获得2018年度中国人工智能学会优秀博士学位论文奖、辽宁省优秀博士学位论文奖以及2019年度国家优秀青年科学基金资助。担任IEEE TPAMI、CVIU等期刊的编委以及CVPR、ECCV、NeurIPS、ICML、ICLR等国际会议的领域主席。目前主持国家自然科学基金委-联合基金重点项目、面上项目等国家级科研项目。
丁恒辉
复旦大学青年研究员
简介:丁恒辉,复旦大学青年研究员、博导、入选国家海外高层次青年人才计划、上海市海外高层次青年人才计划。2016年于西安交通大学获学士学位,2020年于新加坡南洋理工大学获博士学位。曾在南洋理工大学和苏黎世联邦理工学院任博士后研究员。主要从事计算机视觉、多模态、场景理解、图像和视频分割等研究。过去6年内共发表论文70多篇,包括50多篇CCF-A类论文和 10多篇CCF-B类论文。担任IET Computer Vision期刊编委、Visual Intelligence期刊编委,担任多个CCF-A类国际顶级会议的领域主席,如CVPR、NeurIPS、ACM MM等,担任多个CCF-A类国际顶级会议的资深程序委员会委员,如AAAI、IJCAI等。担任上海市计算机学会副秘书长。
严锐
南京大学助理研究员
简介:严锐,南京大学助理研究员、毓秀青年学者。主要从事人体行为分析、视频内容理解方面的研究,发表CCF A类和IEEE/ACM Trans.论文30余篇,其中3篇论文入选ESI高被引/热点论文。主持国家自然科学基金面上项目、青年项目、中国博士后科学基金“特别资助”和“面上资助”项目等。入选2024年江苏省科协青年人才托举工程、2024年南京理工大学优秀博士学位论文、国家资助博士后、江苏省卓越博士后。
面部生物特征识别论坛
面部生物特征识别论坛是一个专注于面部识别技术及其应用的学术交流平台。在本次论坛中,我们将深入探讨微表情分析、人脸分析的不确定性量化、低质图像增强技术,以及眼部生物特征识别等关键议题。专家们将展示如何运用深度学习技术,在非约束环境下进行人脸分析、情感揭示、血缘识别、虹膜检测以及不确定性评估。论坛的目标是激发技术创新,推动面部识别技术在安全监控、医疗诊断等多个领域的进一步应用。
徐迈
北京航空航天大学教授、博导
简介:徐迈,北京航空航天大学电子信息工程学院副院长,教育部长江学者特聘教授。主要研究方向为图像处理、人工智能及其在多媒体、生物医学上的应用。在IJCV、IEEE TPAMI、TMI、TIP等权威期刊和会议上发表论文百余篇。主持国家自然科学基金首批原创探索、重点、优青等项目。曾获教育部技术发明一等奖(序1)、北京市自然科学一等奖(序1)、吴文俊人工智能自然科学一等奖(序1)、中国科协求是杰出青年成果转化奖,北京市优秀博士论文指导教师等荣誉。
报告题目:基于Transformer的失真自适应人脸质量评价方法
报告摘要:近年来,伴随着移动互联网的迅速发展,人脸图像/视频在多媒体网络业务中得到广泛应用,然而受到采集环境和传输带宽等限制,人脸存在多种失真和较大质量差异,这严重制约了人类对图像的准确理解和体验质量。该报告介绍了本课题组在质量评价方面的研究进展,从人脸质量评价研究的背景和现状出发,进而介绍主要研究内容,包括多失真场景下数据收集与分析、失真类型和人脸部位对图像质量的影响机理、基于Transformer的失真自适应质量评价方法,最后介绍质量评价对于改善用户体验和优化图像传输和存储的未来展望。
洪晓鹏
哈尔滨工业大学教授
简介:哈尔滨工业大学,教授,博导,IEEE资深会员。历任芬兰Oulu大学博士后、科研型副教授(Docent)和西安交通大学特聘研究员。已在顶级国际和国内刊物和国际会议上发表文章80余篇,2次获得领域内国际权威期刊和会议的优秀论文奖,5次带队获得国际评测冠军。作为负责人主持了国家重点研发计划课题、国家自然科学基金、芬兰信息学会博士后基金等10余个项目。相关工作见诸美国《麻省理工技术评论》等技术媒体专文报道。中国图像与图形学学会情感计算与理解专业委员会副秘书长,黑龙江省计算机学会学术工作委员会副主任、奖励工作委员会秘书长。目前的研究领域包括:智能目标感知与深度连续学习、多机策略分配与协同等。
报告题目:智能微表情分析现状、挑战与趋势
报告摘要:微表情是一种持续时间非常简短的自发人类脸部表情,往往反映了人们希望隐藏的真实情感所以不容易假冒。因此自动检测并识别这些转瞬即逝的信息在安防、医疗、商业等许多领域都具有广泛的应用前景。本次报告将简要汇报在微表情视频预处理、微表情检测、微表情识别等方面的的主要工作,总结近期基于深度学习的智能微表情分析的最新进展,并对未来发展趋势进行探讨。
周修庄
北京邮电大学智能工程与自动化学院教授
简介:周修庄,北京邮电大学智能工程与自动化学院教授、博士生导师。博士毕业于北京理工大学计算机学院,研究领域包括计算机视觉、模式识别和医疗AI。发表包括TPAMI、TIFS、TAC、CVPR、MICCAI在内的期刊和会议论文60多篇,指导研究生获得CVPR、ICCV、ECCV等顶会挑战赛冠军5项,主持国家自然科学基金面上、北京市自然科学基金等项目十余项,相关技术成果在健康体检行业领军企业得到应用,产生显著效益。担任CCF计算机视觉专委会执行委员、CCF多媒体专委会执行委员、国际期刊《Neurocomputing》编委。
报告题目:人脸分析的不确定性量化
报告摘要:近年来,基于深度学习的人脸分析在预测精度方面取得了显著进展,然而单凭精度性能并不足以支撑高风险场景下的可靠决策,尤其考虑到现代深度网络往往产生过高信度的预测结果。预测不确定性的有效建模和精确量化是实现可靠和可信决策的关键技术环节,本次报告将围绕人脸分析的不确定性表示、不确定量化、不确定性校准等技术层面,介绍课题组在人脸血缘关系识别和人脸抑郁情感分析方面的研究工作,探讨其技术发展趋势。
高广谓
南京邮电大学教授
简介:南京邮电大学教授,硕士生导师。2014年获得南京理工大学国家重点学科模式识别与智能系统专业博士学位。研究方向为高效低复杂度特征表示学习。主持结题国家自然科学基金项目2项(青年和面上)、江苏省自然科学基金项目2项(青年和优青)、江苏省“六大人才高峰”高层次人才项目1项,参与国家自然科学基金重点项目、科技创新2030-“新一代人工智能”重大项目各1项。近年来在国际权威期刊IEEE TIP/TMM/TCSVT/TIFS/TITS、PR以及权威会议AAAI、IJCAI发表论文70余篇(Google Scholar总引用2400余次)。曾获江苏省科学技术奖一等奖(7/11)。现为IEEE/CCF/CSIG 高级会员,CCF-CV/CAAI-PR/CAA-PRMI/CSIG-MV专委会委员,江苏省自动化学会青工委委员,中国图象图形学学会青工委委员,VALSE 执行AC。
报告题目:低质人脸图像增强与感知
报告摘要:在人脸识别和图像处理领域,低质人脸图像的增强与感知技术具有重要意义。由于采集条件差异、传输过程中的压缩失真以及环境噪声等原因,获取的人脸图像常常存在分辨率低、噪声高、细节缺失等问题。这些低质图像直接影响人脸识别算法的准确性和鲁棒性。本报告将介绍课题组近年来围绕低质人脸图像的增强与感知开展的研究,重点围绕模型的精度、速度等方面,提升模型的感知泛化能力。此外,本报告还将探讨针对开放动态非受限场景下的人脸图像增强与感知问题,提升模型在复杂场景下的稳健性和感知能力。
王财勇
北京建筑大学讲师
简介:王财勇,北京建筑大学电气与信息工程学院讲师,硕士生导师,主要研究方向为生物特征识别、计算机视觉、模式识别等。2020年毕业于中国科学院自动化研究所模式识别国家重点实验室,获得工学博士学位。近年来主持国家自然科学基金青年基金项目1项和北京市自然科学基金面上项目1项,入选北京建筑大学金字塔人才培养工程“建大英才”和北京市科协青年人才托举工程。目前在IEEE TIFS/TBIOM、自动化学报、计算机辅助设计与图形学学报和ICB、IJCB、ICASSP等国际国内主流学术期刊和会议上发表论文30余篇,其中1篇论文获第12届IAPR国际生物特征识别大会(ICB 2019)最佳论文提名奖,1篇论文获第7届国际生物特征识别联合会议(IJCB 2023)最佳学生论文奖,授权国家发明专利3项。担任SCI期刊CMC-Computers, Materials & Continua青年编委。
报告题目:眼部生物特征识别的进展与展望
报告摘要:虹膜识别技术因其唯一性、稳定性、非接触性、防伪性等特性,被认为是最具有潜力的生物特征识别技术,可作为万物互联时代的身份入口。然而当虹膜识别技术逐步放松对成像和用户的双重限制,应用在远距离、行进中、移动端、可见光、VR/AR等非约束的场景时,识别性能与安全性方面均会带来一些挑战。本次报告将从虹膜图像获取设备及数据库、虹膜分割和定位、虹膜识别、虹膜生成与活体检测以及多种眼部特征(虹膜、巩膜、眼周等)融合等方面介绍以虹膜为主体的眼部生物特征识别的最新进展,并对未来发展趋势进行展望。
孙哲南
中国科学院自动化研究所研究员
简介:中国科学院自动化研究所、多模态人工智能系统全国重点实验室研究员和博士生导师、中国科学院大学人工智能学院岗位教授、国际模式识别学会IAPR Fellow、中国人工智能学会模式识别专委会副主任、中国图象图形学学会机器视觉专委会副主任,国际期刊IEEE Transactions on Biometrics, Behavior, and Identity Science编委,主要研究方向人工智能、多模态人机交互,主持国家级科研项目10余项,发表国际期刊和会议论文300多篇,获得超过16000次Google学术引用和2000次SCI他引,H因子65,授权发明专利56项。科研成果获得国家技术发明二等奖、中国专利优秀奖、中国图象图形学学会自然科学一等奖、吴文俊人工智能科学技术进步奖、北京市科技进步二等奖,入选国家万人计划科技创新领军人才。
韩琥
中国科学院计算技术研究所研究员
简介:韩琥,中国科学院计算技术研究所研究员、博士生导师。2011年博士毕业于中科院计算所,之后分别在美国密歇根州立大学和谷歌从事生物特征识别研究工作,2015年回到中科院计算所工作。主要研究方向为计算机视觉、生物特征识别及医学视觉智能。在领域主流国际期刊与会议上发表学术论文100余篇,谷歌学术引用8000余次,H指数: 45。研究工作先后获得5项论文奖,包括1项IEEE信号处理学会的最佳论文奖(2020)和4项会议论文奖。受邀担任IEEE Trans. BIOM,Pattern Recognition,EURASIP等权威国际期刊的编委,及MICCAI2024, CVPR2024, MICCAI2023, FG2023,ECCV2022, ISBI2022, IJCAI2021,ICPR2020等权威国际会议的领域主席、Senior PC、Session主席;10余次在ICCV / CVPR / IJCAI / FG / WACV / PRCV等国内外重要会议上组织大会专题与学术论坛。
朱翔昱
中国科学院自动化研究所副研究员
简介:朱翔昱,中国科学院自动化研究所副研究员,从事生物特征识别及人工智能基础理论研究与应用。国际模式识别协会(IAPR)生物特征识别青年学者奖(YBIA)获得者(每两年从全球范围内评选40岁以下学者一名)。发表文章的Google Scholar总引用次数为9400余次。获得三次国际竞赛冠军以及四项最佳论文及提名奖。入选IEEE Senior Member、国际期刊IEEE Transactions on Information Forensics & Security(T-IFS, CCF:A类)副编,中国科学院青年创新促进会、北京科协青年人才托举工程、百度学术全球华人AI青年学者榜单(全球25人),受到腾讯犀牛鸟基金支持。获2021中国电子学会科技进步二等奖、中国图象图形学学会优秀博士论文提名奖。
会议注册
1►
注册时间及缴费标准
· 其他参会人员,请选择全额注册。
2►
注册方式
通过以下两种任何一种方式进行注册
2、注册链接:https://hy.mustedu.cn/public/?s=goods/index/id/4.html (点击文末左下方“阅读原文”,可进入)
3►
缴费方式
1、支付宝或线下转账汇款方式
线下转账汇款账户信息:
单位名称:马上科普教育科技(北京)有限公司
开户银行:中国建设银行股份有限公司北京学知支行
银行账号:11050110477000000051
2、付款时请务必附言备注:“CCBR2024+单位+姓名”,例如" CCBR2024+XX大学+张三"。
3、办理转账汇款后,需上传付款凭证截图。
4►
发票开具
1、会议发票由CCBR 2024会务公司:马上科普教育科技(北京)有限公司开具。
2、参会人员预定的酒店,由酒店开具发票。
5►
联系方式
1、注册缴费/发票:李超13439275509
2、mail: ccbr2024@163.com
女科学家论坛
本论坛旨在聚焦女性科技工作者的卓越贡献,分享她们在推动生物特征识别和数据安全领域创新发展的故事与经验。通过学术交流,我们将共同探讨如何在科技迅猛发展的新时代,充分发挥女性的独特视角与能力,激发合作潜力,推动生物识别应用的突破与进步。
鲍秉坤
南京邮电大学教授
简介:鲍秉坤,南京邮电大学计算机学院、软件学院、网络空间安全学院副院长(主持工作),国家杰出青年基金获得者、中组部万人计划-青年拔尖人才、江苏省杰青、江苏省双创人才。主要从事多媒体计算、计算机视觉、人工智能等方向研究。发表高水平论文120余篇。主持国家科技创新2030-人工智能重大专项、国自然重点项目、省重点研发计划等10余项。荣获2018年度电子学会科学技术一等奖、2019年度最佳论文Runner Up奖等多项学术奖励。担任国际期刊IEEE Trans. on Multimedia、IEEE Trans. on Circuits and Systems for Video Technology编委。
报告题目:跨模态图像生成
报告摘要:近年来跨模态图像生成在图像生成、图像编辑等任务中取得了广泛应用。尽管现有研究在生成图像的质量方面取得了一定的进步,但生成图片的速度较慢,且对硬件需求较高。这主要归因于当前预训练生成模型具有庞大的参数规模,生成过程高度复杂,每个生成步骤都需要进行大量计算,从而导致整个生成过程耗时相当长。这一缺陷使得模型训练成本极高,同时也提高了用户的硬件和时间成本。本报告将首先介绍近期跨模态图像生成任务的研究进展,从提高预训练GAN模型生成质量且保证生成速度的角度出发,介绍团队在文本生成图像任务的研究思路和研究成果,最后探讨如何使用大规模预训练多模态模型优化文本到图像生成任务。
景丽萍
北京交通大学教授
简介:景丽萍,北京交通大学教授、博导,现任计算机科学与技术学院副院长。担任中国计算机学会人工智能与模式识别专委会副主任,中国人工智能学会机器学习 / 粒计算与知识发现专委会常委,《中国科学》青年编委,入选国家级青年人才计划、教育部创新团队负责人、北京市课程思政教学名师、北京市海淀区人大代表、北京交通大学卓越百人、巾帼十杰、优秀教师等。先后主持国家自然基金优青项目/重点项目、科技部新一代人工智能重大专项、国防科技创新重点项目、北京市自然基金重点专项等。主要聚焦机器学习、认知计算理论、算法及应用研究,研究成果成功应用于智能交通、智能芯片、智能教育等领域,获得中国城市轨道交通科技进步奖。
报告题目:对抗样本生成与迁移性探索
报告摘要:计算机视觉技术在图像分类、目标分割和检测等任务中表现出色,但极易受对抗样本干扰,使其在安全性要求较高的关键领域如人脸安全、自动驾驶等难以推广应用。已有研究者通过实验探索发现模型的泛化性与生成对抗样本的迁移性有一定的关联。受此启发,我们提出了一种渐进正态性对抗样本生成方法,构建模型学习平坦子空间以及隐式集成策略,提高对抗样本生成所依赖模型的平滑性,增强对抗样本的迁移能力(无防御和有防御模型上均有效)。一系列实验充分验证相关方法的优越性。
张姗姗
南京理工大学教授
简介:张姗姗,南京理工大学计算机学院(人工智能学院)教授、博士生导师,国家优青、江苏省杰青获得者,研究方向为计算机视觉与模式识别。曾于2015年在德国波恩大学获得计算机博士学位,博士毕业后曾在德国马普计算机研究所担任博士后研究员。2018年入选中国科协“青年人才托举工程”、微软“铸星学者”计划等;2021年获得中国图象图形学学会石青云女科学家奖;2022-2023年连续入选爱思唯尔中国高被引学者;2024年获得CAAI-华为昇思MindSpore学术基金优秀项目奖励。目前担任模式识别权威期刊Pattern Recognition编委、CVPR领域主席、中国人工智能学会模式识别专委会副秘书长、江苏省“社会安全图像与视频理解”重点实验室副主任、VALSE常务领域主席。
报告题目:视觉行人搜索领域研究进展
报告摘要:基于视觉的行人搜索,旨在海量视频数据中对给定索引行人进行定位,可以看作是包含了行人检测与行人重识别的一个复合型任务,其在智能视频监控、自动驾驶及智能机器人领域有着广泛的应用价值。本次报告将介绍行人搜索领域的研究现状,以及我们课题组在高效协同行人搜索方面的研究工作,并且探讨大模型背景下该领域研究所面临的机遇与挑战。
李婧婷
中国科学院心理研究所副研究员
简介:李婧婷,中国科学院心理研究所副研究员,硕士生导师。获聘中国科学院心理研究所特聘骨干岗位,入选2023年中国科学院青年创新促进会成员。担任中国图象图形学学会女科技工作会委员、情感计算与理解专委会委员、机器视觉专委会委员,中国计算机学会计算机视觉专委委员、人机交互专委委员。主持国家自然面上、青基等科研项目,于IEEE TPAMI、TAC、TIP、ACMMM等国内外期刊、会议发表微表情相关论文多篇,两篇论文进入ESI高被引论文清单,获2023年北京市科学技术奖自然科学奖二等奖。主要研究方向包括计算机视觉、情感计算,特别是智能人脸微表情分析。
报告题目:生理、心理与智能:学科交叉下的智能微表情分析
报告摘要:微表情是非常重要的非语言交流线索,它可以揭示真实的情绪和个人的心理状态。作为谎言识别的重要线索之一,微表情的有效性甚至显著高于言语内容、语音、语调、身体姿势等其他线索,可以被广泛地应用于国家安全、司法实践、临床诊断、学生教育、卫生防疫等领域。目前,大数据驱动的深度学习已经在诸多领域获得成功,但是微表情机制不明确与小样本问题限制了基于深度学习的微表情分析。本报告首先基于面部肌电深入探究微表情表达过程中的面部肌肉运动模式,以期更全面地揭示微表情的本质。此外,通过心理学和计算机科学的学科交叉,进一步探讨多模态微表情检测与识别,推动智能微表情分析的落地应用。
胡珍珍
合肥工业大学副研究员
简介:胡珍珍,博士,副研究员,博士生导师。2014年博士毕业于合肥工业大学信息号与信息处理专业。2015-2017年在新加坡南洋理工大学从事博士后研究,2017年加入合肥工业大学计算机学院,主要研究方向为多媒体计算、计算机视觉、图像处理和模式识别。目前已在国际顶级期刊和会议上发表论文40余篇,主持国家自然科学基金面上项目一项,青年项目一项(已结题),参与国家自然科学基金重点项目一项。担任IEEE Trans. on Multimedia编委。CVPR,ICCV,ECCV,AAAI,IJCAI,ACM MM,TIP,TMM等多个会议和期刊审稿人。
报告题目:面向长视频跨模态理解的技术探索
报告摘要:随着大规模语言模型和大规模多模态模型取得突破性进展,跨媒体理解与分析任务面临新的技术难点与挑战。不同于图像和文本数据,长视频具有时间跨度长,内容场景丰富和数据冗余度高的特点,这要求模型具备细粒度场景分析与复杂事件推理的能力。然而,现有的大模型难以直接应用于长视频理解任务。由于数据量多,信息冗余度高,模型规模大,在长视频的学习和推理过程中容易导致时序信息的丢失。本次报告将介绍本课题组在长视频的跨媒体理解的部分研究成果,对长视频内容的紧凑型表达,探讨关键视频帧的选取和时序信息的表征等若干关键技术及其未来发展方向。
董晶
中国科学院自动化研究所研究员
简介:董晶 ,女,2010年博士毕业于中科院自动化研究所模式识别国家重点实验室,现任中国科学院自动化研究所多模态人工智能系统全国重点实验室研究员、博士生导师。董晶博士主要从事计算机视觉、生物特征识别、多媒体内容取证与安全前沿方向的技术研究。她曾入选国家高层次青年科技人才计划、先后以项目(课题)负责人承担4项国家自然科学基金、3项国家重点研发项目(课题)、国家重大专项子项及20余项省部级科研项目(课题)。已在国际权威期刊及学术会议上发表学术论文90余篇,申请发明专利30余项,其中已授权25项中国专利含3项美国专利。她现为中国人工智能学会(CAAI)理事、杰出会员;中国图象图形学学会(CSIG)理事、副秘书长;CSIG女科技工作者委员会秘书长;CSIG数字媒体取证与安全专委会常委、副秘书长;北京市女科协理事;北京图象图形学学会(BSIG)常务理事、青工委主任委员;中国科学院青年创新促进会会员;首都海智新型海智工作基地专家;美国电气电子工程师学会(IEEE) 高级会员、IEEE亚太区执行委员(2017-2024)、IEEE信号处理协会(SPS)全球会员发展主席(2022-2024)、IEEE SPS多媒体取证专委会委员(2023-2026);亚太信号与信息处理协会(APSIPA)多媒体安全取证专委会委员(2020-2025);国际模式识别联合会(IAPR)出版委员会委员(2019-2024)、Elsevier 《Journal of Information Security and Application》国际期刊的副主编。她曾荣获第10届全国信息隐藏暨多媒体信息安全大会优秀论文奖、2015国际通信及信号系统大会最佳论文奖、2016年度IBM学院奖、2018年度国际模式识别大会最佳科技论文奖、2019年度中国人工智能学会杰出贡献奖、2020年度CSIG石青云女科学家奖、2021年度北京青年优秀科技论文奖、2021年度CSIG科技奖二等奖(排名第一)、2021年度吴文俊人工智能科学技术奖(技术进步科普类)、中国发明协会2022年度发明创新奖一等奖(排名第一)、2022国家广电总局第二届广播电视和网络试听人工智能应用创新大赛深度合成技术应用类一等奖(排名第一),2023年度吴文俊人工智能科学技术奖(技术发明一等奖、排名第二)。
张曼
北京邮电大学研究员
简介:张曼,北京邮电大学人工智能学院副院长、研究员、博士生导师,主要研究方向为计算机视觉、模式识别、生物特征识别,已主持国家自然科学基金面上项目、国家重点研发计划课题、北京市科委人工智能专项等多项国家和省部级科研项目的研发工作,成果发表在人工智能本领域知名期刊和会议(IEEE TPAMI、IEEE TIP、AAAI、 ACM MM等)。曾获得首都最美巾帼奋斗者、北京市三八红旗奖章、北京市青年骨干、北京市科技新星等奖项。现任IEEE女工程师协会北京分会主席、中国人工智能学会模式识别专委会副秘书长、中国图象图形学学会视觉检测专委会副秘书长、北京图象图形学学会理事、北京市女科协理事、北京市青联十二届委员。
许春燕
南京理工大学教授
简介:许春燕,教授,博士生导师,现工作于南京理工大学计算机科学与工程学院/人工智能学院。2015年毕业于华中科技大学计算机科学与技术学院计算机应用专业,获工学博士学位。2013年至2015年在新加坡国立大学颜水成教授的视觉-学习研究组学习和交流。主要研究领域为计算机视觉、机器学习、图模型优化及其应用;以第一/通讯作者身份发表IEEE Trans.系列中科院一区TOP期刊及CCF A类会议论文40余篇。主持国家自然科学基金、江苏省科学基金等多项课题,作为骨干参与包括中央军委科技委项目等多项课题。曾获江苏高校青蓝工程-优秀青年骨干教师培养对象、江苏省研究生优秀教学案例、湖北省优秀博士论文、中国航天科技集团二等奖。
早鸟票倒计时10天!
会议注册
1►
注册时间及缴费标准
· 其他参会人员,请选择全额注册。
2►
注册方式
通过以下两种任何一种方式进行注册
2、注册链接:https://hy.mustedu.cn/public/?s=goods/index/id/4.html (点击文末左下方“阅读原文”,可进入)
3►
缴费方式
1、支付宝或线下转账汇款方式
线下转账汇款账户信息:
单位名称:马上科普教育科技(北京)有限公司
开户银行:中国建设银行股份有限公司北京学知支行
银行账号:11050110477000000051
2、付款时请务必附言备注:“CCBR2024+单位+姓名”,例如" CCBR2024+XX大学+张三"。
3、办理转账汇款后,需上传付款凭证截图。
4►
发票开具
1、会议发票由CCBR 2024会务公司:马上科普教育科技(北京)有限公司开具。
2、参会人员预定的酒店,由酒店开具发票。
5►
联系方式
1、注册缴费/发票:李超13439275509
2、mail: ccbr2024@163.com
行为生物特征识别论坛
行为生物特征识别是一种通过分析个体的行为特征(如走路方式、人体动作特点、打字方式、操作手机或电脑习惯等)来进行身份验证的技术。这种识别方法广泛应用于视频监控、金融安全、在线身份验证和用户行为分析等领域。随着人工智能和大数据技术的进步,行为生物特征识别的潜力日益显现,不同模态的识别率有了明显提升,未来可能在视频监控、人机交互、无缝身份验证等方面发挥更大作用。本论坛邀请了5位领域专家,对行为生物特征的发展历史进行介绍,并深入探讨这些技术的发展动态和未来趋势,以推动行为生物特征识别的创新和实际应用。
Mark Nixon
英国南安普顿大学教授
简介:Mark S. Nixon is a Professor Emeritus with the Vision, Learning and Control research group in the School of Electronics and Computer Science at the University of Southampton UK. His research interests are in image processing, biometrics and computer vision. His team pioneered gait as a biometric and were amongst the pioneers of ear biometrics. His team has developed new techniques for static and moving shape extraction, which have found application in automatic face and automatic gait recognition and in medical image analysis. His books include Feature Extraction and Image Processing for Computer Vision (Elsevier, 4th Ed.), Human ID Based on Gait (Springer) and D’oh! Fourier (WSP). He was previously the President of the IEEE Biometrics Council and Vice Chair IEEE PSPB; he is currently Editor in Chief IEEE Transactions on Biometrics, Behavior, and Identity Science. He is a Fellow of the IAPR (for services to biometrics and computer vision) and the Distinguished Fellow of the BMVA 2015. He has been chair/program co-chair for many conferences (BMVC’98, ICPR’04, IEEE BTAS’10, ICPR’16, IEEE ISBA’16, IAPR/IEEE IJCB’17, and ICB’19 and will co-chair IJCB 2025) and supervised many excellent PhD students.
报告题目:Gait, Behaviour and Identity Science
报告摘要:Gait as a biometric started in the late 1990s and has recently made enormous progress with the power of deep learning; gait as part of behaviour analysis has attracted more sporadic attention; gait as identity science attracted more attention in the days of handcrafted approaches, than it has yet to with deep learning. As technology matures it can incorporate more application domains and engage in a wider technological remit: it is therefore time to take stock. Gait has much to offer in the security and forensics domains, though this is largely yet to be realised. Behaviour has much wider aspects than surveillance since it can offer solutions which help our ageing societies. There are also medical aspects and condition diagnosis not just for ageing societies but also for monitoring the health of our populations. Identity science is perhaps a way to calibrate advances: forensics require confidence in order to establish evidence and that similarly permeates our knowledge-driven advances. This talk will aim to embrace these concepts, as part of the evolution along these new paths and to capture behaviour and identity science aspects of gait.
李玺
浙江大学教授
简介:李玺,浙江大学求是特聘教授,国家杰青,IAPR/IET Fellow,IEEE Senior Member,CCF杰出会员,全球前2%顶尖科学家,Elsevier 2023“中国高被引学者”,国家青年特聘专家,浙江省特聘专家,杭州钱江特聘专家,科技部科技创新 2030 新一代人工智能重大项目负责人,国家自然科学基金委联合基金重点项目负责人,教育部重点规划研究项目负责人。从事人工智能领域研究,发表高水平学术论文200余篇,获得四项最佳学术论文奖。以第一完成人获得2021 年中国图象图形学会自然科学奖二等奖,2021 年中国产学研合作促进会产学研合作创新与促进奖(个人奖),2023 年中国发明协会发明创业奖创新奖一等奖,2023年陆增镛CAD&CG高科技奖一等奖。荣获腾讯好专利、华为优秀合作成果奖和火花价值奖,中国人工智能学会-昇思 MindSpore 学术基金优秀项目获得者。成果应用于华为、阿里、海康等企业。指导博士生秦泽群获得中国图象图形学会优博论文奖。
报告题目:多模态视觉结构学习
报告摘要:互联网和物联网时代催生了海量多模态大数据,从这些海量数据中有效提取知识迫切需要各种人工智能的技术和手段。因此,如何进行人工智能驱动的多模态计算已经成为当今知识经济时代亟待解决的核心技术问题。本报告主要围绕数据驱动的人工智能学习方法,进行大规模图像/视频数据的视觉特征学习,从目标视觉感知特性、视觉特征表达、深度学习器构建机制、高层语义理解等多维度视角进行了深入剖析,并引入了大规模多模态特征学习所涉及的主要研究问题和技术方法。然后系统地回顾了多模态特征表达和学习领域的不同发展阶段,介绍了近年来我们利用特征学习进行视觉语义分析和理解所做的一系列代表性的研究工作及其实际应用。报告的最后将和大家一起探讨一下涉及多模态特征学习所面临的一些开放性问题和难题。
张军平
复旦大学教授
简介:张军平,复旦大学计算机科学技术学院教授、博士生导师,中国自动化学会普及工作委员会主任。研究方向包括人工智能、图像处理、生物认证、智能交通等。连续四年(2021-2024)入选全球前2%顶尖科学家榜单终身科学影响力排行榜。发表论文200余篇,包括IEEE TPAMI 5篇,学术谷歌引用9000余次,H指数44。著有《人工智能极简史》《爱犯错的智能体》《高质量读研》。其中《人工智能极简史》2024年获第19届文津图书奖提名图书(科普类)和清华大学2024暑期推荐阅读书目。《爱犯错的智能体》2020年获中国科普创作领域最高奖(即中国科普作家协会第六届优秀科普图书金奖)等多个奖项。
报告题目:步态识别研究回顾与展望
报告摘要:步态识别是唯一能远距离识别的生物特征,近年来随着深度学习的发展,它的研究与其他计算机视觉任务有同化的趋势。那么,在深度学习框架下,步态识别有何不同的特点,它的难点在哪里,未来可能有哪些潜在的发展方向。我将在报告中简单回顾步态识别的历史,综述近年来的特点,并对其可能的扩展方向展开讨论。
冯镔
华中科技大学教授
简介:冯镔,华中科技大学电信学院教授,博导。主要研究方向是人体动作行为分析,包括手势识别、声纹识别、步态识别等。先后主持多项国家自然科学基金,湖北省自然科学基金,以及企业合作项目,参与国家自然科学基金重点项目,国家重点研发计划等。已发表论文40余篇,包括TIP,ICCV,ECCV等国际顶级期刊和会议,获国内授权技术发明专利6项。担任TIP,CSVT,TMS等多个期刊的常邀审稿人。作为团队成员分别于2018年和2024年获得湖北省技术发明一等奖,获2023年第五届中国研究生人工智能创新大赛一等奖。
报告题目:复杂场景下步态识别方法研究
报告摘要:近年来,步态识别技术由于具备不需要识别对象的主观配合、可以远距离识别、不易掩盖和模仿等特点,受到越来越多的关注。本报告将讨论复杂场景下,步态识别技术所面临的跨视角、细粒度表征学习等挑战,介绍目前的代表性解决思路和方法,并对未来可能的发展方向进行思考展望。
张鸿文
北京师范大学副教授
简介:张鸿文,北京师范大学人工智能学院副教授,博导。主要从事三维数字人的动捕、重建、驱动与生成等研究。发表CCF-A类/领域顶刊顶会论文40余篇,包含TPAMI/TOG和CVPR/ICCV/ECCV/SIGGRAPH论文30余篇,顶会口头报告/亮点论文7篇,谷歌学术引用量3400余次,一作提出的动捕系列开源算法累计获GitHub星标上千次,获中国科学院优博论文/院长奖等荣誉。代表性成果详见个人主页:https://zhanghongwen.cn
报告题目:面向交互感知的运动捕捉与生成
报告摘要:运动捕捉和运动生成是构建数字化身、赋能具身智能等应用的基础。目前,通过结合深度学习和大规模数据,现有方法在单目运动捕捉和文本运动生成方面取得一定进展,但其重建和生成的运动在交互合理性方面仍然存在诸多挑战性问题。本报告将介绍面向人物场交互感知的运动捕捉和生成系列方法,通过在神经网络的学习和推理过程中引入交互状态反馈,在保证算法实时性的同时提升运动重建的全局准确性,增强人体和场景、手部与物体的交互合理性。报告还将进一步展望探讨运动捕捉与生成统一的学习框架和未来研究趋势。
贲晛烨
山东大学教授
简介:贲晛烨,山东大学教授,博导,国家级高层次青年人才,山东省泰山学者青年专家,山东大学杰出中青年学者,研究方向为信号与信息处理、图像处理、模式识别、人工智能等。IEEE Senior Member,中国电子学会高级会员,中国电子学会信号处理分会委员,中国电子学会青年科学家俱乐部理事,山东省人工智能学会常务理事等。在IEEE T-PAMI、IEEE T-IP、IEEE T-CSVT、IEEE T-MM、PR 、CVPR等国内外核心期刊会议上发表学术论文100余篇,申请国家发明专利94项,授权71项,转让3项。曾获山东省自然科学奖二等奖(排名1)、中国图象图形学学会石青云女科学家奖(2022,全国4人),市级巾帼建功标兵、市级巾帼科研之星、校“三八红旗手”等荣誉称号。
于仕琪
南方科技大学副教授
简介:于仕琪,南方科技大学计算机科学与工程系副教授,他的主要研究方向为步态识别和计算机视觉,从事步态识别研究20余年。于仕琪副教授现担任中国图象图形学学会学会监事、IAPR TC4专委会副主席、OpenCV中国团队负责人;曾担任中国图象图形学学会学会监事、CCBR2017程序委员会主席、IJCB2021会议程序主席、PRCV2022会议程序主席等,并作为主要组织人,自2018年开始每年1月份组织IAPR/IEEE Winter School on Biometrics。课题组开发的步态识别开源评测平台OpenGait在步态识别领域被广大科研工作者广泛使用。
侯赛辉
北京师范大学副教授
简介:主要从事步态识别、增量学习等方面的研究。目前已在TPAMI、IJCV、TIFS和CVPR、ICCV、ECCV等期刊和会议发表40余篇论文,其中CCF-A类会议(含ECCV)和IEEE Trans期刊35篇,第一作者和通讯作者25篇,Google引用次数超过3000次。申明专利20余项,主持国家自然科学基金青年基金和中央高校基本科研业务费专项资助项目,参与国家自然科学基金重点项目、面上项目以及多个企业横向合作项目。
早鸟票倒计时2天!
会议注册
1►
注册时间及缴费标准
· 其他参会人员,请选择全额注册。
2►
注册方式
通过以下两种任何一种方式进行注册
2、注册链接:https://hy.mustedu.cn/public/?s=goods/index/id/4.html (点击文末左下方“阅读原文”,可进入)
3►
缴费方式
1、支付宝或线下转账汇款方式
线下转账汇款账户信息:
单位名称:马上科普教育科技(北京)有限公司
开户银行:中国建设银行股份有限公司北京学知支行
银行账号:11050110477000000051
2、付款时请务必附言备注:“CCBR2024+单位+姓名”,例如" CCBR2024+XX大学+张三"。
3、办理转账汇款后,需上传付款凭证截图。
4►
发票开具
1、会议发票由CCBR 2024会务公司:马上科普教育科技(北京)有限公司开具。
2、参会人员预定的酒店,由酒店开具发票。
5►
联系方式
1、注册缴费/发票:李超13439275509
2、mail: ccbr2024@163.com
以人为中心的AIGC论坛
以人为中心的AIGC论坛聚焦于当前人工智能生成内容(AIGC)领域的前沿课题,强调以人为中心的技术发展路径,探讨如何通过深度学习和生成模型,从文本、图像、音频和视频等多模态数据中高效生成和优化内容,以满足个性化创作、智能交互和数字体验的需求。AIGC凭借其强大的生成能力和灵活适配性,已经广泛应用于媒体、教育、医疗、金融等多个领域,成为推动产业变革和创新的重要技术动力。此次论坛汇集了来自学术界的顶尖专家,探讨以人为中心的AIGC领域的最新进展和应用前景。论坛将围绕数据生成、用户交互优化、虚拟内容真实性保障等核心方向,深入解析AIGC的技术挑战和创新机遇。
单彩峰
南京大学教授
简介:单彩峰,教授、博导,“长江学者”讲席教授。现任南京大学智能科学与技术学院副院长,南京大学-中国移动联合研究院副院长。2001年获中国科学技术大学学士,2004年获中国科学院自动化研究所硕士,2007年获英国伦敦大学博士。之后在荷兰飞利浦研究院工作十余年,担任资深科学家和团队负责人,并兼任荷兰埃因霍温理工大学研究员。主要从事计算机视觉、模式识别、医学图像计算等方面的研究,先后承担多个欧盟和荷兰的研究项目。发表论文170余篇(引用1万多次)、授权各国专利100余项(其中美国欧洲日本专利60多项)。荣获飞利浦公司发明奖,连续入选全球前2%顶尖科学家,先后担任10余个国际期刊的编委或客座编委(包括多个IEEE汇刊)。
报告题目:非接触式生命体征监测:近期研究进展
报告摘要:基于视频的非接触式生命体征监测近年来成为计算机视觉和生物医学工程等领域的一个研究热点。相较于广泛使用的接触式生物传感器,非接触式的光学成像具有很多优势。其中视频脉搏波成像技术(Camera Photoplethysmography, Camera-PPG)通过视频分析实现了对人体外周末梢循环及多维生命体征(心率、呼吸率、血氧饱和度等)的非接触监测。经过十年的发展,基于视频的生命体征监测在理论和实践上均取得显著进展。本报告将介绍一些近期研究进展。
陈涛
复旦大学教授
简介:陈涛,复旦大学信息科学与工程学院教授,博士生导师,院长助理, IEEE Senior Member,入选上海市以及国家高层次青年人才计划。他的主要研究领域包括资源高效的机器视觉和多模态大模型压缩,以及这些理论在具身智能机器人、无人驾驶等端侧视觉的应用。他先后主持国家自然科学面上、联合基金项目,承担科技创新2030新一代人工智能重大专项子课题、上海市人工智能重大专项的子课题以及校企联合实验室项目。迄今为止,他已经在各类国际学术期刊和会议如IEEE T-PAMI/T-IP/IJCV/CVPR上发表高水平论文150余篇,含5篇ESI高被引用论文和热点论文,申请国际PCT专利10多项,带领团队获得2022年ECCV自动驾驶挑战赛季军,2023年ICCV三维室内密集场景理解冠军,部分成果已经成功应用华为、中兴、小米等国内龙头企业的终端产品中。
报告题目:数据高效的多模态三维生成与具身理解
报告摘要:大语言模型的语义理解和泛化能力给视觉场景的理解和生成带来了新的机遇,但同时不管是隐式还是显示的三维生成均对场景的复杂采样和训练数据具有较强依赖性,带来了计算和数据资源的高昂成本。本报告因此从如何利用大模型以及自然语言知识角度出发,分享课题组近几年在数据高效的人体目标生成和具身场景理解研究成果,包括1)数据高效的三维人物以及场景生成和重建,2)上下文环境引导的三维场景具身理解和任务规划,以及在人形机器人等相关领域的应用。最后,报告也会探讨该领域未来的发展趋势和挑战。
张盛平
哈尔滨工业大学教授
简介:张盛平,哈尔滨工业大学教授、如本科技首席科学家,入选国家级青年人才计划,美国布朗大学和香港浸会大学博士后、加州大学伯克利分校访问学者。主要研究方向为3D视觉。主持国家自然科学基金4项、华为公司项目10余项,被华为授予2021年度“HUAWEI Ascend Expert”和 2022年度“昇腾众智星光奖”荣誉称号,荣获2022年度教育部-华为“智能基座”栋梁之师。研究成果获省部级科研奖励4项。已发表学术论文100余篇(包括PNAS、IEEE T-PAMI、IJCV、ICML、CVPR、ICCV、SIGGRAPH等)。
报告题目:超写实虚拟数字人驱动技术
报告摘要:赋予情感的虚拟数字人在元宇宙,虚拟现实等多项应用中发挥着重要作用,而其中,如何通过带有情感的动作信号准确驱动虚拟数字人,是提升数字人真实感和沉浸感的关键问题。因此,为了增强虚拟数字人驱动的准确性与稳定性,我们从二维和三维的不同人体表达出发,挖掘驱动信号与人体表示在不同维度下的关联性,提出基于生成式大模型的可控人体视频生成算法和基于3D高斯的三维人体驱动算法,进而在单目拍摄的视频中学习一个可驱动的二维/三维超写实虚拟数字人表示,为情感动作的精确表达提供高效的载体。
李俊
南京理工大学教授
简介:李俊,南京理工大学教授,博士生导师,国家高层次青年人才计划、江苏省高层次人才计划。主要研究人工智能方向:深度感知、图像/视频去雾、创新模式学习等。先后在美国东北大学和美国麻省理工学院从事博士后研究,并在本领域重要国际学术期刊和会议论文80多篇,其中CCF-A类/中科院SCI一区论文共60多篇(包括IEEE TPAMI/TIP/TNNLS/CVPR/ICCV/ ECCV/NeurIPS/ ICML等)。主持国家自然科学基金面上项目、人才项目等多项科研项目,担任CSIG-视觉大数据专业委员会委员、CCF计算机视觉专委会执行委员,以及领域内多个IEEE主流期刊(如TNNLS/TIP)和国际顶级会议(如CVPR/ICCV/ ECCV/NeurIPS/ICML/ICLR/AAAI)的(高级)PC/审稿人。
报告题目:基于扩散模型的创新组合物体生成
报告摘要:在认知心理学领域,组合式创造力是人类智能的重要体现之一,其核心是将多个看似无关的事物之间建立联系,形成新颖的、惊奇的、价值的融合事物。大多数现有AI方法主要是模拟数据分布,缺乏组合式创造力的探索。因此,如何设计具有组合式创造力的AI方法就成为一个研究难点。结合生成扩散的基础模型,介绍本团队近年来在组合式创新视觉方向的一些探索研究,并探讨一些未来研究趋势。
唐诗翔
香港中文大学博士后研究员
简介:唐诗翔, 毕业于悉尼大学, 现任香港中文大学博士后研究员. 他的研究兴趣为以人为中心的多模态基础模型, 及其在人体动作生成、以人为中心的视频生成、大规模多模态行人检索与重识别等问题上的应用. 唐诗翔曾获得悉尼大学大学优秀博士论文奖, Career Advanced Award, Australian Government RTP Scholarship (International), CVPR博士论坛奖等, 在CVPR、ICCV、ECCV等会议上发表多篇文章, 谷歌引用超过1700.
报告题目:迈向通用的以人为中心的生成识别大模型
报告摘要:以人为中心的计算是计算机视觉中的核心问题, 其核心的感知与识别人的表观、身份、动作、情感和意图以及根据相关信息生成真实的虚拟数字人。尽管人作为整体, 其外观、身份、动作、情感等是有机联系的整体,但是目前以人为中心的研究仍然以研究人的某个方面任务为主,例如行人重识别、行人检测、人体动作生成、人头特写等。这种研究范式未能挖掘以人为中心的任务之间的相关性, 不能充分挖掘现有公开数据的潜力。本次报告将介绍以人为中心的通用识别模型、高泛化能力的生物特征识别大模型以及多模态可控的人体动作生成大模型的构建中对于数据、架构与路径的探索,为迈向高精度、通用、对人可全面理解的识别和生成大模型铺路。
赫然
中国科学院自动化研究所研究员
简介:赫然,中科院自动化所多模态人工智能系统全国重点实验室研究员,国家杰青获得者,国际模式识别学会会士(IAPR Fellow)。从事人工智能、模式识别和计算机视觉研究,获CAAI技术发明一等奖、CSIG自然科学一等奖、北京市科技进步二等奖等。指导学生获得IEEE信号处理学会最佳青年论文奖、国际模式识别大会最佳科学论文奖、北京市优秀博士论文、中科院优秀博士论文、IEEE生物特征理事会优秀博士论文。他是IEEE TPAMI\TIFS\TIP\TCSVT\TBIOM、IJCV\PR\TMLR和自动化学报等10多个国内外期刊编委,以及NeurIPS\ICML\CVPR\ECCV\ICLR\AAAI\IJCAI等15次会议领域主席。
李琦
中国科学院自动化研究所副研究员
简介:李琦,中国科学院自动化研究所副研究员,中国科学院青促会会员,中国科学院特聘研究骨干,北京市科协青年人才托举。现任北京图象图形学学会理事,中国计算机学会计算机视觉专委会执行委员。近五年发表CCF推荐A类期刊和会议共20篇,其中含第一作者/通讯作者6篇TPAMI/IJCV。代表作AnyFace被评选为CVPR最佳论文候选,并入选TPAMI专刊Best of CVPR。撰写Springer专著1部。申请人多次担任国内生物特征识别旗舰会议CCBR程序委员会主席、出版主席等,担任ICLR 2025的领域主席。主持国家重点研发计划青年科学家项目一项,科技创新2030“新一代人工智能”重大项目课题一项,国家自然科学基金两项。研究成果获2022年中国图象图形学学会技术发明奖二等奖、2023年中国产学研合作创新成果二等奖等。所研发的生物特征识别系统、人工智能安全系统已在国家多个部委(如国安、公安及网信等)成功应用,为国家信息安全与管理提供了有力支持。
李建树
蚂蚁集团高级算法专家
简介:李建树于2019年在新加坡国立大学计算学院获得博士学位,师从颜水成教授和 Terence Sim 教授。他的研究兴趣主要包括计算机视觉和图像理解,特别是人脸和人体分析、语义分割和目标检测。自2018年加入蚂蚁集团,他担任算法专家,主要从事生物识别算法,包括人脸识别、人脸活体检测、人脸深度伪造检测等算法的研发工作,以及生物识别技术在工业界大规模落地应用的工作。他曾经获得吴文俊人工智能自然科学奖一等奖,蚂蚁集团 T-STAR 年度优秀工程师奖,ACM MM Deepfake 检测竞赛奖,ECCV CelebA-Spoof 人脸活体检测挑战赛一等奖,模式识别和机器智能协会PREMIA新加坡年度论文金奖,ACMMM最佳学生论文奖,ILSVRC物体定位竞赛奖,ICMI情感识别挑战赛一等奖等多项奖项。他在期刊和国际会议上发表了30多篇论文,并担任CVPR、ECCV、NIPS、IJCAI、FG、ICMI、TIP、TCSVT、TMM等会议或期刊的特邀审稿人。他在蚂蚁集团主持的生物识别系统,已服务金融、保险、证券、信贷、电信、公共服务等领域近百家海内外客户,累积为超过1.2亿用户提供服务,产生了巨大的商业价值和社会影响力。
早鸟票倒计时2天!
会议注册
1►
注册时间及缴费标准
· 其他参会人员,请选择全额注册。
2►
注册方式
通过以下两种任何一种方式进行注册
2、注册链接:https://hy.mustedu.cn/public/?s=goods/index/id/4.html (点击文末左下方“阅读原文”,可进入)
3►
缴费方式
1、支付宝或线下转账汇款方式
线下转账汇款账户信息:
单位名称:马上科普教育科技(北京)有限公司
开户银行:中国建设银行股份有限公司北京学知支行
银行账号:11050110477000000051
2、付款时请务必附言备注:“CCBR2024+单位+姓名”,例如" CCBR2024+XX大学+张三"。
3、办理转账汇款后,需上传付款凭证截图。
4►
发票开具
1、会议发票由CCBR 2024会务公司:马上科普教育科技(北京)有限公司开具。
2、参会人员预定的酒店,由酒店开具发票。
5►
联系方式
1、注册缴费/发票:李超13439275509
2、mail: ccbr2024@163.com
洞见新生:行人重识别技术过去现在未来
行人重识别技术在智慧城市和公共安全领域日益重要,已成为支撑跨时空追踪、走失人员找回、人员管控等任务的核心技术。随着应用场景日趋复杂,传统方法在视角变化、光照差异、遮挡和换装等问题上面临挑战,多模态识别、大模型预训练、以及隐私保护成为研究热点。本论坛将系统回顾行人重识别技术的发展历程,分享最新的算法创新,包括在数据稀缺和复杂环境下的大模型适应、换衣行人识别方法及安全防护策略,探索行人重识别在智慧安防中的未来发展路径。
郑伟诗
中山大学教授
简介:郑伟诗博士,中山大学计算机学院教授、教育部“长江学者奖励计划”特聘教授、英国皇家学会牛顿高级学者,现任中山大学计算机学院副院长、机器智能与先进计算教育部重点实验室主任、大数据分析与应用技术国家工程实验室副主任。长期研究机器学习和人工智能应用。发表CCF-A/中科院1区/Nature子刊论文 200多篇,其中在IEEE T-PAMI/IJCV/SIGGRAPH /自然通讯发表30余篇。担任国际人工智能顶级期刊IEEE T-PAMI、Artificial Intelligence Journal、Pattern Recognition等期刊的编委,担任国际顶级学术会议ICCV、CVPR、NeurIPS、ECCV、BMVC等领域主席,曾担任ICME 2022程序委员会联合主席等。作为负责人,主持承担国家自然科学基金委重点项目和联合基金重点项目、国家优秀青年科学基金项目、国家重点研发课题、国家自然科学基金委联合重大项目重点课题、广东省自然科学基金委卓越青年团队(负责人)项目等。获国家教学成果奖二等奖、中国图象图形学学会自然科学奖一等奖、广东省自然科学奖一等奖、广东省自然科学奖二等奖等。
报告题目:行人重识别新思考:统一模型和新评估标准
报告摘要:当前行人重识别研究主要着力于提高两两摄像区域同一人的图像匹配准确率,针对各种困难(遮挡、跨模态、换装等)设计出高效的专用模型。然而,专用模型存在较大局限性。为此,我们提出了一个多功能模型,能够自适应地克服不同困难。此外,由于行人重识别的一个重要目的是在摄像头网络中追踪行人,我们提出了连续一致行人重识别和相应的评估标准。不同于以往针对模型结构的改进,我们通过连续一致性行人重识别分析了多摄像区域下摄像头质量对行人重识别的影响,有效地检测出有缺陷的摄像机设置,有助于对视频监控环境做出有益的调整。
叶茫
武汉大学教授
简介:叶茫,武汉大学计算机学院教授、博士生导师,国家级高层次青年人才,中国科协青年托举人才,湖北省高层次人才。曾任阿联酋起源人工智能研究院研究科学家,美国哥伦比亚大学访问学者。主要研究方向多模态检索、多模态语义理解、联邦学习等,以第一/通讯作者发表 CCF-A 类论文 60 余篇,谷歌学术引用 9000 余次。受邀担任CCF-A类期刊IEEE TIFS(中科院一区)等国际SCI期刊编委,受邀担任人工智能顶级会议CVPR、ACM MM、NeurIPS、ICLR、ECCV领域主席等学术职务。连续4年入选斯坦福排行榜 “全球前2%顶尖科学家”。
报告题目:大模型驱动的多模态行人重识别
报告摘要:多模态行人重识别在智慧城市等领域有重要应用,现有方法通常独立的去研究单一的跨模态行人检索任务,极大的限制了实际不确定场景的灵活性,本次报告将介绍如何利用多模态预训练通用模型,提升下游的跨模态行人重识别和构建不确定多模态场景下的行人重识别基础模型等相关工作,同时分享文本引导的人像生成相关研究进展及展望多模态行人理解未来趋势。
张永飞
北京航空航天大学教授
简介:张永飞,北京航空航天大学计算机学院教授、博士生导师,国家级青年人才;IEEE/CCF/CSIG高级会员,中国图象图形学学会咨询与评议工委会秘书长等。主要研究方向为人工智能、计算机视觉及其在国防、公安智能视频监控系统中的应用。主持国家自然科学基金面上项目、企业委托项目、某型号项目等30多项科研项目。已在TMM、TCSVT和CVPR、AAAI等多媒体和人工智能领域重要刊物会议发表论文70余篇,授权发明专利20余项,多项成果已在国防安全、公共安全等领域应用,获省部级科技奖励2项。
报告题目:场景化行人再识别技术
报告摘要:跨时空行人再识别是大时空嫌疑目标追踪、走失小孩/老人找回、人员管控等智慧安防与社会治理应用的重要支撑技术,引起了学术界和工业界的广泛关注。本报告将首先简单介绍跨时空行人再识别的背景与需求、以及实际场景下面临的诸多挑战,然后分享课题组在数据匮乏、遮挡、相似着装、跨模态等特殊场景下的工作进展。
赵才荣
同济大学教授
简介:赵才荣,工学博士。现任同济大学计算机科学与及技术学院教授,博士生导师,智能信息处理教研室主任。曾任香港理工大学兼职研究员(2016-2017)。目前担任上海市计算机学会计算机视觉专委会主任,中国图象图形学学会青工委副秘书长,中国人工智能学会粒计算与知识发现专委常委,中国计算机学会杰出会员,担任《中国图象图形学报》、《计算机科学》等期刊编委。主要研究领域:计算机视觉,主要聚焦于智能视频行人分析及其隐私安全研究,重点研究高效可信行人再识别、多模态数据驱动的自动驾驶以及垂直领域模型的知识表示与推理问题。已在TPAMI、IJCV、IEEE TIP、IEEE TIFS、《中国科学.信息科学》、CVPR、ICML、NIPS、ICLR、AAAI、ACM MM、ECCV等发表学术论文50余篇,受理发明专利20余项(授权16项),研究成果获2022年上海市科技进步一等奖(序四),获2023年上海市自然科学二等奖(序1),获《中国科学:信息科学》2023年度热点论文奖,中国图象图形学学会青年工作突出贡献奖,中国图象图形学学会科普先进工作者。主持国家自然科学基金4项,主持国家重点研发计划子课题以及企业横向课题十余项。建设国家级线下精品课程1门,上海市精品课程1门。指导学生获中国电子学会优秀硕士论文,获上海市计算机学会优秀硕士论文。
报告题目:面向行人再识别的安全攻击与防护
报告摘要:随着人工智能越来越多地融入我们的生活,人们对数据隐私安全的担忧与日俱增。本次报告将围绕以人为中心的安全攻击与隐私保护展开。行人再识别是为人为中心的典型视觉识别任务,容易受到攻击,进而导致严重的后果。对于行人再识别的安全攻击与隐私保护问题,报告主要介绍通过不同的攻击方法量化行人再识别的安全性方法以及相应的行人再识别的隐私保护方案。以上研究有助于构建可应用于深度学习模型的安全风险量化与隐私保护规范,为打造公共安防领域的数据安全与隐私保护解决方案提供理论保障。
高赞
天津理工大学教授
简介:高赞,教授,博导,副院长,国家青年人才计划人选、山东省突贡专家,全球前2%顶尖科学家,教育部重点实验室副主任,主要研究领域包括多媒体理解与分析,计算机视觉以及多媒体内容安全等。近年来,主持或参与包括国家自然基金重点和国家重点研发等省部级以上课题20余项,在包括TPAMI和CVPR等国际会议和期刊发表论文100余篇,其中ESI高被引论文6篇、热点论文1篇。曾获山东省科技进步和技术发明一等奖各1项,2021年获CCF A类会议SIGIR最佳学生论文,授权发明专利50余项。目前兼任中国计算机学会杰出会员、IEEE和中国图形图象学会高级会员,中国计算机学会多媒体技术专委会和计算机专委会执行委员等,担任Neural Network, TOMM,CAAI TIT等多个国际期刊的副编辑或青年编委。
报告题目:面向复杂场景的换衣行人重识别算法研究
报告摘要:行人重识别是机器学习和计算机视觉领域的重要研究方向,其目标是在不同的监控摄像头下,准确地识别和匹配行人的身份。在复杂监控场景中行人重识别技术面临着一系列挑战,包括视角变化、光照变化、行人遮挡和行人外观变化等。本报告将汇报课题组近年来在换衣行人重识别上的相关成果。
常晓军
中国科学技术大学教授
简介:常晓军,中国科学技术大学讲席教授,国家高层次人才,澳大利亚研究理事会青年研究奖获得者。主要从事多模态学习、计算机视觉和绿色人工智能及其在社会公益方面的应用。主持包括澳大利亚研究理事会科研基金、企业联合基金(Linkage Program)等国家级项目十余项。相关科研成果发表在T-PAMI、TIP等国际顶级期刊和CCF A类会议上150多篇,论文的Google Scholar引用次数18000余次,其中21篇入选ESI高被引/热点论文。2019年至2023年连续入选科睿唯安高被引学者。担任IEEE TCSVT、IEEE TNNLS、ACM TOMM等国际顶级期刊的副主编和CCF A类会议的领域主席(Area Chair)。
金一
北京交通大学教授
简介:金一,北京交通大学计算机学院教授,博导,CCF杰出会员。CCF YOCSEF副主席(24-25)、智慧交通分会常委、大数据专家委员会、多媒体专委执委等。研究方向为视频语义理解、多模态融合与交互、行为决策分析等。获IEEE Computer Society年度最佳论文奖提名奖等国际论文奖励3项,授权发明专利32项,参编国家/行业标准3项,获2023年中国产学研合作创新与促进奖创新成果二等奖(排1)等奖励,2020年中国计算机学会科学技术奖科技进步优秀奖等奖励,入选2022年度北京市轨道交通学会杰出青年人才。
李佩佩
北京邮电大学副研究员
简介:李佩佩,女,北京邮电大学 人工智能学院副研究员,博士生导师。长期从事多模态认知计算、多模态内容生成与安全等方面的研究工作,并进行落地实践,相关成果“多模态生物特征采集与分析技术”获得2023年中国产学研合作促进会创新成果二等奖(2/10)。以第一作者或通讯作者发表国际顶级期刊和会议18篇,包括NeurIPS、ICCV、ECCV、ACM MM、EMNLP、IEEE TIFS、PR、IEEE TMM等,申请发明专利16项,已授权3项。主持或参与科研项目10余项,包括主持国家自然科学基金青年项目、北京市科技新星交叉项目、教育部协同育人项目等,作为项目骨干参与多项国家级项目与北京市中央引导地方专项重点项目。
会议注册
1►
注册时间及缴费标准
· 其他参会人员,请选择全额注册。
2►
注册方式
通过以下两种任何一种方式进行注册
2、注册链接:https://hy.mustedu.cn/public/?s=goods/index/id/4.html (点击文末左下方“阅读原文”,可进入)
3►
缴费方式
1、支付宝或线下转账汇款方式
线下转账汇款账户信息:
单位名称:马上科普教育科技(北京)有限公司
开户银行:中国建设银行股份有限公司北京学知支行
银行账号:11050110477000000051
2、付款时请务必附言备注:“CCBR2024+单位+姓名”,例如" CCBR2024+XX大学+张三"。
3、办理转账汇款后,需上传付款凭证截图。
4►
发票开具
1、会议发票由CCBR 2024会务公司:马上科普教育科技(北京)有限公司开具。
2、参会人员预定的酒店,由酒店开具发票。
5►
联系方式
1、注册缴费/发票:李超13439275509
2、mail: ccbr2024@163.com