2020年CCF-腾讯犀牛鸟基金申请启动:“深度学习在软件安全领域的应用研究”课题


by 腾讯科恩实验室

CCF-腾讯犀牛鸟基金(以下简称犀牛鸟基金)于2013年由腾讯公司和中国计算机学会(CCF)共同发起,致力于面向海内外青年学者搭建产学研合作及学术交流的平台。

8年来,犀牛鸟基金为全球范围内最具创新力的青年学者提供了解产业真实问题,接触业务实际需求的机会,并通过连接青年学者与企业研发团队的产学科研合作,推动双方学术影响力的提升及研究成果的应用落地,为自主研发技术的探索和创新储备能量。

科恩AI能力建设

自2018年起,腾讯安全科恩实验室积极布局人工智能安全研究,并在”安全+AI”交叉领域结合应用场景研究探索。2019年3月,科恩实验室发表“特斯拉Autopilot的实验性安全研究”[1],即利用AI领域的对抗样本生成算法,精准误导特斯拉Autopilot的图像识别深度学习算法,成为首个实现对抗商用自动驾驶系统图像识别功能的研究案例。

科恩在研究AI算法自身安全性方向获得突破性成果的基础上,也积极探索如何将AI算法应用到传统安全研究当中。科恩此前发布的论文《Order Matters: Semantic-Aware Neural Networks for Binary Code Similarity Detection》[2],核心为利用AI算法解决大规模二进制程序函数相似性分析的问题。此论文作为国内该领域最新研究成果被人工智能顶级学术会议AAAI-20会议收录。

在AI安全研究与能力建设的方向上,科恩始终秉持开放合作的态度,通过各类研究合作项目与广大研究学者进行深入学习交流。2019年7月,科恩参与腾讯公司高校合作项目CCF-腾讯犀牛鸟基金,与香港科技大学就相关研究课题展开深入合作。

为进一步深耕深度学习与软件安全研究领域,在2020年CCF-腾讯犀牛鸟基金项目中,腾讯安全科恩实验室再次参与并开放“深度学习在软件安全领域的应用研究”课题方向申请。科恩期待与更多在“安全+AI”领域深入研究的高校青年教师合作,碰撞出利用AI算法解决安全实际场景问题的更多火花。

“深度学习在软件安全领域的应用研究”课题

本年度犀牛鸟基金继续以人工智能技术为主要研究方向,强调其在医疗健康、能源保障、材料研发、信息安全等民生领域的技术融合与应用,并首次涉及多源信息融合、博弈论、密码学等领域前沿课题。

腾讯安全科恩实验室在本次犀牛鸟中启动“深度学习在软件安全领域的应用研究”课题方向申请,相关信息如下:

深度学习在软件安全领域的应用研究

随着软件复杂度的不断提升,大规模源代码和二进制软件的漏洞挖掘工作面临新的机遇和挑战。本研究项目希望把深度学习相关技术(例如自然语言处理、图神经网络、深度强化学习等)应用于软件安全研究中,其成果可以对传统的逆向工程、模糊测试、漏洞挖掘等有较大促进。

建议研究方向

  • 计算机语言的表征和分类研究,例如识别二进制软件对应的编译器、编译优化选项、第三方库、开发作者等信息;
  • 计算机语言的自动生成和翻译技术研究,例如自动生成用于编译器(解释器)模糊测试的符合语法结构的程序代码;
  • 用机器翻译技术实现二进制和源代码之间的相互翻译工作;
  • 面向复杂交互程序的智能分析方法研究,例如研究代码相似性分析、演化API的误用检测、基于程序内状态机的符号执行、用户界面和运行时事件等复杂输入驱动的软件测试方法。

申报条件

本基金将面向符合如下条件的海内外高校及科研院所青年学者展开:

  • 男性申请者是1984年1月1日(含),女性申请者是1979年1月1日(含)之后出生的高校/科研院所在职的全职教师或研究人员;
  • 硕士/博士毕业后在高校/科研院所累计任职时间,男性不超过5年,女性不超过10年;
  • 能独立进行研究工作,并带领学生团队共同参与课题研究与实践。

申报方式

申报截止时间:2020年6月15日24:00(北京时间)
申报方式:点击2020年CCF-腾讯犀牛鸟基金介绍主页查看《2020年CCF-腾讯犀牛鸟基金项目申报指南》,填写并上传《申报表》提交申请。
注意事项:

  • 每位申请人限提交一份申请,已获得上一年度科研基金资助的项目负责人需隔一年再提交申请。
  • 申请人在申报前需确认所在高校/科研院所可以作为项目依托单位签署科研合作协议,申请人本人可以作为项目负责人签署项目保密协议等相关承诺文件。

更多申报主题信息请关注腾讯高校合作官方网站。任何针对项目申报的问题,请联系基金项目负责人邸欣晨,电子邮箱:xinchendi@tencent.com。

欢迎广大青年学者关注并申报本年度犀牛鸟基金。

引用

[1] https://keenlab.tencent.com/zh/2019/03/29/Tencent-Keen-Security-Lab-Experimental-Security-Research-of-Tesla-Autopilot/
[2] https://keenlab.tencent.com/zh/2019/12/10/Tencent-Keen-Security-Lab-Order-Matters/