研究人工智能核心技术
人工智能
涵盖 AI 安全性、多智能体系统(multi-agent systems)、深度学习等核心方向的前沿研究。

AI 安全(AI Security)
探索 AI 系统(包括大语言模型 LLMs 与先进的 multi-agent 架构)在不同条件下的失效机制。分析其对输入扰动、对抗攻击及用户操控等因素的敏感性,评估现有 input screening 机制在代理系统中的防护效果。设计系统性 stress test 方案,覆盖多场景、多变量,识别潜在安全与可靠性风险。学生将从失效数据中提取模式,提出增强鲁棒性的防御策略。
未来 AI 系统中的恶意行为防控
设想 AI 被用于控制实验设备、软件系统或现实世界流程的场景,评估其能力被滥用的可能性(如生成危险物质、规避安全约束)。设计并测试预警机制,包括行为异常检测、权限边界控制、伦理审查框架等,确保 AI 自主性与安全性之间的平衡。面向未来的测试协议设计
构建可前瞻性识别极端风险的 AI 安全测试协议,适用于如药物发现、自动决策等高影响力场景。整合伦理机制、失效预测分析与系统级审计,提升安全性。学生将探索方法论创新,推动安全测试标准的演进。申请要求
- 至少掌握以下领域之一:
- 机器学习 / 人工智能
- 编程能力
- 统计学基础
- 具备技术结合创造性思维的能力
- 对 AI 方法创新有兴趣
- 渴望参与构建安全、可控的未来 AI 系统

多智能体系统(AI Multi-agents)
研究如何让多个 LLM 以 multi-agent 形式协作完成复杂任务,如自动编码、多步骤推理等。聚焦智能体之间的角色划分、任务调度与动态协同机制,优化整体系统效率与适应性。评估其在开放环境中的可扩展性与稳定性。学生将设计并测试新型多智能体协作框架,突破当前 AI 能力的边界。
申请要求
- 至少掌握以下领域之一:
- 机器学习 / 人工智能
- 编程能力
- 统计学基础
- 具备技术结合创造性思维的能力
- 对 AI 方法创新有兴趣
- 渴望参与构建面向未来的智能系统

深度学习应用
探索提升深度学习模型性能、适应性与稳定性的前沿技术路径。聚焦 curriculum learning、dataset distillation、self-supervised learning 等新方法,研究其在缓解过拟合、提升泛化能力与扩展性方面的作用。项目旨在推动模型从“更大更深”转向“更优更稳”。