人工智能

涵盖 AI 安全性、多智能体系统(multi-agent systems)、深度学习等核心方向的前沿研究。

AI 安全(AI Security)

探索 AI 系统(包括大语言模型 LLMs 与先进的 multi-agent 架构)在不同条件下的失效机制。分析其对输入扰动、对抗攻击及用户操控等因素的敏感性,评估现有 input screening 机制在代理系统中的防护效果。设计系统性 stress test 方案,覆盖多场景、多变量,识别潜在安全与可靠性风险。学生将从失效数据中提取模式,提出增强鲁棒性的防御策略。

未来 AI 系统中的恶意行为防控 设想 AI 被用于控制实验设备、软件系统或现实世界流程的场景,评估其能力被滥用的可能性(如生成危险物质、规避安全约束)。设计并测试预警机制,包括行为异常检测、权限边界控制、伦理审查框架等,确保 AI 自主性与安全性之间的平衡。
面向未来的测试协议设计 构建可前瞻性识别极端风险的 AI 安全测试协议,适用于如药物发现、自动决策等高影响力场景。整合伦理机制、失效预测分析与系统级审计,提升安全性。学生将探索方法论创新,推动安全测试标准的演进。
申请要求
  • 至少掌握以下领域之一:
    • 机器学习 / 人工智能
    • 编程能力
    • 统计学基础
  • 具备技术结合创造性思维的能力
  • 对 AI 方法创新有兴趣
  • 渴望参与构建安全、可控的未来 AI 系统

多智能体系统(AI Multi-agents)

研究如何让多个 LLM 以 multi-agent 形式协作完成复杂任务,如自动编码、多步骤推理等。聚焦智能体之间的角色划分、任务调度与动态协同机制,优化整体系统效率与适应性。评估其在开放环境中的可扩展性与稳定性。学生将设计并测试新型多智能体协作框架,突破当前 AI 能力的边界。

申请要求
  • 至少掌握以下领域之一:
    • 机器学习 / 人工智能
    • 编程能力
    • 统计学基础
  • 具备技术结合创造性思维的能力
  • 对 AI 方法创新有兴趣
  • 渴望参与构建面向未来的智能系统

深度学习应用

探索提升深度学习模型性能、适应性与稳定性的前沿技术路径。聚焦 curriculum learning、dataset distillation、self-supervised learning 等新方法,研究其在缓解过拟合、提升泛化能力与扩展性方面的作用。项目旨在推动模型从“更大更深”转向“更优更稳”。

申请要求 欢迎已具备深度学习基础的学生参与,项目将引导你突破常规应用,探索模型在非传统领域中的新用法,或重新构想已有技术的使用方式。通过创新方法实践,学生将拓展深度学习在多学科场景中的影响力。

星弧申请流程

提交研究背景

请介绍你的学术背景、兴趣方向,以及任何科研或独立项目经历。不需要精美包装,只要展示你的思维方式。

研究课题陈述

告诉我们:是什么让你对科研充满热情?你为什么准备好投身真实项目?我们看重的是清晰、好奇与投入——而非完美。

项目匹配与材料审核

我们将审核你的材料,并根据你的优势与目标,为你匹配合适的研究方向与导师。部分申请人将受邀与顾问进行简短对话。

导师正式邀请

一旦匹配成功,你将收到来自大学研究者的正式项目邀请。这不是训练模拟,你将真正参与科研工作。

开启星弧旅程

你将加入一个结构化研究团队,接受导师指导,协作完成任务,在探索中成长为独立的科研合作者与思考者。