大模型与安全
模型对齐、可解释与鲁棒性。研究大语言模型的安全对齐技术,确保AI系统的可靠性和可控性。
- 模型对齐与价值观对齐
- 可解释AI与透明度
- 对抗攻击与防御
- 模型鲁棒性评估
了解更多
强化学习
人机协同与策略优化。探索智能体在复杂环境中的学习与决策机制。
- 多智能体强化学习
- 人机协作决策
- 策略优化算法
- 安全强化学习
了解更多
多模态感知
融合视觉、语音、文本等多种模态信息,构建更智能的感知系统。
- 视觉-语言理解
- 多模态融合
- 跨模态检索
- 多模态生成
了解更多
联邦学习
在保护数据隐私的前提下,实现分布式机器学习与知识共享。
了解更多