【 在 catharine 的大作中提到: 】
: 预训练算法工程师 beijing
: 职位描述
: 1. 从事大规模预训练模型(LLM)研究、训练、应用,包括但不限于多语言、多模态、训练任务优化、下游任务迁移、知识融入更新、模型性能提升等;
: ...................
这个职位也非常着急,朋友们戳我了解详情
大模型对齐算法工程师
1. 负责后训练(Post-training)相关研发工作,提升模型在数理推理、Planning、RAG、指令跟随、工具调用等方面的能力;
2. 优化和迭代大模型的对齐训练策略和工具,包括 SFT、RLHF、Self-play RL、Agent 优化、模型融合、模型蒸馏等;
3. 开展人类和机器偏好相关研究,提升奖励信号的质量和多样性,解决 Reward Hacking 和奖励融合问题;
4. 参与数据飞轮、合成管道、训练实验、评测工具的开发与升级,提升团队效率,跟进并适配领域和开源的最新进展;
职位要求
1. 计算机或数理相关专业背景,硕士或博士学历优先;
2. 具备优秀的编程能力,精通 Linux、Python 和 Pytorch;
3. 熟悉 Transformer 架构和大模型基础知识,有后训练及数据处理经验者优先;
4. 具备强大的研究和实践能力,能够制定高效实验方案,快速定位和解决问题;
5. 具有良好的沟通和协作能力,具备挑战精神和结果导向。
加分项:
1. 在顶级会议上发表过论文并具有学术影响力。
2. 拥有知名开源项目经验,在开源社区有影响力。
3. 深度参与过知名大模型项目,并在关键技术上有深入实践经验。
4. 有医学背景/医疗大模型/医疗落地实践等经验。
--
FROM 49.7.252.*