聘 软件工程师投递简历
社会招聘 | 全职 | 广东省 • 深圳市 发布时间:2025-03-11
岗位职责
一、技术架构 & 研发管理
1、负责 AI 大模型相关项目的架构设计与技术选型,主导从 0 到 1 的技术落地。
2、组织和管理研发团队,制定开发计划、任务分配,保证项目按时交付。
3、规范研发流程,提升团队的代码质量和开发效率(Code Review、CI/CD)。
4、跟踪 AI 领域前沿技术,推动团队技术创新和工程落地。
二、大模型训练 & 部署优化
1、负责大规模语言模型(LLM)的研发,优化模型训练、推理效率。
2、熟悉主流模型(GPT、LLaMA、DeepSeek、Mistral、Gemma),优化 LLM 微调(如 LoRA、QLoRA、MoE)。
3、研究并落地大模型推理优化方案,如 TensorRT、vLLM、FasterTransformer、DeepSpeed。
4、具备分布式训练经验,熟悉 Horovod、FSDP、ZeRO3、Megatron-LM。
三、AI 工程化 & MLOps
1、负责 AI 模型工程化落地,包括数据处理、训练、部署、推理全流程优化。
2、设计和实现高效的数据 pipeline,包括数据清洗、ETL、特征工程。
3、负责 GPU 计算资源管理、分布式部署(K8s + Docker + TensorRT)。
4、结合 LangChain、RAG(检索增强生成)技术,实现大模型智能应用。
四、前端开发 & 可视化管理
1、负责前端架构设计,开发大模型相关的 Web 前端管理系统。
2、负责前端核心功能开发,优化交互体验,提高系统性能和稳定性。
3、负责 AI 交互界面,如 LLM Chat UI、大模型可视化管理平台、数据标注系统等。
五、团队管理 & 跨部门协作
1、负责团队招聘和人才培养,提升团队整体技术能力。
2、与产品、算法、运维团队紧密合作,推动 AI 业务高效落地。
3、负责制定技术规范和最佳实践,提升研发团队的技术影响力。
任职要求
一、 AI 研发 & 技术架构(核心能力)
1、具备 大模型从 0 到 1 的落地经验,可独立搭建 AI 研发架构。
2、精通 Transformer 结构,熟悉 GPT-3/GPT-4/LLaMA2/Mistral 等大模型。
3、有 LLM 预训练、微调(Fine-tuning)、蒸馏(Distillation)经验,掌握 LoRA、QLoRA、MoE、KV Cache 等优化技术。
4、具备分布式训练(DeepSpeed ZeRO3 / FSDP / Megatron-LM)及推理加速(TensorRT、vLLM、FasterTransformer)经验。
加分项:有 10B+ 规模模型训练经验,熟悉国产 AI 硬件(Ascend 910B、昆仑芯)。
二、全栈开发能力(前后端兼备)
1、精通 Python,熟悉异步编程、多线程/多进程开发。
2、熟悉 Web 框架(FastAPI / Flask / Django),具备 API 设计、数据库优化(MySQL / PostgreSQL / MongoDB)经验。
3、了解前端开发,掌握 Vue3 + TypeScript,熟悉 Composition API、Pinia 状态管理、Vite 构建。
4、具备前后端协同开发经验,能独立完成 AI 相关 Web 应用的架构设计。
加分项:有 LLM Chat UI / 数据标注平台等 AI 相关前端项目经验。
三、AI 工程化 & MLOps
1、熟悉 LLM 训练与推理的 MLOps(MLflow / Weights & Biases),具备 GPU 资源管理能力(A100 / H100 / MI300X)。
2、掌握 K8s、Docker、Triton Inference Server,实现大模型高效部署。
3、有 LangChain / LlamaIndex 经验,能结合 RAG 技术优化检索生成。
加分项:掌握 AI 量化(GPTQ、AWQ)、CUDA、cuDNN、TensorRT 优化。
四、团队管理 & 技术推动(主管能力)
1、5 年以上开发经验,2 年以上管理经验,带过 5 人以上团队。
2、具备技术选型、架构设计与团队培养能力,推动 AI 项目从 0 到 1 落地。
3、善于跨团队协作,与产品、算法、运维团队高效对接。
加分项:主导过大规模 AI 产品落地,有 AI 独角兽或创业公司经验。