大模型时代
企业对人才的需求,变了 !

算法工程师 招聘被大模型方向主导,薪资远超传统算法岗位

  • 岗位要求
  • 工作职责

1. 熟练掌握Llama/GPT/BLOOM等大模型原理并具有实际落地经验
2. 对NLP大模型的技术,包括GPT、Instruction Tuning等有较为深入的了解和实践
3. 对常见大模型,如Llama/GPT/BART等技术实现和落地有实际经验
4. 熟练掌握GPT或其他大模型的等算法训练范式
5. 具备NLP大模型训练经验者优先
6. 参与或者领到过大型预训练大模型落地项目
7. 在NLP文本生成或大模型预训练方向有较深入研究
8. 对模型量化、性能优化有一定的了解

1. 从事大语言模型(LLM)预训练算法研究、训练、应用
2. 负责自然语言处理(NLP)方向基于GPU的并行多机多卡训练、高性能模型推理等
3. 参与研发预训练大模型等下一代人工智能核心技术
4. 基于海量对话数据,负责探索ChatGPT相关算法研究
5. 负责公司垂域智能对话算法开发
6. 跟踪与探索NLP业界前沿技术,具有快速复现及落地的能力
7. 前沿技术跟进研究,支持公司通用类和垂类预训练模型研发及效果持续优化
8. 优化大模型finetune性能,线上实时inference性能

GPT-4 拉开“通用人工智能 (AGI) ”序幕,算法领域迈入 “大模型” 时代

  • ChatGPT 的推出席卷全球科技行业,彻底颠覆人们对于传统AI行业和 技术的认知
  • GPT-4 继续 GPT 系列神话,在语言、数学、编程、视觉、医学、法律和心理学领域表现出色,接近人类水平
  • 鉴于 GPT 系列模型巨大的应用潜力和市场价值,国内头部互联网公司迅速跟进,先后推出了“文言一心”、“通义千问”、“日日新”等中文领域大语言模型
  • 大模型开源社区异常活跃,短时间内推出多个性能比肩 GPT 系列模型的开源大模型
  • 大厂公司高管及投资人纷纷下场创业,传统互联网公司纷纷加大大模型方面的投入,AIGC 及大模型领域呈现出前所未有的蓬勃发展景象
  • AIGC 及大模型领域人才需求井喷,企业开放大量高薪岗位

行业新鲜时报

  • 蚂蚁集团证实技术研发团队正在自研语言和多模态大模型 — “贞仪”。
  • 中科院计算所推出多语言大模型“百聆”,百聆是一个以 LLaMA 为基座的遵循指令的 LLM。评测实验表明,百聆使用更少的参数实现了与 GPT-3.5-turbo 相当的性能。
  • 北大团队开源首个中文法律大模型 — ChatLaw,并针对大语言模型和知识库的结合问题给出了法律场景下合理的解决方案。
  • 中国联通发布图文大模型“鸿湖图文大模型1.0”。鸿湖图文大模型是首个面向运营商增值业务的大模型,目前拥有8亿训练参数和20亿训练参数两个版本,可实现以文生图、视频剪辑、以图生图等功能。
  • 由上海人工智能实验室(上海AI实验室)牵头,并联合国内外顶级科研机构、高校及医院共同发布全球首个医疗多模态基础模型群“OpenMEDLab浦医”。
  • 美图发布七大AIGC新品,包括WHEE、开拍、WinkStudio、美图设计室2.0、AI数字人生成工具、RoboNeo美图AI助手、MiracleVision奇想智能等;
  • 幂律智能联合智谱AI发布基于中文千亿大模型的法律垂直大模型—PowerLawGLM。PowerLawGLM 法律大模型,基于智谱目前效果最好的ChatGLM130B通用千亿对话大模型进行联合研发。
  • 国内AI准独角兽企业实在智能 (Intelligence Indeed) 的自研垂直领域大语言模型—TARS(塔斯) 历经半年研发后,正式开启内测。
  • 理想汽车在发布会上展示了车载大语言模型MindGPT,理想汽车智能空间算法科学家陈伟博士表示:“我们以大模型MindGPT”为核心,打造了新一代多模态人机交互体系,全力支撑空间交互2.0的落地,让全家人都能轻松使用AI,让理想同学成为每一个家庭的新成员。

培养大模型人才
需要这样的课程

课程大纲:大厂大牛带路,直击大厂标准,实战贯穿全程

阶段一 深度学习基础 点击收起

核心技术

  • 深度学习基本概念
  • 深度学习经典模型解析
  • 深度学习模型优化策略解析
  • 深度学习GPU原理与应用方法
  • 深度学习GPU并行训练策略解析

掌握技能

  • 深度学习基本概念
  • Transformer 核心原理
  • BERT 系列模型核心原理
  • T5 模型核心原理
  • 深度学习模型优化策略
  • GPU架构原理与CUDA编程原理
  • GPU在深度学习训练/推理过程中的应用
  • GPU多卡并行技术

项目实战

深度学习模型多GPU训练实战
  • 1模型训练流程详解
  • 2模型训练环境搭建
  • 3模型 CPU/GPU 训练代码开发
  • 4模型 多GPU并行训练代码开发
  • 5模型推理代码开发
  • 6模型效果评估与优化

课程特点

覆盖深度学习基础理论,全方位讲解深度学习基本概念,从经典模型出发,深入浅出地讲解经典模型原理,对深度学习模型优化策略、GPU原理、CUDA编码原理、GPU应用方法及GPU多卡加速策略等核心技术进行细致讲解。 通过算法原理、企业经验及代码实践三位一体的课程安排,带你进入深度学习的世界,补齐你在模型理解和应用过程中的短板,让你更好的掌握深度学习基础技能。

阶段二 大模型基础 点击展开

核心技术

  • 大模型技术概述
  • GPT 系列模型核心原理详解
  • LLaMA 系列模型核心原理详解
  • BLOOM 系列模型核心原理详解
  • Baichuan 系列模型核心原理详解
  • Baichuan 系列模型源码详解
  • ChatGLM 系列模型核心原理详解
  • Qwen 系列模型核心原理讲解
  • Langchain 框架核心原理详解

掌握技能

  • GPT系列模型核心原理(GPT1/GPT2/GPT3/GPT4/InstructGPT)
  • LLaMA系列模型核心原理(LLaMA/LLaMA2/Alpaca/Vicuna/BaiChuan2)
  • 优秀开源大模型核心原理(BLOOMZ/ChatGLM3/Qwen1.5)
  • 大模型应用框架LangChain核心原理

项目实战

Langchain + LLM 本地化Agent实战
  • 1Langchain六大核心模块原理详解与代码实现
  • 2Langchain + LLM 本地化Agent系统设计
  • 3Langchain + LLM自定义Tools实现
  • 4Langchain + LLM系统部署
  • 5Langchain + LLM应用接入

课程特点

从论文出发,全面覆盖大模型核心技术原理,深入浅出的讲解大模型相关技术、核心模型原理及模型源码,为之后的大模型实践打下坚实的理论基础。

阶段三 多模态基础 点击展开

核心技术

  • 多模态技术概述
  • Vit模型核心原理详解
  • CLIP模型核心原理详解
  • ALBEF模型核心原理详解
  • BLIP/BLIP-2模型核心原理详解
  • LLaVA模型核心原理详解
  • Qwen-VL模型核心原理详解

掌握技能

  • 多模态技术核心原理
  • 经典多模态模型核心原理(Vit/CLIP/ALBEF/BLIP)
  • 多模态大模型核心原理(BLIP-2/LLaVA/Qwen-VL)

课程特点

从论文出发,全面覆盖经典多模态模型及多模态大模型,深入浅出的讲解多模态相关技术。

阶段四 大模型微调基础 点击展开

核心技术

  • 大模型微调概述
  • 大模型微调核心要素
  • 大模型微调数据收集与评估
  • 大模型Tuning技术详解
  • 大模型PEFT技术详解
  • 大模型全参数微调技术详解
  • 大模型CoT/ToT/GoT/AoT 技术详解
  • 大模型 DPO 技术详解
  • 大模型内容生成技术详解

掌握技能

  • 大模型微调所需的核心要素
  • 大模型微调的数据收集和处理过程
  • 使用ChatGPT 获取高质量训练数据
  • 大模型Tuning技术核心原理 (Prompt-Tuning/Instruction-Tuning/P-Tuning)
  • 大模型PEFT技术核心原理
  • 大模型全参数微调技术核心原理(DeepSpeed)
  • 大模型CoT/ToT/GoT/AoT 技术详解
  • 大模型DPO技术核心原理
  • 大模型微调代码实现与参数配置
  • 通过大模型微调解决传统NLP任务

项目实战

基于常规NLP任务的大模型微调实战
  • 1NLP常规任务方案设计
  • 2大模型训练环境搭建
  • 3大模型微调代码详解
  • 4大模型微调参数详解
  • 5基于常规NLP任务的大模型微调

课程特点

大模型微调技术栈全覆盖,深入讲解所有主流大模型微调技术,深入讲解大模型核心训练代码,通过使用大模型完成传统NLP任务,让你真正的掌握大模型微调的整体流程。

阶段五 大模型实战 点击展开

核心技术

  • 实战项目—基于大模型的可视化AIGC问答系统开发
  • AIGC问答系统—大模型训练环境搭建
  • AIGC问答系统—大模型数据收集与 instruction 设计
  • AIGC问答系统—通用大模型微调代码开发(支持多模型/多框架)
  • AIGC问答系统—Baichuan2多GPU LoRA微调实现
  • AIGC问答系统—Baichuan2多GPU 全参数微调实现
  • AIGC问答系统—Qwen1.5多GPU LoRA微调实现
  • AIGC问答系统—Qwen1.5多GPU 全参数微调实现
  • AIGC问答系统—大模型性能评估体系搭建
  • AIGC问答系统—大模型部署与服务接口开发
  • AIGC问答系统—大模型界面化调用系统开发
  • 项目总结与答疑

掌握技能

  • 基于大模型的智能对话系统架构
  • 大模型训练的环境搭建与数据收集过程
  • 支持多种模型多种训练框架的微调代码开发
  • 大模型多GPU LoRA/全参数微调技巧
  • 大模型评估策略
  • 大模型训练的完整开发流程
  • 大模型界面化调用系统

课程特点

从实战项目出发,基于企业应用最广泛的Baichuan2及Qwen1.5,从零搭建基于大模型的AIGC对话系统,让学员掌握从环境搭建、数据构建、大模型微调到界面化调用的整个过程,掌握大模型微调的完整链路,并建立界面化的大模型调用系统。

案例展示

课程讲师:AI大厂实战型专家

  • 姜夏字节跳动AI算法专家

    从业7年,先后在字节跳动、VIVO人工智能研究院等公司从事智能对话、知识图谱、大模型应用等工作,曾主导研发面向亿级用户的智能对话系统及百亿量级知识图谱系统,具有深厚的理论积累和丰富的模型应用经验

  • 刘毅阿里巴巴达摩院AI高级算法专家

    先后就职于百度自然语言处理部,阿里巴巴达摩院,担任算法研究员,在ACL/EMNLP/COLING等会议发表多篇学术文章,并担任顶会审稿人。从事大型语言模型训练及应用5年,曾主导百亿参数模型研发迭代,在自然语言处理,预训练,强化学习方面有丰富的理论及实战经验

适学人群

  • 算法工程师

    了解机器学习/深度学习基本
    概念的在职算法工程师

  • 在读大学生

    相关专业的
    在校学习大学生

  • AI爱好者

    对人工智能有浓厚的兴趣
    想从事相关工作者

只要你热爱学习,热爱编程,改变世界的任务就会落在你身上,
一起行动起来吧