LLM学习路线详细版:
阶段一: 大模型是当代的智力引擎,带来10X Better的解决方案
▢ 大模型是信息时代的智力引擎:
  • 学会利用大模型高质量,低成本,全天候在线的智力(语义理解和逻辑推理能力)快速实现对业务的赋能。
  • 智力成本的急速降低会改变很多商业模式的成本结构,创造大量新机会。
▢ 先实践就能带来先发优势:
  • LLM本质是实践科学,ChatGPT的成功是工程实践的突破,但是真正落地做出效果好的大模型不容易。
  • Pre-training和Finetuning阶段数据集的搭建,RLHF,Prompt Engineering等都需大量工程探索,先发者可以形成数据飞轮,和后发者迅速拉开差距。
▢ 给一些行业提供10X Better的解决方案,甚至创造一些新的行业

影视创作AI公司Runway,把常规的40~人的特效团队做到了 5个人+Runway,效果还比之前好,

阶段二、 多体验产品,了解Use case和能力边界

积极体验大模型产品,一方面可以给自己的工作流提效,另一方面也能深入了解GPT的各种使用场景,以及大模型能力边界,尤其注意观察使用中的痛点和局限性(如Token上限,幻觉Hullucination等)。

▢ 体验大模型ChatGPT, Claude, Poe(poe.com)等,搭配Plugin插件体验更佳

▢ 体验大模型的应用:New Bing, Github Copilot, Character.ai, Replica, Chirper AI (AI机器人交流的Twitter),ChatPDF,Jasper AI, notion ai

▢ 积极尝试在自己的工作流中嵌入 ChatGPT / MidJourney 等产品:写代码,写周报,脑暴想法,总结文档,翻译等。生活中的问题也可以积极问。

▢ 注册一个 ChatGPT 账号,并获得 OpenAI 的API Key:踏上GPT产品开发之旅的第一步,也是通往无限可能的起点。

▢ 注册Google Colab(不用下载or配置本地环境即可线上实现很多大模型的框架,还有一定的免费GPT),多去Hugging Face :((有大量开源模型,数据集,以及模型的线上体验))

阶段三、 进阶之路 Prompt Engineering

▢ 调整Prompt来逐渐提升回复的质量:可以在Poe,或者在Colab中实操各种prompt Engineering。关注和学习高阶技巧,

▢ Prompt是科学也是艺术:好的Prompt能够让GPT学会调用工具和API(HuggingGPT),学会操控机器人(Google SayCan),学会和其他AI Agent协同(CAMEL)。

▢ 掌握Prompt Engineering通用原则:Few-shot prompting, Chain of Thoughts,  Self-Ask等等,
推荐课程:微软官方出的Prompt engineering techniques,OpenAI Cookbook ,吴恩达Prompt Engineering For Developers

▢ Prompt Enginnering进阶技巧:ToT, Automatic Prompt Engineer (APE), APE ,Prefix-Tuning, P-Tuning, Prompt Tuning。

阶段四:Build with LLM 建造自己的AI助手

实践开干,LLM应用层程序开发:掌握开发框架可以极大的提升实践效率,同时Github上有大量GPT开源项目可以参考实践。动手实践干中学。

▢ 学习Langchain框架 :LangChain是目前LLM应用搭建最主流的框架,能给LLM这个“大脑”组装上“手”和“腿”,一定要了解Agent,Memory,Chain等核心概念
▢ OpenAI CookBook :对于开发人员来说,这是使用Open AI的指南和代码示例的权威集合

▢ Open AI Techniques to Improve LLM Reliability

▢ LLM Bootcamp :构建基于LLM的应用程序的实用课程

▢ 微软的Prompt模板

https://github.com/microsoft/guidance/blob/main/notebooks/chat.ipynb

▢ 实现类似于ChatPDF这样的简单应用: 例如lanchain-GLM,学会如何给ChatGPT灌输外部知识

▢ DataWhale ChatGPT开发应用指南
https://github.com/datawhalechina/hugging-llm/tree/main/content

▢ 试着复现一下AutoGPT:

▢ 结合业务,想一想大模型有什么业务落地点,通过大模型快速测试下

▢ 考虑对模型进行训练:例如 LoRA 等微调方法来进行Fine tune,或者更进一步进行 Pre-training
随着实践的不断增加,会发现有一些情况无论怎么调整Prompt,模型都不能按期望工作,此时就要考虑对模型进行训练了,

阶段五:学习GPT理论和前沿

▢ State of GPT :主讲人Andrej Karpathy主导Tesla Autocopilot自动驾驶系统的研发。视频中Andrej讲解了ChatGPT的原理和训练过程,以及给实践者的建议

▢ 从0到1构建GPT: Andrej的另一个视频,手把手教你写代码从0到1构建GPT

▢ RLHF:来自人类反馈的强化学习:RLHF原理解释,使LLM和人类的意图更加对齐,这是ChatGPT成功最重要的方面。

▢ A16Z整理的AI学习资料 :A16Z整理的AI典藏

▢ 了解Transformer架构 :了解它和之前的RNNCNN的区别和联系 MIT Introduction to Deep Learning: Transfomers , 反向传播, Embedding

阶段六:商业模式与思考:大模型的增量价值到底在哪?

新的技术变革发生的时候,大家都在思考未来10年最大的机会在哪?我也在思考这个问题,目前我的判断是对大多数公司和个人的最好的机会是在大模型的应用。现在的行业肯定有泡沫存在,但是最后存活下来的是那些从痛点出发,真正能解决问题的公司。落到机会点上:
▢ 成熟企业的机会:成熟企业因为已经有足够的数据积累和流量入口,在业务场景中整合大模型会吃到相当大的红利

办公系统的微软(Office Copilot),搜索领域的谷歌(Bard),内容行业的Notion AI,代码生成的GithubGithub Copilot),创意领域的Adobe(推出Adobe Firefly),其他互联网的主流领域,例如电商、娱乐资讯、以及SaaSCRM)等的现有玩家,只要速度不要太慢,不太会被创业公司颠覆。

▢ 初创企业机会:AI native的赛道,例如AI陪伴,个人助手,企业场景下的数字员工等全新的应用场景。

▢ 垂直行业的机会,尤其是缺乏数字化基因的垂直行业:例如和巨头联合共建法律,医疗,房地产的大模型,Harvey AI, Hippocratic AI就是这样的例子。

同时推荐一些值得重点关注的前沿方向:
  • 多模态大模型,尤其是视觉方面的大模型

  • 降低模型训练&推理成本方面的进展,实现私有化部署,甚至是边缘计算

  • 提升推理能力的技巧,防止幻觉,增加Memory

  • GPT调用工具的能力

  • AI可解释性与AI和人类意图的对齐

 

来源公众号  轻松玩转AI 与 XG互联 ,原文地址https://mp.weixin.qq.com/s/Sji1sHMPS4O7ndoN1atffA