0 介绍李宏毅
在学习本课程之前,,有必要简单了解老师的生活。
1)简介:
李宏毅(1985年或1986年-),台湾计算机科学家国立台湾大学电机工程系教授,研究领域包括语义理解、语音识别、机器学习、深度学习等。
2)早年生活:
大学二年级时,李宏毅,对电机系的许多课程感到困惑c;曾经很沮丧,很迷茫,#xff00c;甚至有退学的念头。当时他选择了“数字通信处理”课程,发现自己很难理解但他并没有放弃不放弃选择不退修最后突然开朗“当我用手机给别人打电话时,#xff0c;这些信号处理发生在中间。”找到学习兴趣后,李宏毅开始跟随中央研究院院士李琳山做项目c;然后在2010年从国立台湾大学获得硕士学位,2012年获得博士学位。2012年9月至2013年8月,李宏毅是中央研究院信息技术创新研究中心的博士后研究员。2013年9月,他作为客座科学家前往麻省理工学院计算机科学与人工智能实验室。2014年返回台湾,自担任台湾大学电机工程系教师以来,
3)开设课程:
2015年李宏毅开始在台湾大学教授机器学习课程,选课人数通常爆满有400多人来修理。所以李宏毅把学生分成两个教室,现场看老师上课另一个同步观看直播。由于直播课的诸多限制,李宏毅养成了录制课程电影的习惯。起初,李宏毅将电影上传到个人主页,后来,由于屏幕侧录软件的序号过期,MP4不能导出c;但是有选项导出到YouTube,于是李宏毅开始将课程片上传到YouTube。此举不仅帮助了台湾大学的学生,嘉惠台湾大学以外的学生也出乎意料。在电影的底部,还有来自中国大陆的学生留言感谢,他说他已经听完了所有的课程并留下笔记链接。截至2021年9月30日,在李宏毅的YouTube频道上,有超过20万名订户,最受欢迎的电影有61万次观看 (页面存档备份存储在互联网档案)中;。李宏毅擅长使用简单易懂的语言,复杂的机器学习技术,用学生喜爱的精灵宝可梦、凉宫春日等动画来讲解c;因此,它被亲切地称为“精灵宝可梦大师”。中华民国计算机学会称李宏毅为“第一位公开、系统、深入地讲解深度学习技术的学者,使中国的深度学习教学与英语世界并驾齐驱。"。
注:
以上资料来源于李宏毅 (计算机科学家) - 维基百科 。1 前言:
在学习这门课程之前,我系统地学习了
吴恩达先生的机器学习和深度学习课程,并记录了更详细的笔记,有需要的朋友可以参见:深度学习入门指南-2022吴恩达学习笔记《Machine Learning》篇(已完成,超详细)#xff0;
深度学习入门指南-2021吴恩达学习笔记deplearning.ai《深度学习专项课程(》;已完成)
2 所有课程思维导图李宏毅#xff1a;
。
总结李宏毅的课程 本课程是2024年最新开设的课程——《GENERATIVE AI》。 3 课程视频:
官网:Introduction to Generative AI 2024 Spring。
Youtube:[生成人工智能导论 2024年第0讲:课程说明 (17:15 还有芙莉莲雷)。
BiliBili:2024年李宏毅的《生成人工智能导论》。
4 参考笔记和资源:
笔记:
[note] 2024年生成型AI导论_李宏毅 - HackMD。
学习笔记:《生成AI导论2024》 李宏毅 - 飞书云文档
李宏毅2024年生成人工智能导论笔记 - 知乎
李宏毅2024年生成的人工智能导论 指导和操作中文镜像版。
资源:
1)PPT/PDF。
李宏毅生成了人工智能教程LegenAIn-Tutorial。
Introduction to Generative AI 2024 Spring。
2)课后作业(HomeWork)

Introduction to Generative AI 2024 Spring。
3)代码。

AI-Guide-and-Demos-zh_CN。
我(作者)在上述链接中;大陆镜像版制作了本课程作业c;更换API,需要在操作中翻墙才能获得c;并:
- 使用行为 OpenAI 更换库。
- - 使用 ipywidgets 模拟 Colab 的交互。
- - 用中文作业指导 如今,您可以在不翻墙的情况下完成课程的所有工作。
- 所有代码文件均已打开:https://github.com/Hoper-J/LLM-Guide-and-Demos-zh_CN。
(中文镜像版的制作与分享已获李宏毅老师授权)
5 。

学习笔记:注:以下作业的大部分内容来自人工智能-Guide-and-Demos-zh_CN,非常感谢这位前辈的无私奉献。
除了“补充”a;创建和调用API外其他补充内容为选修,有选择地浏览和学习。
日期。
内容。 | 笔记链接。 | 作业链接。 | 扩展内容。 | 2/23。 |
---|
课程内容描述。 | 第0讲+第一讲。 | 补充:创建和调用API | 80分钟快速全面地了解大型语言模型 | 3/1。 |
提示工程 & AI 代理人 | 第二讲+第三讲。 | 补充:创建和调用API。 | 提示工程指南。 | 3/8。 |
生成策略 & 从专才到通才 | 第四讲。 | HW3:使用API快速构建AI应用 | 语言模型如何学习使用工具 | 3/22。 |
深度学习 & Transformer。 | 第5讲 + 第六, | HW4:自定义 Prompt 提高解决大模型问题的能力 | 让 AI 村民组成虚拟村庄会发生什么?#xff1f; | 补充1:认识 LoRA。 |
补充2:理解 HF 的 AutoModel 系列 |
补充3:部署你的第一个语言模型——本地或云。 |
机器学习模型的可解释性。 | 补充4:模型参数与图形内存之间的关系,以及不同精度的影响。 |
3/29。 |
深度学习 & Transformer。 | 7. | HW5:尝试微调 LLM:让它写唐诗。 | Llama 2 论文链接 | 补充1:深入理解 Beam Search原理, 实现示例和代码 |
Llama2论文精读-参考1。 | 补充2:||Top-K vs Top-P|-生成模型中的采样策略和 Temperature 的影响。 |
Llama2论文精读-参考2。 | 4/12。 |
评估生成人工智能 & 道德议题。 | 第8讲 + 第9讲。 | HW6:DPO LLM大语言模型根据人类的喜好进行优化。 | 由大型语言模型驱动的智能体的兴起和潜力:一项调查。 | 5/03。 |
Transformer & 可解释的生成人工智能。 | 第10讲 + 第11讲。 | HW7:Inseq 特征归因-可视化解释 LLM 的输出。 | 解释Transformer架构。 | 用AI来解释AI。 |
5/10。 |
评估生成人工智能 & 道德议题。 | 第12讲 + 第13讲。 | HW8:了解人工智能可能存在的偏见。 | 大型语言模型能否取代人类评估?f; | 补充1:快速应用于大模型 LoRA。 |
使用MT-Bench和Chatbot 作为“评价”,Arena评价大语言模型的能力。 | 大型语言模型中的偏见和公平性研究。 |
5/17。 |
生成策略。 | 第14讲 + 第15讲 + 第16讲。 | HW9:使用大模型 API 快速摘要视频(音频处理) | SpecInfer:通过基于树的推测、推理和验证,加快生成大语言模型的服务。 | 5/31。 |
生成人工智能的图像。 | 第17讲+第18讲。 | HW10:尝试使用 LoRA 微调 Stable Diffusion 模型(文生图) | 视觉语言模型简介。 | 综述视频扩散模型。 |
VAE的解释。 |
解释GAN。 |
Flow的解释。 |
解释Diffusion。 |
Extra lesson。 |
GPT-4o。 | Extra lesson。 | N/A。 | 6 参考文献: |
李宏毅 (计算机科学家) - 维基百科免费百科全书。