联系

小象学院《自然语言处理》第二期

内容简介

英国布里斯托(Bristo)大学

硕士、博士。美国加州大学伯克

利分校( UC Berkeley)博士后、

牛津(Oxford)大学与卡内基梅隆

大学(CMU)访问学者。目前主

要研究方向为数据挖掘、跨媒体

检索与自然语言理解。出版英文

PS:注意课程有点老,不建议作为主课看。

小象学院《自然语言处理》第二期

资源目录

——/计算机教程/09-其他/213-小象学院《自然语言处理》第二期/

01-第1章:自然语言与数学之美

1.1 课程简介及推荐书目.flv 9.91M

1.10 凸集合和凸函数.flv 6.51M

1.2 NLP的研究领域及应用.flv 12.59M

1.3 自然语言的6个重要术语.flv 6.07M

1.4 语言学的发展史 1.flv 27.07M

1.5 语言学的发展史 2.flv 19.80M

1.6 语言学的发展史 3.flv 24.63M

1.7 函数.flv 8.97M

1.8 向量与向量的模.flv 11.48M

1.9 矩阵和矩阵运算.flv 11.88M

02-第2章:基于机器学习方法的自然语言处理

2.1 主观概率和客观概率.flv 8.11M

2.10 辛普森悖论和贝叶斯概率解题实例.flv 21.80M

2.2 概率模型与条件概率.flv 12.63M

2.3 贝叶斯原理与推理.flv 18.30M

2.4 随机变量:二项式概率.flv 15.09M

2.5 随机变量:期望与方差.flv 10.85M

2.6 随机变量:联合概率.flv 3.33M

2.7 伯努利分布和二项式分布.flv 12.97M

2.8 多项式分布、伽玛分布和Beta分布.flv 9.12M

2.9 泊松分布、高斯分布、对数正态分布和指数分布.flv 11.25M

03-第三章:1、2章答疑

第一周答疑.flv 85.58M

04-第四章:自然语言

3.1 语言的进化:来自自然选择的社会协作.flv 20.40M

3.2 语言的进化:语言游戏与摩斯密码.flv 13.31M

3.3 语言与智能:信息熵.flv 15.22M

3.4 语言与智能:交叉熵的定义.flv 21.51M

3.5 语义的进化.flv 20.31M

3.6 语言模型:语言概率.flv 7.07M

3.7 词袋模型.flv 10.35M

3.8 二元语言模型:CR情感分析.flv 27.54M

05-第5章:语言模型和中文分词

4.1 三元语言模型.flv 18.06M

4.10 N-Gram模型.flv 3.34M

4.11 Optimal Path 最优路径模型.flv 1.56M

4.12 中文分词工具:Jieba.flv 8.40M

4.2 语言模型评价:交叉熵.flv 8.43M

4.3 语言模型评价:Perplexity(困惑度).flv 9.47M

4.4 语言评价模型:Interpolation(插值法).flv 5.13M

4.5 概率模型:垃圾邮件分类.flv 17.99M

4.6 概率模型:拼写检查.flv 29.38M

4.7 语音模型和机器翻译模型.flv 5.43M

4.8 中文构词法.flv 13.87M

4.9 最大化匹配.flv 3.25M

06-第6章:第二周答疑

第二周答疑.flv 140.36M

07-第7章:语言技术-词表达和Word2Vec

5.1 词表达.flv 6.30M

5.10 Word2Vec-Part 3.flv 23.82M

5.2 语义相似度.flv 12.01M

5.3 TF-IDF权重处理.flv 5.17M

5.4 One-Hot表达.flv 5.28M

5.5 神经网络基础.flv 15.30M

5.6 神经网络:反向传播 1.flv 9.05M

5.7 神经网络:反向传播 2.flv 19.26M

5.8 Word2Vec-Part 1.flv 21.52M

5.9 Word2Vec-Part 2.flv 25.45M

08-第8章:语言技术-词性

6.1 什么是词性标注(POS Tagging).flv 7.61M

6.10 混合模型详解5:隐马尔科夫模型.flv 21.36M

6.2 词性标注的方法.flv 7.21M

6.3 词性的标注类别和标注集.flv 9.38M

6.4 规则标注和N-Gram方法.flv 6.02M

6.5 从混合模型到HMM.flv 14.31M

6.6 混合模型详解1:EM模型.flv 32.65M

6.7 混合模型详解2:EM模型.flv 22.88M

6.8 混合模型详解3:高斯混合模型.flv 16.78M

6.9 混合模型详解4:隐马尔可夫模型.flv 21.71M

09-第9章:第三周答疑

第三周答疑.flv 28.43M

10-第10章:语言技术-概率图模型

7.1 概率图模型:贝叶斯网络(有向无环图).flv 8.31M

7.2 概率图模型:分层图模型.flv 4.04M

7.3 概率图模型:隐马尔科夫链.flv 3.68M

7.4 隐马尔可夫模型的推导 1.flv 25.84M

7.5 隐马尔科夫模型的推导 2.flv 25.88M

7.6 隐马尔科夫模型的推导 3.flv 33.31M

7.7 隐马尔科夫模型的推导 4.flv 29.12M

7.8 PLSA主题模型1.flv 11.97M

7.9 PLSA主题模型 2.flv 11.25M

11-第11章:语言技术-文本与LDA主题模型

8.1 向量表达和潜在语义索引(LSI).flv 6.56M

8.10 实验报告:文本语义相似度.flv 5.83M

8.11 延展实验:主题模型引入字词关系的实现.flv 15.36M

8.12 实验总结.flv 5.26M

8.2 LDA和狄利克雷分布.flv 17.13M

8.3 LDA主题模型.flv 24.67M

8.4 主题模型的深化与对比.flv 18.30M

8.5 语义距离(Semantic Distance).flv 6.84M

8.6 中文LDA模型:Word-base 和 Character-Base.flv 6.91M

8.7 实验报告:困惑度(Perplexity).flv 3.48M

8.8 实验报告:文本分类准确度.flv 8.13M

8.9 中英双语料库实验.flv 3.45M

12-第12章:第四周答疑

第四周答疑.flv 51.72M

13-第13章:语言技术-句法

9.1 上下文无关句法(CFG)-Part 1.flv 31.42M

9.2 上下文无关句法(CFG)-Part 2.flv 30.86M

9.3 概率上下文无关句法(PCFG)- Part 1.flv 59.30M

9.4 概率上下文无关句法(PCFG)-Part 2.flv 31.32M

9.5 概率上下文无关句法(PCGF)-Part 3.flv 43.95M

14-第14章:机器翻译

10.1 机器翻译(Machine Translation)-Part 1.flv 15.03M

10.2 机器翻译(Machine Translation)-Part 2.flv 18.25M

10.3 机器翻译(Machine Translation)-Part 3.flv 37.06M

10.4 机器翻译(Machine Translation)-Part 4.flv 26.51M

10.5 机器翻译(Machine Translation)-Part 5.flv 34.76M

10.6 机器翻译(Machine Translation)-Part 6.flv 39.90M

15-第15章:第五周答疑

第五周答疑.flv 30.24M

16-第16章:卷积神经网络CNN

11.1 神经元.flv 5.54M

11.2 全连接网络及特性.flv 15.85M

11.3 Auto-Encode 自编码器.flv 6.02M

11.4 反向传播(BP).flv 33.44M

11.5 卷积神经网络(CNN)的理解.flv 7.40M

11.6 CNN的基本原理:卷积核、权重和池化.flv 11.27M

11.7 CNN的计算过程.flv 13.47M

11.8 CNN如何应用在自然语言处理中.flv 15.92M

17-第17章:循环神经网络RNN

12.1 循环神经网络的基本原理.flv 18.03M

12.2 Elman Network和Jordan Networ.flv 2.64M

12.3 LSTM的核心思想.flv 11.45M

12.4 LSTM的分步实现详解.flv 17.15M

12.5 Encoder-Decoder 框架.flv 15.26M

12.6 Seq2Seq 模型.flv 24.49M

12.7 注意力机制(Attention Mechanism).flv 17.27M

18-第18章:第六周答疑

第六周答疑.flv 23.31M

19-第19章:注意力机制

13.1 注意力机制产生的背景回顾.flv 20.67M

13.2 注意力模型的实现原理.flv 7.57M

13.3 注意力模型的应用领域.flv 8.75M

13.4 记忆网络(Memory Network)的组成.flv 18.61M

13.5 记忆网络的计算过程和实现方法.flv 22.62M

13.6 匹配函数(Match Function).flv 5.52M

13.7 注意力模型的延展1:Neural Programmer.flv 6.54M

13.8 注意力模型的延展2:神经图灵机.flv 27.65M

20-第20章:广义模型(Universal Transformer)

14.1 UT的典型结构:Stack of Encoder and Decoder.flv 7.16M

14.2 Self-Attention的计算.flv 17.08M

14.3 Multi-Head Attention 和前向反馈神经网络FFNN.flv 8.81M

14.4 位置编码(Positional Encoding).flv 4.51M

14.5 层泛化(Lay Normalization).flv 7.00M

14.6 Softmax Layer:交叉熵和损失函数的计算.flv 10.85M

14.7 ACT模型(Adaptive Computation Time).flv 25.35M

14.8 Universal Transformer 的完整实现流程.flv 9.90M

21-第21章:第七周答疑

第七周答疑.flv 17.61M

22-第22章:自然语言研究的未来方向

15.1 自然语言研究可行方向:知识图谱与深度学习的结合.flv 6.61M

15.2 语义关系计算与知识库.flv 17.11M

15.3 知识库推理学习:Neural Tensor Network.flv 21.51M

15.4 跨媒体信息搜索:CMIR.flv 13.73M

15.5 文本图卷积网络(Text GCN).flv 39.91M

15.6 NLP未来的探索方向.flv 15.40M

资料

01第一课:自然语言与数学之美.pdf 2.48M

02第二课:基于机器学习方法的自然语言处理.pdf 3.54M

03第三课:自然语言.pdf 2.83M

03第三课资料 1.pdf 3.55M

03第三课资料 2.pdf 142.06kb

03第三课资料 3.pdf 362.29kb

04第四课:语言模型.pdf 1.05M

04第四课资料.pdf 1.01M

05第五课课件.pdf 2.77M

06第六课课件.pdf 1.06M

07第七课课件.pdf 1.61M

第7课 note.pdf 732.79kb

第六课 Note.pdf 1.26M

第十三课 课件.pdf 14.26M

第十一课:循环神经网络.pdf 6.19M

您可能还喜欢...

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注