「CS224n:深度自然语言处理课程」( Natural Language Processing with Deep Learning),由斯坦福大学出品,领衔主讲人 Richard Socher 授权雷锋字幕组译制,让你在了解丰富的自然语言处理基础理论的同时,学会将运用神经网络到实际问题中。
每周三更新,预计持续 18 周。
课程介绍
自然语言处理(NLP)是信息时代最重要的技术之一。理解复杂的语言话语也是人工智能的重要组成部分。NLP的应用无处不在,因为人与人之间大部分的沟通都需要语言:网络搜索,广告,电子邮件,客户服务,语言翻译,放射报告等。
NLP应用程序背后有大量的基础任务和机器学习模型。最近,深度学习方法通过不同的NLP任务实现了非常高的性能。这些模型通常可以通过单一的端到端模型进行训练,而不需要传统的、特定任务特征的工程。
在这个冬季课程中,学生将学习执行、训练、调试、可视化和创造他们自己的神经网络模型。该课程全面介绍了应用于NLP的深度学习尖端研究。在模型方面,我们将介绍词向量表示、基于窗口的神经网络、递归神经网络、长期短期记忆模型、递归神经网络、卷积神经网络以及一些涉及存储器组件的最新模型。
通过讲座和编程作业,学生将学会运用神经网络到实际问题中的必备技巧。
领衔主讲
Christopher Manning,自然语言处理领域著名学者,是国际计算机学会(ACM)、国际人工智协会(AAAI)、国际计算语言学会(ACL)等国际权威学术组织的会士,曾获ACL、EMNLP、COLING、CHI等国际顶会最佳论文奖,著有《统计自然语言处理基础》、《信息检索导论》等自然语言处理著名教材。
Richard Socher,Salesforce的首席科学家,也是斯坦福大学计算机科学系的兼职教授。2016年曾担任被Salesforce收购的MetaMind的创始人兼首席执行官兼首席技术官。
必备条件
所有课堂作业将在Python中(使用numpy和tensorflow)。这里有一个教程,用于那些不熟悉Python的人。如果你有很多编程经验,但使用不同的语言(例如C / C ++ / Matlab / Javascript),可能会更好。
你应该会求导数,也了解矩阵向量运算与符号。
你应该知道概率、高斯分布、均值、标准差等基本知识。
我们会用梯度下降制定成本函数、求导数及执行优化。cs221或cs229都会涵盖这些内容。掌握一些凸优化知识,优化技巧将会更直观。
课后作业
- 作业1:在这个任务中,我们将熟悉神经网络,词向量及其在情绪分析中的应用的基本概念。
- 作业2:在本作业中,您将学习TensorFlow的基础知识,使用TensorFlow为基于转换的依赖性分析实现前馈神经网络,并通过计算递归神经网络语言模型的渐变深入研究反向传播。
- 作业3:在本作业中,您将学习关于命名实体识别和实现基线窗口模型以及循环神经网络模型。该任务还涵盖门控周期性单位,将其应用于简单的一维序列和命名实体识别。
扫描以下二维码
备注“224n”
加入课程微信群