讲讲最近的实习经历,也算是如愿半路出家跳入 NLP 坑里来了。
这是我第一次写回顾总结性质的文章,真正坐下来开写的时候,才意识到想把一件事物按其历史发展总结展望一下的难度还是蛮大的。
比较惊讶的是这样的一门课居然会拿出一节课的时间来介绍 TensorFlow,看来老外们也深谙磨刀不误砍柴工的哲理啊。
Parsing 这块之前是我的知识盲区,在上完这节课后觉得还是一知半解,准备把这个坑先留着,等之后翻一些 Parsing 的论文后再同这节课一块写。
本文是 FAIR 在 ACL17 上面的一篇文章。目的是为了解决 NLP 中常见的文本分类问题,并且能够产生词向量作为副产物。
印象中几乎所有 ML / DL 课程都会介绍一遍 BP 算法,本门课也绕不过 BP 这座山。这节课主要介绍的是 BP 算法和对课程项目的一些建议,因为前者已经是老生常谈的了,所以只能写写后者了。
这节课 Socher 小哥讲的是根据文本的上下文来进行分类预测的问题。
这是一篇最终收录在 TACL2018 上面的文章,讲的是词向量中一词多义的问题。
这节课一开始先回顾了一下上节课的内容,Word2Vec。
cs224n 这门课很有意思的一个地方在于教授会让 TA 在中场休息时候花个 5 分钟左右的时间来讲一下当前的研究亮点。我觉得这点很可取,这么做有助于学生开拓思路、紧跟当下热点,可惜这种做法在国内的大学中是很少能够看见。