AIPM应该懂的自然语言处理(NLP)知识
NLP是工智能的一个子域,作为AI产品经理,我们至少要知道NLP是什么,它能做什么事,这样我们就能获得一种解决问题的思维,将遇到的问题和方法连接起来。 接下来我从“NLP是什么、能做什么、目前遇到的难题”三个方面来简单介绍下NLP。
一.什么是NLP
NLP,中文叫自然语言处理,简单来说,是一门让计算机理解、分析以及生成自然语言的学科,大概的研究过程是:研出可以表示语言能力的模型——提出各种方法来不断提高语言模型的能力——根据语言模型来设计各种应用系统——不断地完善语言模型。
NLP理解自然语言目前有两种处理方式:
1.基于规则来理解自然语言,即通过定一些系列的规则来设计一个程序,然后通过这个程序来解决自然语言问题。 输入是规则,输出是程序;
2.基于统计机器学习来理解自然语言,即用大量的数据通过机器学习算法来训练一个模型,然后通过这个模型来解决自然语言问题。 输入是数据和想要的结果,输出是模型。
接下来简单介绍NLP常见的任务或应用。
二.NLP能做什么:
1.分词
中文可以分为字、词、短语、句子、段落、文档这几个层面,如果要表达一个意思,很多时候通过一个字是无法表达的一个含义的,至少一个词才能更好表达一个含义,所以一般情况是以“词”为基本单位,用“词”组合来表示“短语、、句子、段落、文档”,至于计算机的输入是短语或句子或段落还是文档就要看具体的场景。 由于中文不像英文那样词与词之间用空格隔开,计算机无法用区分一个文本有哪些词,所以要进行分词。 目前分词常用的方法有两种:
(1)基于规则:Heuristic(启发式)、关键字表
(2)基于机器学习/统计方法:HMM(隐马尔科夫模型)、CRF(条件随机场)
(注:在这里就不具体介绍方法的原理和实现过程了,大家感兴趣,可以自行百度了解)
现状分词这项技术非常成熟了,分词的准确率已经达到了可用的程度,也有很多第三方的库供我们使用,比如jieba,所以一般在实际运用中我们会采用“jieba+自定义词典”的方式进行分词。
2.词编码
现在把“我喜欢你”这个文本通过分词分成“我”、“喜欢”、“你”三个词,此时把这三词作为计算机的输入,计算机是无法理解的,所以我们把这些词转换成计算机能理解的方式,即词编码,现在普遍是将词表示为词向量,来作为机器学习的输入和表示空间。 目前有两种表示空间:
(1)离散表示:
A.One-hot表示
假设我们的语料库是:
我喜欢你你对我有感觉吗
词典{“我”:1,“喜欢”:2,“你”:3,“对“:4,“有”:5,“感觉”:6,“吗”:7}。 一共有七个维度。
所以用One-hot表示:
“我” :[1,0,0,0,0,0,0]
“喜欢”:[0,1,0,0,0,0,0]
········
“吗” :[0,0,0,0,0,0,1]
即一个词用一个维度表示
B.bagofword:即将所有词的向量直接加和作为一个文档的向量。
所以“我喜欢你”就表示为:“[1,1,1,0,0,0,0]”。
C.Bi-gram和N-gram(语言模型):考虑了词的顺序,用词组合表示一个词向量。
这三种方式背后的思想是:不同的词都代表着不同的维度,即一个“单位”(词或词组合等)为一个维度。
(2)分布式表示:word2vec,表示一个共现矩阵向量。 其背后的思想是“一个词可以用其附近的词来表示”。
离散式或分布式的表示空间都有它们各自的优缺点,感兴趣的读者可以自行查资料了解,在这里不阐述了。 这里有一个问题,当语料库越大时,包含的词就越多,那词向量的维度就越大,这样在空间储存和计算量都会指数增大,所以工程师在处理词向量时,一般都会进行降维,降维就意味着部分信息会丢失,从而影响最终的效果,所以作为产品经理,跟进项目开发时,也需要了解工程师降维的合理性。
3.自动文摘
自动文摘是指在原始文本中自动摘要出关键的文本或知识。 为什么需要自动文摘?有两个主要的原因:(1)信息过载,我们需要在大量的文本中抽出最有用、最有价值的文本;(2)工摘要的成本非常高。 目前自动文摘有两种解决思路:第一种是extractive(抽取式),从原始文本中找到一些关键的句子,组成一篇摘要;另一种方式是abstractive(摘要式),计算机先理解原始文本的,再用自己的意思将其表达出来。 自动文摘技术目前在新闻域运用的最广,在信息过载的时代,用该技术帮助用户用最短的时间了解最多、最有价值的新闻。 此外,如何在非结构的数据中提取结构化的知识也将是问答机器的一大方向。
4.实体识别
实体识别是指在一个文本中,识别出具体特定类别的实体,例如名、地名、数值、专有名词等。 它在信息检索、自动问答、知识图谱等域运用的比较多。 实体识别的目的就是告诉计算机这个词是属于某类实体,有助于识别出用户意图。 比如百度的知识图谱:
“周星驰多大了”识别出的实体是“周星驰”(明星实体),关系是“年龄”,搜索系统可以知道用户提问的是某个明星的年龄,然后结合数据“周星驰 出生时间 1962年6月22日”以及当前日期来推算出周星驰的年龄,并把结果直接把这个结果显示给用户,而不是显示候选答的链接。
此外,NLP常见的任务还有:主题识别、机器翻译、文本分类、文本生成、情感分析、关键字提取、文本相似度等,以后有时间再为大家做简单介绍。
三.NLP目前存在的难点
1.语言不规范,灵活性高
自然语言并不规范,虽然可以找一些基本规则,但是自然语言太灵活了,同一个意思可以用多种方式来表达,不管是基于规则来理解自然语言还是通过机器学习来学习数据内在的特征都显得比较困难。
2.错别字
在处理文本时,我们会有大量的错别字,怎么样让计算机理解这些错别字想表达的真正含义,也是NLP的一大难点
3.新词
我们处在互联网高速发展的时代,网上每天都会产生大量的新词,我们如何快速地这些新词,并让计算机理解也是NLP的难点
4.用词向量来表示词依然存在不足
上述,我们讲到,我们是通过词向量来让计算机理解词,但是词向量所表示的空间,它是离散,而不是连续,比如表示一些正面的词:好,很好,棒,厉等,在“好”到“很好”的词向量空间中,你是不能找到一些词,从“好”连续到“很好”,所以它是离散、不连续的,不连续最大的问题就是不可导.计算机是处理可导的函数非常容易,不可导的话,计算量就上来了。 当然现在也有一些算法是计算词向量做了连续近似化,但这肯定伴随着信息的损失。 总之,词向量并不是最好的表示词的方式,需要一种更好的数学语言来表示词,当然可能我们类的自然语言本身就是不连续的,或者类无法创建出“连续”的自然语言。
小结:通过上述的,我们已经大概知道了“NLP是什么、能做什么以及目前存在的难题”。 作为工智能产品经理,了解NLP技术能够提高我们自己的技术理解力,在理解行业需求、推进项目开展都有非常大的帮助,其实这可以让我们获得是一种连接能力,将需求与工程师连接起来,将问题与解决方连接起来。 虽然NLP等工智能技术存在很多不足,但我们需要调整好自己的心态,工智能应用化才刚刚开始,必然是不够完美的,不要成为批判者,而是成为工智能时代的推进者。
nt-sizf@�2W��
工智能不仅需要思维还需要什么以及伴随着什么和什么的信息交互?
除了思维能力之外,工智能还需要许多其他的能力和信息交互方式。
首先,工智能需要拥有自然语言处理的能力。 这意味着它需要理解并能够以自然语言的方式与类进行交互,例如识别语音、理解和生成文本等。
其次,工智能需要具备感知和认知能力。 这包括通过传感器或摄像收集数据,并对这些数据进行分析和处理,以更好地理解周围环境。
此外,工智能还需要具备学习和适应能力。 这意味着它必须能够从大量数据中学习,不断地调整和改进自己的决策和行动。
最后,由于工智能通常是作为系统或平台中的一部分,它需要能够与其他组件进行良好的信息交互和协作。 这可以通过标准化的接口、API、消息传递和数据格式等方式实现。
综上所述,工智能需要具备许多不同的能力和信息交互方式,以实现更加智能化和高效的工作和应用。