Fix: 第一章 NLP 基础概念 格式错误
This commit is contained in:
@@ -1,36 +1,36 @@
|
||||
# 第一章 NLP 基础概念
|
||||
|
||||
自然语言处理(NLP)作为人工智能领域的一个重要分支,旨在使计算机能够理解和处理人类语言,实现人机之间的自然交流。随着信息技术的飞速发展,文本数据已成为我们日常生活中不可或缺的一部分,NLP技术的进步为我们从海量文本中提取有用信息、理解语言的深层含义提供了强有力的工具。从早期的基于规则的方法,到后来的统计学习方法,再到当前深度学习技术的广泛应用,NLP领域经历了多次技术革新,文本表示作为NLP的核心技术之一,其研究和进步对于提升自然语言处理系统的性能具有决定性的作用。
|
||||
自然语言处理(Natural Language Processing,NLP)作为人工智能领域的一个重要分支,旨在使计算机能够理解和处理人类语言,实现人机之间的自然交流。随着信息技术的飞速发展,文本数据已成为我们日常生活中不可或缺的一部分,NLP技术的进步为我们从海量文本中提取有用信息、理解语言的深层含义提供了强有力的工具。从早期的基于规则的方法,到后来的统计学习方法,再到当前深度学习技术的广泛应用,NLP领域经历了多次技术革新,文本表示作为NLP的核心技术之一,其研究和进步对于提升NLP系统的性能具有决定性的作用。
|
||||
|
||||
欢迎大家来到 NLP 基础概念的学习,本章节将为大家介绍 NLP 的基础概念,帮助大家更好地理解和回顾 NLP 的相关知识。
|
||||
|
||||
## 1.1 什么是 NLP
|
||||
|
||||
自然语言处理(NLP)是一种让计算机理解、解释和生成人类语言的技术。它是人工智能领域中一个极为活跃和重要的研究方向,其核心任务是通过计算机程序来模拟人类对语言的认知和使用过程。NLP结合了计算机科学、人工智能、语言学和心理学等多个学科的知识和技术,旨在打破人类语言和计算机语言之间的障碍,实现无缝的交流与互动。
|
||||
NLP 是 一种让计算机理解、解释和生成人类语言的技术。它是人工智能领域中一个极为活跃和重要的研究方向,其核心任务是通过计算机程序来模拟人类对语言的认知和使用过程。NLP 结合了计算机科学、人工智能、语言学和心理学等多个学科的知识和技术,旨在打破人类语言和计算机语言之间的障碍,实现无缝的交流与互动。
|
||||
|
||||
NLP技术使得计算机能够执行各种复杂的语言处理任务,如中文分词、子词切分、词性标注、文本分类、实体识别、关系抽取、文本摘要、机器翻译、自动问答等。这些任务不仅要求计算机能够识别和处理语言的表层结构,更重要的是理解语言背后的深层含义,包括语义、语境、情感和文化等方面的复杂因素。
|
||||
NLP技术使得计算机能够执行各种复杂的语言处理任务,如中文分词、子词切分、词性标注、文本分类、实体识别、关系抽取、文本摘要、机器翻译、自动问答等。这些任务不仅要求计算机能够识别和处理语言的表层结构,更重要的是可以理解语言背后的深层含义,包括语义、语境、情感和文化等方面的复杂因素。
|
||||
|
||||
随着深度学习等现代技术的发展,NLP已经取得了显著的进步。通过训练大量的数据,深度学习模型能够学习到语言的复杂模式和结构,从而在多个NLP任务上取得了接近甚至超越人类水平的性能。然而,尽管如此,NLP仍然面临着诸多挑战,如处理歧义性、理解抽象概念、处理隐喻和讽刺等。研究人员正致力于通过更加先进的算法、更大规模的数据集和更精细的语言模型来解决这些问题,以推动NLP技术不断向前发展。
|
||||
随着深度学习等现代技术的发展,NLP 已经取得了显著的进步。通过训练大量的数据,深度学习模型能够学习到语言的复杂模式和结构,从而在多个 NLP 任务上取得了接近甚至超越人类水平的性能。然而,尽管如此,NLP 仍然面临着诸多挑战,如处理歧义性、理解抽象概念、处理隐喻和讽刺等。研究人员正致力于通过更加先进的算法、更大规模的数据集和更精细的语言模型来解决这些问题,以推动NLP技术不断发展。
|
||||
|
||||
## 1.2 NLP 发展历程
|
||||
|
||||
NLP的发展历程是从早期的规则基础方法,到统计方法,再到现在的机器学习和深度学习方法的演变过程。每一次技术变革都极大地推动了NLP技术的发展,使其在机器翻译、情感分析、实体识别和文本摘要等任务上取得了显著成就。随着计算能力的不断增强和算法的不断优化,NLP的未来将更加光明,能够在更多领域发挥更加重要的作用。
|
||||
NLP 的发展历程是从早期的规则基础方法,到统计方法,再到现在的机器学习和深度学习方法的演变过程。每一次技术变革都极大地推动了 NLP 技术的发展,使其在机器翻译、情感分析、实体识别和文本摘要等任务上取得了显著成就。随着计算能力的不断增强和算法的不断优化,NLP的未来将更加光明,能够在更多领域发挥更加重要的作用。
|
||||
|
||||
### 早期探索(1940年代 - 1960年代)
|
||||
|
||||
NLP的早期探索始于二战后,当时人们认识到从一种语言自动翻译到另一种语言的重要性。1950年,艾伦·图灵提出了图灵测试。
|
||||
NLP 的早期探索始于二战后,当时人们认识到将一种语言自动翻译为另一种语言的重要性。1950年,艾伦·图灵提出了图灵测试。
|
||||
|
||||
> 他说,如果一台机器可以通过使用打字机成为对话的一部分,并且它完全模仿人类,没有明显的差异,那么机器可以被认为是能够思考的。
|
||||
> 他说,如果一台机器可以通过使用打字机成为对话的一部分,并且能够完全模仿人类,没有明显的差异,那么机器可以被认为是能够思考的。
|
||||
|
||||
这是判断机器是否能够展现出与人类不可区分的智能行为的测试。这一时期,诺姆·乔姆斯基提出了生成语法理论,这对理解机器翻译的工作方式产生了重要影响。然而,这一时期的机器翻译系统非常简单,主要依赖字典查找和基本的词序规则来产生翻译,效果并不理想。
|
||||
这是判断机器是否能够展现出与人类不可区分的智能行为的测试。这一时期,诺姆·乔姆斯基提出了生成语法理论,这对理解机器翻译的工作方式产生了重要影响。然而,这一时期的机器翻译系统非常简单,主要依赖字典查找和基本的词序规则来进行翻译,效果并不理想。
|
||||
|
||||
### 符号主义与统计方法(1970年代 - 1990年代)
|
||||
|
||||
1970年代以后,NLP研究者开始探索新的领域,包括逻辑基础的范式和自然语言理解。这一时期,研究者分为符号主义(或规则基础)和统计方法两大阵营。符号主义研究者关注于形式语言和生成语法,而统计方法的研究者更加关注于统计和概率方法。1980年代,随着计算能力的提升和机器学习算法的引入,NLP领域出现了革命性的变化,统计模型开始取代复杂的“手写”规则。
|
||||
1970年代以后,NLP 研究者开始探索新的领域,包括逻辑基础的范式和自然语言理解。这一时期,研究者分为符号主义(或规则基础)和统计方法两大阵营。符号主义研究者关注于形式语言和生成语法,而统计方法的研究者更加关注于统计和概率方法。1980年代,随着计算能力的提升和机器学习算法的引入,NLP领域出现了革命性的变化,统计模型开始取代复杂的“手写”规则。
|
||||
|
||||
### 机器学习与深度学习(2000年代至今)
|
||||
|
||||
2000年代以后,随着深度学习技术的发展,NLP领域取得了显著的进步。深度学习模型如循环神经网络(RNN)、长短时记忆网络(LSTM)和注意力机制等技术被广泛应用于NLP任务中,取得了令人瞩目的成果。2013年,Word2Vec模型的提出开创了词向量表示的新时代,为NLP任务提供了更加有效的文本表示方法。2018年,BERT模型的问世引领了预训练语言模型的新浪潮,为NLP技术的发展带来了新的机遇和挑战。近年来,基于Transformer的模型,如GPT-3,通过训练巨大的参数模型,能够生成高质量的文本,甚至在某些情况下与人类写作难以区分。
|
||||
2000年代以后,随着深度学习技术的发展,NLP 领域取得了显著的进步。深度学习模型如循环神经网络(Recurrent Neural Network,RNN)、长短时记忆网络(Long Short-Term Memory,LSTM)和注意力机制等技术被广泛应用于 NLP 任务中,取得了令人瞩目的成果。2013年,Word2Vec模型的提出开创了词向量表示的新时代,为NLP任务提供了更加有效的文本表示方法。2018年,BERT模型的问世引领了预训练语言模型的新浪潮,为NLP技术的发展带来了新的机遇和挑战。近年来,基于Transformer的模型,如GPT-3,通过训练巨大参数的模型,能够生成高质量的文本,甚至在某些情况下可以与人类写作相媲美。
|
||||
|
||||
|
||||
## 1.3 NLP 任务
|
||||
@@ -39,7 +39,7 @@ NLP的早期探索始于二战后,当时人们认识到从一种语言自动
|
||||
|
||||
### 1.3.1 中文分词
|
||||
|
||||
中文分词(Chinese Word Segmentation, CWS)是自然语言处理领域中的一个基础任务。在处理中文文本时,由于中文语言的特点,词与词之间没有像英文那样的明显分隔(如空格),所以无法直接通过空格来确定词的边界。因此,中文分词成为了中文文本处理的首要步骤,其目的是将连续的中文文本切分成有意义的词汇序列。
|
||||
中文分词(Chinese Word Segmentation, CWS)是 NLP 领域中的一个基础任务。在处理中文文本时,由于中文语言的特点,词与词之间没有像英文那样的明显分隔(如空格),所以无法直接通过空格来确定词的边界。因此,中文分词成为了中文文本处理的首要步骤,其目的是将连续的中文文本切分成有意义的词汇序列。
|
||||
|
||||
```
|
||||
输入:今天天气真好,适合出去游玩.
|
||||
@@ -51,7 +51,7 @@ NLP的早期探索始于二战后,当时人们认识到从一种语言自动
|
||||
|
||||
### 1.3.2 子词切分
|
||||
|
||||
子词切分(Subword Segmentation)是自然语言处理(NLP)中的一种文本预处理技术,旨在将词汇进一步分解为更小的单位,即子词。这种方法特别适用于处理词汇稀疏问题,即当遇到罕见词或未见过的新词时,能够通过已知的子词单位来理解或生成这些词汇。子词切分在处理那些拼写复杂、合成词多的语言(如德语)或者在预训练语言模型(如BERT、GPT系列)中尤为重要。
|
||||
子词切分(Subword Segmentation)是 NLP 领域中的一种常见的文本预处理技术,旨在将词汇进一步分解为更小的单位,即子词。子词切分特别适用于处理词汇稀疏问题,即当遇到罕见词或未见过的新词时,能够通过已知的子词单位来理解或生成这些词汇。子词切分在处理那些拼写复杂、合成词多的语言(如德语)或者在预训练语言模型(如BERT、GPT系列)中尤为重要。
|
||||
|
||||
子词切分的方法有很多种,常见的有Byte Pair Encoding (BPE)、WordPiece、Unigram、SentencePiece等。这些方法的基本思想是将单词分解成更小的、频繁出现的片段,这些片段可以是单个字符、字符组合或者词根和词缀。
|
||||
|
||||
@@ -66,7 +66,7 @@ NLP的早期探索始于二战后,当时人们认识到从一种语言自动
|
||||
|
||||
### 1.3.3 词性标注
|
||||
|
||||
词性标注(Part-of-Speech Tagging,POS Tagging)是自然语言处理(NLP)中的一项基础任务,它的目标是为文本中的每个单词分配一个词性标签,如名词、动词、形容词等。这个过程通常基于预先定义的词性标签集,如英语中的常见标签有名词(Noun,N)、动词(Verb,V)、形容词(Adjective,Adj)等。词性标注对于理解句子结构、进行句法分析、语义角色标注等高级NLP任务至关重要。通过词性标注,计算机可以更好地理解文本的含义,进而进行信息提取、情感分析、机器翻译等更复杂的处理。
|
||||
词性标注(Part-of-Speech Tagging,POS Tagging)是 NLP 领域中的一项基础任务,它的目标是为文本中的每个单词分配一个词性标签,如名词、动词、形容词等。这个过程通常基于预先定义的词性标签集,如英语中的常见标签有名词(Noun,N)、动词(Verb,V)、形容词(Adjective,Adj)等。词性标注对于理解句子结构、进行句法分析、语义角色标注等高级NLP任务至关重要。通过词性标注,计算机可以更好地理解文本的含义,进而进行信息提取、情感分析、机器翻译等更复杂的处理。
|
||||
|
||||
假设我们有一个英文句子:She is playing the guitar in the park.
|
||||
|
||||
@@ -82,11 +82,11 @@ NLP的早期探索始于二战后,当时人们认识到从一种语言自动
|
||||
- park (名词,Noun,NN)
|
||||
- . (标点,Punctuation,.)
|
||||
|
||||
词性标注通常依赖于机器学习模型,如隐马尔可夫模型(Hidden Markov Model,HMM)、条件随机场(Conditional Random Field,CRF)或者基于深度学习的循环神经网络(Recurrent Neural Network,RNN)和长短时记忆网络(Long Short-Term Memory,LSTM)等。这些模型通过学习大量的标注数据来预测新句子中每个单词的词性。
|
||||
词性标注通常依赖于机器学习模型,如隐马尔可夫模型(Hidden Markov Model,HMM)、条件随机场(Conditional Random Field,CRF)或者基于深度学习的循环神经网络 RNN 和长短时记忆网络 LSTM 等。这些模型通过学习大量的标注数据来预测新句子中每个单词的词性。
|
||||
|
||||
### 1.3.4 文本分类
|
||||
|
||||
文本分类(Text Classification)是自然语言处理(NLP)领域的一项核心任务,涉及到将给定的文本自动分配到一个或多个预定义的类别中。这项技术广泛应用于各种场景,包括但不限于情感分析、垃圾邮件检测、新闻分类、主题识别等。文本分类的关键在于理解文本的含义和上下文,并基于此将文本映射到特定的类别。
|
||||
文本分类(Text Classification)是 NLP 领域的一项核心任务,涉及到将给定的文本自动分配到一个或多个预定义的类别中。这项技术广泛应用于各种场景,包括但不限于情感分析、垃圾邮件检测、新闻分类、主题识别等。文本分类的关键在于理解文本的含义和上下文,并基于此将文本映射到特定的类别。
|
||||
|
||||
假设有一个文本分类任务,目的是将新闻文章分类为“体育”、“政治”或“科技”三个类别之一。
|
||||
|
||||
@@ -105,7 +105,7 @@ NLP的早期探索始于二战后,当时人们认识到从一种语言自动
|
||||
|
||||
### 1.3.5 实体识别
|
||||
|
||||
实体识别(Named Entity Recognition, NER),也称为命名实体识别,是自然语言处理(NLP)领域的一个关键任务,旨在自动识别文本中具有特定意义的实体,并将它们分类为预定义的类别,如人名、地点、组织、日期、时间等。实体识别任务对于信息提取、知识图谱构建、问答系统、内容推荐等应用很重要,它能够帮助系统理解文本中的关键元素及其属性。
|
||||
实体识别(Named Entity Recognition, NER),也称为命名实体识别,是 NLP 领域的一个关键任务,旨在自动识别文本中具有特定意义的实体,并将它们分类为预定义的类别,如人名、地点、组织、日期、时间等。实体识别任务对于信息提取、知识图谱构建、问答系统、内容推荐等应用很重要,它能够帮助系统理解文本中的关键元素及其属性。
|
||||
|
||||
假设有一个实体识别任务,目的是从文本中识别出人名、地名和组织名等实体。
|
||||
|
||||
@@ -119,7 +119,7 @@ NLP的早期探索始于二战后,当时人们认识到从一种语言自动
|
||||
|
||||
### 1.3.6 关系抽取
|
||||
|
||||
关系抽取(Relation Extraction)是自然语言处理(NLP)中的一项关键任务,它的目标是从文本中识别实体之间的语义关系。这些关系可以是因果关系、拥有关系、亲属关系、地理位置关系等,关系抽取对于理解文本内容、构建知识图谱、提升机器理解语言的能力等方面具有重要意义。
|
||||
关系抽取(Relation Extraction)是 NLP 领域中的一项关键任务,它的目标是从文本中识别实体之间的语义关系。这些关系可以是因果关系、拥有关系、亲属关系、地理位置关系等,关系抽取对于理解文本内容、构建知识图谱、提升机器理解语言的能力等方面具有重要意义。
|
||||
|
||||
假设我们有以下句子:
|
||||
|
||||
@@ -133,7 +133,7 @@ NLP的早期探索始于二战后,当时人们认识到从一种语言自动
|
||||
|
||||
### 1.3.7 文本摘要
|
||||
|
||||
文本摘要(Text Summarization)是自然语言处理(NLP)中的一个重要任务,目的是生成一段简洁准确的摘要,来概括原文的主要内容。根据生成方式的不同,文本摘要可以分为两大类:抽取式摘要(Extractive Summarization)和生成式摘要(Abstractive Summarization)。
|
||||
文本摘要(Text Summarization)是 NLP 中的一个重要任务,目的是生成一段简洁准确的摘要,来概括原文的主要内容。根据生成方式的不同,文本摘要可以分为两大类:抽取式摘要(Extractive Summarization)和生成式摘要(Abstractive Summarization)。
|
||||
|
||||
- 抽取式摘要:抽取式摘要通过直接从原文中选取关键句子或短语来组成摘要。优点是摘要中的信息完全来自原文,因此准确性较高。然而,由于仅仅是原文中句子的拼接,有时候生成的摘要可能不够流畅。
|
||||
- 生成式摘要:与抽取式摘要不同,生成式摘要不仅涉及选择文本片段,还需要对这些片段进行重新组织和改写,并生成新的内容。生成式摘要更具挑战性,因为它需要理解文本的深层含义,并能够以新的方式表达相同的信息。生成式摘要通常需要更复杂的模型,如基于注意力机制的序列到序列模型(Seq2Seq)。
|
||||
@@ -160,7 +160,7 @@ NLP的早期探索始于二战后,当时人们认识到从一种语言自动
|
||||
|
||||
### 1.3.8 机器翻译
|
||||
|
||||
机器翻译(Machine Translation, MT)是自然语言处理(NLP)领域的一项核心任务,指使用计算机程序将一种自然语言(源语言)自动翻译成另一种自然语言(目标语言)的过程。机器翻译不仅涉及到词汇的直接转换,更重要的是要准确传达源语言文本的语义、风格和文化背景等,使得翻译结果在目标语言中自然、准确、流畅,以便跨越语言障碍,促进不同语言使用者之间的交流与理解。
|
||||
机器翻译(Machine Translation, MT)是 NLP 领域的一项核心任务,指使用计算机程序将一种自然语言(源语言)自动翻译成另一种自然语言(目标语言)的过程。机器翻译不仅涉及到词汇的直接转换,更重要的是要准确传达源语言文本的语义、风格和文化背景等,使得翻译结果在目标语言中自然、准确、流畅,以便跨越语言障碍,促进不同语言使用者之间的交流与理解。
|
||||
|
||||
假设我们有一句中文:“今天天气很好。”,我们想要将其翻译成英文。
|
||||
|
||||
@@ -174,7 +174,7 @@ NLP的早期探索始于二战后,当时人们认识到从一种语言自动
|
||||
|
||||
### 1.3.9 自动问答
|
||||
|
||||
自动问答(Automatic Question Answering, QA)是自然语言处理(NLP)领域中的一个高级任务,旨在使计算机能够理解自然语言提出的问题,并根据给定的数据源自动提供准确的答案。自动问答任务模拟了人类理解和回答问题的能力,涵盖了从简单的事实查询到复杂的推理和解释。自动问答系统的构建涉及多个NLP子任务,如信息检索、文本理解、知识表示和推理等。
|
||||
自动问答(Automatic Question Answering, QA)是 NLP 领域中的一个高级任务,旨在使计算机能够理解自然语言提出的问题,并根据给定的数据源自动提供准确的答案。自动问答任务模拟了人类理解和回答问题的能力,涵盖了从简单的事实查询到复杂的推理和解释。自动问答系统的构建涉及多个NLP子任务,如信息检索、文本理解、知识表示和推理等。
|
||||
|
||||
自动问答大致可分为三类:检索式问答(Retrieval-based QA)、知识库问答(Knowledge-based QA)和社区问答(Community-based QA)。检索式问答通过搜索引擎等方式从大量文本中检索答案;知识库问答通过结构化的知识库来回答问题;社区问答则依赖于用户生成的问答数据,如问答社区、论坛等。
|
||||
|
||||
@@ -182,55 +182,63 @@ NLP的早期探索始于二战后,当时人们认识到从一种语言自动
|
||||
|
||||
## 1.4 文本表示的发展历程
|
||||
|
||||
文本表示的目的是将人类语言的自然形式转化为计算机可以处理的形式,也就是将文本数据数字化,使计算机能够对文本进行有效的分析和处理。文本表示是自然语言处理领域中的一项基础性和必要性工作,它直接影响甚至决定着自然语言处理系统的质量和性能。
|
||||
文本表示的目的是将人类语言的自然形式转化为计算机可以处理的形式,也就是将文本数据数字化,使计算机能够对文本进行有效的分析和处理。文本表示是 NLP 领域中的一项基础性和必要性工作,它直接影响甚至决定着 NLP 系统的质量和性能。
|
||||
|
||||
在自然语言处理中,文本表示涉及到将文本中的语言单位(如字、词、短语、句子等)以及它们之间的关系和结构信息转换为计算机能够理解和操作的形式,例如向量、矩阵或其他数据结构。这样的表示不仅需要保留足够的语义信息,以便于后续的自然语言处理任务,如文本分类、情感分析、机器翻译等,还需要考虑计算效率和存储效率。
|
||||
在 NLP 中,文本表示涉及到将文本中的语言单位(如字、词、短语、句子等)以及它们之间的关系和结构信息转换为计算机能够理解和操作的形式,例如向量、矩阵或其他数据结构。这样的表示不仅需要保留足够的语义信息,以便于后续的 NLP 任务,如文本分类、情感分析、机器翻译等,还需要考虑计算效率和存储效率。
|
||||
|
||||
文本表示的发展历程经历了多个阶段,从早期的基于规则的方法,到统计学习方法,再到当前的深度学习技术,文本表示技术不断演进,为自然语言处理的发展提供了强大的支持。
|
||||
文本表示的发展历程经历了多个阶段,从早期的基于规则的方法,到统计学习方法,再到当前的深度学习技术,文本表示技术不断演进,为 NLP 的发展提供了强大的支持。
|
||||
|
||||
### 1.4.1 词向量
|
||||
|
||||
向量空间模型(Vector Space Model, VSM)是自然语言处理(NLP)领域中一个基础且强大的文本表示方法,最早由哈佛大学Salton提出。向量空间模型通过将文本(包括单词、句子、段落或整个文档)转换为高维空间中的向量来实现文本的数学化表示。在这个模型中,每个维度代表一个特征项(例如,字、词、词组或短语),而向量中的每个元素值代表该特征项在文本中的权重,这种权重通过特定的计算公式(如词频TF、逆文档频率TF-IDF等)来确定,反映了特征项在文本中的重要程度。
|
||||
向量空间模型(Vector Space Model, VSM)是 NLP 领域中一个基础且强大的文本表示方法,最早由哈佛大学Salton提出。向量空间模型通过将文本(包括单词、句子、段落或整个文档)转换为高维空间中的向量来实现文本的数学化表示。在这个模型中,每个维度代表一个特征项(例如,字、词、词组或短语),而向量中的每个元素值代表该特征项在文本中的权重,这种权重通过特定的计算公式(如词频TF、逆文档频率TF-IDF等)来确定,反映了特征项在文本中的重要程度。
|
||||
|
||||
VSM的应用极其广泛,包括但不限于文本相似度计算、文本分类、信息检索等自然语言处理任务。它将复杂的文本数据转换为易于计算和分析的数学形式,使得文本的相似度计算和模式识别成为可能。此外,通过矩阵运算如特征值计算、奇异值分解(singular value decomposition, SVD)等方法,可以优化文本向量表示,进一步提升处理效率和效果。
|
||||
向量空间模型的应用极其广泛,包括但不限于文本相似度计算、文本分类、信息检索等自然语言处理任务。它将复杂的文本数据转换为易于计算和分析的数学形式,使得文本的相似度计算和模式识别成为可能。此外,通过矩阵运算如特征值计算、奇异值分解(singular value decomposition, SVD)等方法,可以优化文本向量表示,进一步提升处理效率和效果。
|
||||
|
||||
然而,VSM也存在很多问题。其中最主要的是数据稀疏性和维数灾难问题,因为特征项数量庞大导致向量维度极高,同时多数元素值为零。此外,由于模型基于特征项之间的独立性假设,忽略了文本中的结构信息,如词序和上下文信息,限制了模型的表现力。特征项的选择和权重计算方法的不足也是向量空间模型需要解决的问题。
|
||||
然而,向量空间模型也存在很多问题。其中最主要的是数据稀疏性和维数灾难问题,因为特征项数量庞大导致向量维度极高,同时多数元素值为零。此外,由于模型基于特征项之间的独立性假设,忽略了文本中的结构信息,如词序和上下文信息,限制了模型的表现力。特征项的选择和权重计算方法的不足也是向量空间模型需要解决的问题。
|
||||
|
||||
为了解决这些问题,研究者们对VSM的研究主要集中在两个方面:一是改进特征表示方法,如借助图方法、主题方法等进行关键词抽取;二是改进和优化特征项权重的计算方法,可以在现有方法的基础上进行融合计算或提出新的计算方法.
|
||||
为了解决这些问题,研究者们对向量空间模型的研究主要集中在两个方面:一是改进特征表示方法,如借助图方法、主题方法等进行关键词抽取;二是改进和优化特征项权重的计算方法,可以在现有方法的基础上进行融合计算或提出新的计算方法.
|
||||
|
||||
### 1.4.2 语言模型
|
||||
|
||||
N-gram模型是自然语言处理(NLP)领域中一种基于统计的语言模型,广泛应用于语音识别、手写识别、拼写纠错、机器翻译和搜索引擎等众多任务。N-gram模型的核心思想是基于马尔可夫假设,即一个词的出现概率仅依赖于它前面的N-1个词。这里的N代表连续出现单词的数量,可以是任意正整数。例如,当N=1时,模型称为unigram,仅考虑单个词的概率;当N=2时,称为bigram,考虑前一个词来估计当前词的概率;当N=3时,称为trigram,考虑前两个词来估计第三个词的概率,以此类推N-gram。
|
||||
N-gram 模型是 NLP 领域中一种基于统计的语言模型,广泛应用于语音识别、手写识别、拼写纠错、机器翻译和搜索引擎等众多任务。N-gram模型的核心思想是基于马尔可夫假设,即一个词的出现概率仅依赖于它前面的N-1个词。这里的N代表连续出现单词的数量,可以是任意正整数。例如,当N=1时,模型称为unigram,仅考虑单个词的概率;当N=2时,称为bigram,考虑前一个词来估计当前词的概率;当N=3时,称为trigram,考虑前两个词来估计第三个词的概率,以此类推N-gram。
|
||||
|
||||
N-gram模型通过条件概率链式规则来估计整个句子的概率。具体而言,对于给定的一个句子,模型会计算每个N-gram出现的条件概率,并将这些概率相乘以得到整个句子的概率。例如,对于句子"The quick brown fox",作为trigram模型,我们会计算 $P("brown" | "The", "quick")$、$P("fox" | "quick", "brown")$等概率,并将它们相乘。
|
||||
N-gram模型通过条件概率链式规则来估计整个句子的概率。具体而言,对于给定的一个句子,模型会计算每个N-gram出现的条件概率,并将这些概率相乘以得到整个句子的概率。例如,对于句子“The quick brown fox”,作为trigram模型,我们会计算 $P("brown" | "The", "quick")$、$P("fox" | "quick", "brown")$等概率,并将它们相乘。
|
||||
|
||||
N-gram的优点是实现简单、容易理解,在许多任务中效果不错。但当N较大时,会出现数据稀疏性问题。模型的参数空间会急剧增大,相同的N-gram序列出现的概率变得非常低,导致模型无法有效学习,模型泛化能力下降。此外,N-gram模型忽略了词之间的范围依赖关系,无法捕捉到句子中的复杂结构和语义信息。
|
||||
|
||||
尽管存在局限性,N-gram模型由于其简单性和实用性,在许多自然语言处理任务中仍然被广泛使用。在某些应用中,结合N-gram模型和其他技术(如深度学习模型)可以获得更好的性能。
|
||||
尽管存在局限性,N-gram模型由于其简单性和实用性,在许多 NLP 任务中仍然被广泛使用。在某些应用中,结合N-gram模型和其他技术(如深度学习模型)可以获得更好的性能。
|
||||
|
||||
### 1.4.3 Word2Vec
|
||||
|
||||
Word2Vec是一种流行的词嵌入(word embedding)技术,由Tomas Mikolov等人在2013年提出。它是一种基于神经网络NNLM的语言模型,旨在通过学习词与词之间的上下文关系来生成词的密集向量表示。Word2Vec的核心思想是利用词在文本中的上下文信息来捕捉词之间的语义关系,从而使得语义相似或相关的词在向量空间中距离较近。
|
||||
Word2Vec是一种流行的词嵌入(Word Embedding)技术,由Tomas Mikolov等人在2013年提出。它是一种基于神经网络NNLM的语言模型,旨在通过学习词与词之间的上下文关系来生成词的密集向量表示。Word2Vec的核心思想是利用词在文本中的上下文信息来捕捉词之间的语义关系,从而使得语义相似或相关的词在向量空间中距离较近。
|
||||
|
||||
Word2Vec模型主要有两种架构:连续词袋模型CBOW(continuous bag of words)是根据目标词上下文中的词对应的词向量, 计算并输出目标词的向量表示;Skip-Gram模型与CBOW模型相反, 是利用目标词的向量表示计算上下文中的词向量. 实践验证CBOW适用于小型数据集, 而Skip-Gram在大型语料中表现更好。
|
||||
Word2Vec模型主要有两种架构:连续词袋模型CBOW(Continuous Bag of Words)是根据目标词上下文中的词对应的词向量, 计算并输出目标词的向量表示;Skip-Gram模型与CBOW模型相反, 是利用目标词的向量表示计算上下文中的词向量. 实践验证CBOW适用于小型数据集, 而Skip-Gram在大型语料中表现更好。
|
||||
|
||||
相比于传统的高维稀疏表示(如one-hot编码),Word2Vec生成的是低维(通常几百维)的密集向量,有助于减少计算复杂度和存储需求。Word2Vec模型能够捕捉到词与词之间的语义关系,比如”国王“和“王后”在向量空间中的位置会比较接近,因为在大量文本中,它们通常会出现在相似的上下文中。Word2Vec模型也可以很好的泛化到未见过的词,因为它是基于上下文信息学习的,而不是基于词典。但由于CBOW/Skip-Gram模型是基于局部上下文的,无法捕捉到长距离的依赖关系,缺乏整体的词与词之间的关系,因此在一些复杂的语义任务上表现不佳。
|
||||
相比于传统的高维稀疏表示(如One-Hot编码),Word2Vec生成的是低维(通常几百维)的密集向量,有助于减少计算复杂度和存储需求。Word2Vec模型能够捕捉到词与词之间的语义关系,比如”国王“和“王后”在向量空间中的位置会比较接近,因为在大量文本中,它们通常会出现在相似的上下文中。Word2Vec模型也可以很好的泛化到未见过的词,因为它是基于上下文信息学习的,而不是基于词典。但由于CBOW/Skip-Gram模型是基于局部上下文的,无法捕捉到长距离的依赖关系,缺乏整体的词与词之间的关系,因此在一些复杂的语义任务上表现不佳。
|
||||
|
||||
### 1.4.4 ELMo
|
||||
|
||||
ELMo(embeddings from language models)实现了一词多义、静态词向量到动态词向量的跨越式转变。首先在大型语料库上训练语言模型,得到词向量模型,然后在特定任务上对模型进行微调,得到更适合该任务的词向量,ELMo首次将预训练思想引入到词向量的生成中,使用双向LSTM结构,能够捕捉到词汇的上下文信息,生成更加丰富和准确的词向量表示。
|
||||
ELMo(Embeddings from Language Models)实现了一词多义、静态词向量到动态词向量的跨越式转变。首先在大型语料库上训练语言模型,得到词向量模型,然后在特定任务上对模型进行微调,得到更适合该任务的词向量,ELMo首次将预训练思想引入到词向量的生成中,使用双向LSTM结构,能够捕捉到词汇的上下文信息,生成更加丰富和准确的词向量表示。
|
||||
|
||||
ELMo采用典型的两阶段过程: 第1个阶段是利用语言模型进行预训练; 第2个阶段是在做特定任务时, 从预训练网络中提取对应单词的词向量作为新特征补充到下游任务中。基于RNN的LSTM模型训练时间长, 特征提取是ELMo模型优化和提升的关键。
|
||||
|
||||
ELMo模型的主要优势在于其能够捕捉到词汇的多义性和上下文信息,生成的词向量更加丰富和准确,适用于多种自然语言处理任务。然而,ELMo模型也存在一些问题,如模型复杂度高、训练时间长、计算资源消耗大等。
|
||||
ELMo模型的主要优势在于其能够捕捉到词汇的多义性和上下文信息,生成的词向量更加丰富和准确,适用于多种 NLP 任务。然而,ELMo模型也存在一些问题,如模型复杂度高、训练时间长、计算资源消耗大等。
|
||||
|
||||
## 参考文献
|
||||
|
||||
- [Distributed representations of words and phrases and their compositionality.](https://arxiv.org/abs/1310.4546)
|
||||
- [BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding](https://arxiv.org/abs/1810.04805)
|
||||
- [Attention Is All You Need](https://arxiv.org/abs/1706.03762)
|
||||
- [Combining IR and LDA Topic Modeling for Filtering Microblogs](https://doi.org/10.1016/j.procs.2017.08.166)
|
||||
- [Deep contextualized word representations](https://arxiv.org/abs/1802.05365)
|
||||
- [A vector space model for automatic indexing](https://dl.acm.org/doi/10.1145/361219.361220)
|
||||
- [中文信息处理发展报告(2016)](https://cips-upload.bj.bcebos.com/cips2016.pdf)
|
||||
- [自然语言处理中的文本表示研究](https://kns.cnki.net/kcms2/article/abstract?v=DFdco8SIy0LQDAMMFRamf5faFi2aiJvXDIJgnN-QlsWYgmnTcBjrKz4xYCV_yg5Jk_CcMOMjlaB5qd7rgvmfvxWwhJjCWFhx-_pNFBfsuAVn1biQUfVN47DzgOaAGjKP_dS-GP6aqFLBA90IRSycFg==&uniplatform=NZKPT&language=CHS)
|
||||
[1] Tomas Mikolov, Ilya Sutskever, Kai Chen, Greg Corrado, Jeffrey Dean. (2013). *Distributed Representations of Words and Phrases and their Compositionality.* arXiv preprint arXiv:1310.4546.
|
||||
|
||||
[2] Jacob Devlin, Ming-Wei Chang, Kenton Lee, Kristina Toutanova. (2019). BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. arXiv preprint arXiv:1810.04805.
|
||||
|
||||
[3] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Lukasz Kaiser, Illia Polosukhin. (2023). *Attention Is All You Need.* arXiv preprint arXiv:1706.03762.
|
||||
|
||||
[4] Malek Hajjem, Chiraz Latiri. (2017). *Combining IR and LDA Topic Modeling for Filtering Microblogs.* Procedia Computer Science, 112, 761–770. https://doi.org/10.1016/j.procs.2017.08.166.
|
||||
|
||||
[5] Matthew E. Peters, Mark Neumann, Mohit Iyyer, Matt Gardner, Christopher Clark, Kenton Lee, Luke Zettlemoyer. (2018). *Deep contextualized word representations.* arXiv preprint arXiv:1802.05365.
|
||||
|
||||
[6] Salton, G., Wong, A., Yang, C. S. (1975). *A vector space model for automatic indexing.* Communications of the ACM, 18(11), 613–620. https://doi.org/10.1145/361219.361220.
|
||||
|
||||
[7] 赵京胜,宋梦雪,高祥,等.自然语言处理中的文本表示研究[J].软件学报,2022,33(01):102-128.DOI:10.13328/j.cnki.jos.006304.
|
||||
|
||||
[8] 中文信息处理发展报告(2016)前言[C]//中文信息处理发展报告(2016).中国中文信息学会;,2016:2-3.DOI:10.26914/c.cnkihy.2016.003326.
|
||||
|
||||
|
||||
Reference in New Issue
Block a user