在自然语言处理(NLP)领域,将文本转换成计算机能够理解和处理的格式是一个基本的步骤。这个过程通常被称为文本表征或文本向量化。下面,我将详细介绍几种常见的文本表征方法,并提供一些例子来说明这些技术是如何应用的。
例子:
假设我们的词汇表只有四个词:“king”, “queen”, “man”, “woman”。词"king"的One-Hot编码可能是[1, 0, 0, 0],而"queen"的编码则是[0, 1, 0, 0]。
例子:
考虑两个文本:“the king loves the queen” 和 “the queen loves the king”。使用BoW模型,这两个句子会有相同的表示,比如对于词汇表 [“the”, “king”, “queen”, “loves”],两个句子的向量都是 [2, 1, 1, 1]。
例子:
如果词"the"在几乎所有文档中都非常常见,而"queen"只在一小部分文档中出现,那么在TF-IDF权重中,“queen"的权重将高于"the”。
例子:
词如"king"和"queen"在向量空间中可能彼此非常接近,因为它们具有相似的语义和使用上下文。常用的词嵌入模型包括Word2Vec、GloVe和FastText。
例子:
在句子“I read a book”中的"read"和在“I will read a book”中的"read",尽管是同一个词,但在BERT模型中可能会有不同的向量表示,因为它们的时态不同。