首页 > 科研教程 > R语言自然语言处理:关键词提取与文本摘要(TextRank)
2022
06-27

R语言自然语言处理:关键词提取与文本摘要(TextRank)

作者:黄天元,复旦大学博士在读,目前研究涉及文本挖掘、社交网络分析和机器学习等。希望与大家分享学习经验,推广并加深R语言在业界的应用。

邮箱:[email protected]

关于提取关键词的方法,除了TF-IDF算法,比较有名的还有TextRank算法。它是基于PageRank衍生出来的自然语言处理算法,是一种基于图论的排序算法,以文本的相似度作为边的权重,迭代计算每个文本的TextRank值,最后把排名高的文本抽取出来,作为这段文本的关键词或者文本摘要。之所以提到关键词和文本摘要,两者其实宗旨是一样的,就是自动化提取文本的重要表征文字。

如果分词是以词组作为切分,那么得到的是关键词。以词作为切分的时候,构成词与词之间是否连接的,是词之间是否相邻。相邻关系可以分为n元,不过在中文中,我认为2元关系已经非常足够了(比如一句话是:“我/有/一只/小/毛驴/我/从来/也/不/骑”,那么设置二元会让“一只”和“毛驴”发生关联,这就足够了)。如果是以句子切分的,那么得到的称之为文本摘要(其实就是关键的句子,俗称关键句)。如果要得到文本的关键句子,还是要对每句话进行分词,得到每句话的基本词要素。根据句子之间是否包含相同的词语,我们可以得到句子的相似度矩阵,然后再根据相似度矩阵来得到最关键的句子(也就是与其他句子关联性最强的那个句子)。当句子比较多的时候,这个计算量是非常大的。 下面,我要用R语言的textrank包来实现关键词的提取和文本摘要。

准备工作

安装必备的包。

1library(pacman)

2p_load(tidyverse,tidytext,textrank,rio,jiebaR)

然后,导入数据。数据可以在我的github中获得(github.com/hope-data-sc)。文件名称为hire_text.rda。

1import("./hire_text.rda") -> hire_text

2hire_text

这里面包含了互联网公司的一些招聘信息,一共有4102条记录,只有一列,列名称为hire_text,包含了企业对岗位要求的描述。

关键词提取

因为要做关键词和关键句的提取,因此我们要进行分词和分句。分词还是利用jiebaR,老套路。如果没有了解的话,请看专栏之前的文章(R语言自然语言处理系列)。不过这次,我们希望能够在得到词频的同时,得到每个词的词性,然后只把名词提取出来。 分词代码如下:

1hire_text %>%

2mutate(id = 1:n()) -> hire_txt #给文档编号

3

4worker(type = "tag") -> wk #构造一个分词器,需要得到词性

5

6hire_txt %>%

7mutate(words = map(hire_text,tagging,jieba = wk)) %>% #给文档进行逐个分词

8mutate(word_tag = map(words,enframe,name = "tag",value = "word")) %>%

9select(id,word_tag) -> hire_words

然后,我们分组进行关键词提取。

1#构造提取关键词的函数

2

3extract_keywords = function(dt){

4textrank_keywords(dt$word,relevant = str_detect(dt$tag,"^n"),ngram_max = 2) %>%

5.$keywords

6}

7

8hire_words %>%

9mutate(textrank.key = map(word_tag,extract_keywords)) %>%

10select(-word_tag) -> tr_keyword

现在我们的数据框中,包含了每个文档的关键词。每个关键词列表中,包含freq和ngram两列,freq代表词频,ngram代表多少个n元,2元就是“上海市-闵行区”这种形式,1元就是“上海市”、“闵行区”这种形式。 现在,我要从中挑选每篇文章最重要的3个关键词。挑选规则是:词频必须大于1,在此基础上,n元越高越好。

1tr_keyword %>%

2unnest() %>%

3group_by(id) %>%

4filter(freq > 1) %>%

5top_n(3,ngram) %>%

6ungroup() -> top3_keywords

7

8top3_keywords

9## # A tibble: 3,496 x 4

10## id keyword ngram freq

11## <int> <chr> <int> <int>

12## 1 1 上海市-长宁区 2 2

13## 2 1 长宁区 1 2

14## 3 1 上海市-静安区 2 2

15## 4 4 客户 1 4

16## 5 5 招商银行 1 2

17## 6 6 事业部 1 3

18## 7 7 房地产 1 2

19## 8 9 技术 1 3

20## 9 10 电商 1 2

21## 10 10 协调 1 2

22## # ... with 3,486 more rows

仔细观察发现,有的文档就没有出现过,因为他们分词之后,每个词的词频都是1。现在让我们统计一下最火的十大高频词。

1top3_keywords %>%

2count(keyword) %>%

3arrange(desc(n)) %>%

4slice(1:10)

5## # A tibble: 10 x 2

6## keyword n

7## <chr> <int>

8## 1 客户 298

9## 2 公司 173

10## 3 产品 110

11## 4 能力 97

12## 5 项目 89

13## 6 技术 51

14## 7 市场 48

15## 8 系统 48

16## 9 广告 41

17## 10 企业 41

这些词分别是:客户、公司、产品、能力、项目、技术、市场、系统、广告、企业。

文本摘要

文本摘要其实就是从文档中提出我们认为最关键的句子。我们会用textrank包的textrank_sentences函数,这要求我们有一个分句的数据框,还有一个分词的数据框(不过这次需要去重复,也就是说分词表中每个文档不能有重复的词)。非常重要的一点是,这次分词必须以句子为单位进行划分。 我们明确一下任务:对每一个招聘文档,我们要挑选出这个文档中最关键的一句话。要解决这个大问题,需要先解决一个小问题。就是对任意的一个长字符串,我们要能够切分成多个句子,然后按照句子分组,对其进行分词。然后我们会得到一个句子表格和单词表格。 其中,我们切分句子的标准是,切开任意长度的空格,这在正则表达式中表示为“[:space:]+”。

1get_sentence_table = function(string){

2string%>%

3str_split(pattern = "[:space:]+") %>%

4unlist %>%

5as_tibble() %>%

6transmute(sentence_id = 1:n(),sentence = value)

7}

上面这个函数,对任意的一个字符串,能够返回一个含有两列的数据框,第一列是句子的编号sentence_id,另一列是句子内容sentence。我们姑且把这个数据框称之为sentence_table。 下面我们要构造另一个函数,对于任意的sentence_table,我们需要返回一个分词表格,包含两列,第一列是所属句子的编号,第二列是分词的单词内容。

1wk = worker() #在外部构造一个jieba分词器

2

3get_word_table = function(string){

4string%>%

5str_split(pattern = "[:space:]+") %>%

6unlist %>%

7as_tibble() %>%

8transmute(sentence_id = 1:n(),sentence = value) %>%

9mutate(words = map(sentence,segment,jieba = wk)) %>%

10select(-sentence) %>%

11unnest()

12}

如果分词器要在内部构造,每次运行函数都要构造一次,会非常消耗时间。 目前,对于任意一个字符串,我们有办法得到它的关键句了。我们举个例子:

1hire_text[[1]][1] -> test_text

2test_text %>% get_sentence_table -> st

3st %>% get_word_table -> wt

4## Warning instri_split_regex(string, pattern, n = n, simplify = simplify, :

5## argument is notan atomic vector; coercing

有了这st和wt这两个表格,现在我们要愉快地提取关键句子。

1textrank_sentences(data = st,terminology = wt) %>%

2summary(n = 1) #n代表要top多少的关键句子

3## [1] "1279弄6号国峰科技大厦"

我们给这个取最重要关键句子也编写一个函数。

1get_textrank_sentence = function(st,wt){

2textrank_sentences(data = st,terminology = wt) %>%

3summary(n = 1)

4}

因为数据量比较大,我们只求第10-20条记录进行求解。不过,如果句子只有一句话,那么是会报错的。因此我们要首先去除一个句子的记录。

1hire_txt %>%

2slice(10:20) %>%

3mutate(st = map(hire_text,get_sentence_table)) %>%

4mutate(wt = map(hire_text,get_word_table)) %>%

5mutate(sentence.no = unlist(map(st,nrow))) %>%

6select(-hire_text) %>%

7filter(sentence.no != 1) %>%

8mutate(key_sentence = unlist(map2(st,wt,get_textrank_sentence))) %>%

9select(id,sentence.no,key_sentence) -> hire_abstract

10

11hire_abstract

12## # A tibble: 10 x 3

13## id sentence.no key_sentence

14## <int> <int> <chr>

15## 1 10 9 开拓电商行业潜在客户

16## 2 11 5 EHS

17## 3 12 9 负责招聘渠道的维护和更新;

18## 4 13 6 荣获中国房地产经纪百强企业排名前六强;

19## 5 14 7 2、逻辑思维、分析能力强,工作谨慎、认真,具有良好的书面及语言表达能力;~

20## 6 15 5 2、能独立完成栏目包装、影视片头、广告片、宣传片的制作,包括创意图设计、动画制作、特效、剪辑合成等工作;~

21## 7 16 7 3、公司为员工提供带薪上岗培训和丰富的在职培训,有广阔的职业发展与晋升空间;~

22## 8 17 7 您与该职位的匹配度?

23## 9 18 13 接触并建立与行业内重点企业的良好关系,及时了解需求状态;~

24## 10 20 7 具有财务、金融、税务等领域专业知识;具有较强分析判断和解决问题的能力;~

如果对所有记录的摘要感兴趣,去掉slice(10:20) %>%这一行即可。等待时间可能会较长。

实践证明,TextRank算法是一个比较耗时的算法,因为它依赖于图计算,需要构成相似度矩阵。当数据量变大的时候,运行时间会呈“几何级”增长。但是对于中小型的文本来说,这个方法还是非常不错的。但是中小型的文本,还需要摘要么?尽管如此,这还是一个非常直观的算法,如果TF-IDF在一些时候不好用的话,这是一个非常好的候补选项。

资料

textrank包基本教程

http://blog.itpub.net/31562039/viewspace-2286669/

手把手 | 基于TextRank算法的文本摘要(附Python代码)

http://blog.itpub.net/31562039/viewspace-2286669/



最后编辑:
作者:萌小白
一个热爱网络的青年!

发布评论

表情