自建个性化的coreseek分词词库

王朝站长·作者佚名  2012-08-17  
宽屏版  字体: |||超大  

下面给大家介绍一下如何打造自己的coreseek分词词库。 coreseek自身带的词库不是很大,直接使用它分词可能会返回大量没用结果。要想搜索结果准确打造一个专门的分词 词库必不可少。

i. 首先到搜狗http://pinyin#sogou#com/dict/下载你要的词库

ii. 因为下载回来的词库不是文本文件我们不能直接使用,所以要先转换成文本文件。网上找一个搜狗转 google的小工具,用它把你下载的全部词库转成文本文件。合并为一个文件命名为words.txt。文件要用utf8编码 保存,如果想直接使用我下面的工具进行转换的话文件名一定要是words.txt。如果你想自己转换请参考官网上的方 法http://www#coreseek#cn/opensource/mmseg/

iii. 现在我们有了一个初步的词库,但这个词库还不能直接使用,要再整理并转换coreseek使用的格式才行。 这里我提供一个自己编写的小程序方便转换。 源程序如下:

/**

Last edit 2012-8-11

Copyrigh@ www.4ji.cn

**/

ini_set('max_execution_time','6000');

$buffer=ini_get('output_buffering');

if($buffer)ob_end_flush();

echo '处理新词库...

';

flush();

$filename = "words.txt";

$handle = fopen ($filename, "r");

$content = fread ($handle, filesize ($filename));

fclose ($handle);

$content=trim($content);

$arr1 = explode( "\r\n" ,$content );

$arr1=array_flip(array_flip($arr1));

foreach($arr1 as $key=>$value){

$value=dealchinese($value);

if(!empty($value)){

$arr1[$key] = $value;

}

else{

unset($arr1[$key]);

}

}

echo '处理原来词库...

';flush();

$filename2 = "unigram.txt";

$handle2 = fopen ($filename2, "r");

$content2 = fread ($handle2, filesize ($filename2));

fclose ($handle2);

$content2=dealchinese($content2,"\r\n");

$arr2 = explode( "\r\n" ,$content2 );

echo '删除相同词条...

';flush();

$array_diff=array_diff($arr1,$arr2);

echo '格式化词库...

';flush();

$words='';

foreach($array_diff as $k=>$word){

$words.=$word."\t1\r\nx:1\r\n";

}

//echo $words;

file_put_contents('words_new.txt',$words,FILE_APPEND);

echo 'done!';

function dealChinese($str,$join=''){

preg_match_all('/[\x{4e00}-\x{9fff}]+/u', $str, $matches); //将中文字符全部匹配出来

$str = join($join, $matches[0]); //从匹配结果中重新组合

return $str;

}

?>

使用方法如下:

1. 把words.txt,转换工具words_format.php及c:\coreseek\etc\unigram.txt三个文件放到能运行php的 服务器同一个目录下.

2. 然后访问words_format.php .

3. 等待程序运行完,时间长短要看你词的多少,太多的话中间可能假死。运行完后会在相同目录下生产 words_new.txt把这个文件加到原unigram.txt的后面,保存备用.

4. 把上面得到的文件unigram.txt复制到C:\coreseek\bin然后在命令行下进入目录C:\coreseek\bin 执行 mmseg -u unigram.txt 该命令执行后,将会在unigram.txt所在目录中产生一个名为unigram.txt.uni的文件 ,将该文件改名为uni.lib,完成词典的构造。

5. 测试新词库能否正解分词。在C:\coreseek\bin下新建文本文件test.txt。输入要测试的关键词。 例如:四季服装网中大面料辅料,然后保存。当中一定要包含你新加进词库的某个关键词。例如四季服装网是我新加的 关键词。然后在刚才的命令行下执行mmseg -d C:\coreseek\bin test.txt>result.txt .执行完后打开新生产 的结果文件result.txt .如果看到分词结果类似四季服装网/x 中大/x 面料/x 辅料/x 的话证明词库已正确生成, 如果看到新关键词被分切开如: 四/x 季/x 服/x 装/x网/x 中大/x 面料/x 辅料/x的话就说明新的词库并不正确。 要检查一下哪里出错了,重新生产。

6. 再把得到的uni.lib复制到C:\coreseek\etc覆盖原文件就大功告成了

 
 
 
免责声明:本文为网络用户发布,其观点仅代表作者个人观点,与本站无关,本站仅提供信息存储服务。文中陈述内容未经本站证实,其真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。
© 2005- 王朝网络 版权所有