⑴ lucene5.0自定义过滤器如何使用
“石头”跟生来化棉起到的源只是维持硝化系统的作用,而硝化系统的作用是分解NH3等水体中有毒有害物质,这个跟你所说的水体清澈无关。水体里固体废物的过滤还是需要物理过滤,即过滤棉/白棉。你看到的没有滤棉的过滤很可能是用了前置滤桶,里面全是滤棉?
⑵ Lucene实战的目录
目录
第1部分Lucene核心
第1章初识Lucene 3
1.1应对信息爆炸 4
1.2Lucene是什么 5
1.2.1Lucene能做些什么 6
1.2.2Lucene的历史 7
1.3Lucene和搜索程序组件 9
1.3.1索引组件 10
1.3.2搜索组件 13
1.3.3搜索程序的其他模块 16
1.3.4Lucene与应用程序的整合点 18
1.4Lucene实战:程序示例 18
1.4.1建立索引 19
1.4.2搜索索引 22
1.5理解索引过程的核心类 25
1.5.1IndexWriter 25
1.5.2Directory 25
1.5.3Analyzer 26
1.5.4Document 26
1.5.5Field 27
1.6理解搜索过程的核心类 27
1.6.1IndexSearcher 27
1.6.2Term 28
1.6.3Query 28
1.6.4TermQuery 28
1.6.5TopDocs 29
1.7小结 29
第2章构建索引30
2.1Lucene如何对搜索内容进行建模 31
2.1.1文档和域 31
2.1.2灵活的架构 32
2.1.3反向规格化(Denormalization) 32
2.2理解索引过程 33
2.2.1提取文本和创建文档 33
2.2.2分析文档 34
2.2.3向索引添加文档 34
2.3基本索引操作 35
2.3.1向索引添加文档 35
2.3.2删除索引中的文档 38
2.3.3更新索引中的文档 39
2.4域选项 41
2.4.1域索引选项 41
2.4.2域存储选项 42
2.4.3域的项向量选项 42
2.4.4Reader、TokenStream和byte[ ]域值 42
2.4.5域选项组合 43
2.4.6域排序选项 44
2.4.7多值域 44
2.5对文档和域进行加权操作 45
2.5.1文档加权操作 45
2.5.2域加权操作 46
2.5.3加权基准(Norms) 47
2.6索引数字、日期和时间 48
2.6.1索引数字 48
2.6.2索引日期和时间 49
2.7域截取(Field truncation) 50
2.8近实时搜索(Near-real-time search) 51
2.9优化索引 51
2.10其他Directory子类 52
2.11并发、线程安全及锁机制 55
2.11.1线程安全和多虚拟机安全 55
2.11.2通过远程文件系统访问索引 56
2.11.3索引锁机制 57
2.12调试索引 59
2.13高级索引概念 60
2.13.1用IndexReader删除文档 61
2.13.2回收被删除文档所使用过的磁盘空间 62
2.13.3缓冲和刷新 62
2.13.4索引提交 63
2.13.5ACID事务和索引连续性 65
2.13.6合并段 66
2.14小结 68
第3章为应用程序添加搜索功能70
3.1实现简单的搜索功能 71
3.1.1对特定项的搜索 72
3.1.2解析用户输入的查询表达式:QueryParser 73
3.2使用IndexSearcher类 76
3.2.1创建IndexSearcher类 76
3.2.2实现搜索功能 78
3.2.3使用TopDocs类 78
3.2.4搜索结果分页 79
3.2.5近实时搜索 79
3.3理解Lucene的评分机制 81
3.3.1Lucene如何评分 81
3.3.2使用explain()理解搜索结果评分 83
3.4Lucene的多样化查询 84
3.4.1通过项进行搜索:TermQuery类 85
3.4.2在指定的项范围内搜索:TermRangeQuery类 86
3.4.3在指定的数字范围内搜索:NumericRangeQuery类 87
3.4.4通过字符串搜索:PrefixQuery类 88
3.4.5组合查询:BooleanQuery类 88
3.4.6通过短语搜索:PhraseQuery类 91
3.4.7通配符查询:WildcardQuery类 93
3.4.8搜索类似项:FuzzyQuery类 94
3.4.9匹配所有文档:MatchAllDocsQuery类 95
3.5解析查询表达式:QueryParser 96
3.5.1Query.toString方法 97
3.5.2TermQuery 97
3.5.3项范围查询 98
3.5.4数值范围搜索和日期范围搜索 99
3.5.5前缀查询和通配符查询 99
3.5.6布尔操作符 100
3.5.7短语查询 100
3.5.8模糊查询 101
3.5.9MatchAllDocsQuery 102
3.5.10分组查询 102
3.5.11域选择 103
3.5.12为子查询设置加权 103
3.5.13是否一定要使用QueryParse 103
3.6小结 104
第4章Lucene的分析过程 105
4.1使用分析器 106
4.1.1索引过程中的分析 107
4.1.2QueryParser分析 109
4.1.3解析vs分析:分析器何时不再适用 109
4.2剖析分析器 110
4.2.1语汇单元的组成 111
4.2.2语汇单元流揭秘 112
4.2.3观察分析器 115
4.2.4语汇单元过滤器:过滤顺序的重要性 119
4.3使用内置分析器 121
4.3.1StopAnalyzer 122
4.3.2StandardAnalyzer 122
4.3.3应当采用哪种核心分析器 123
4.4近音词查询 123
4.5同义词、别名和其他表示相同意义的词 126
4.5.1创建SynonymAnalyzer 127
4.5.2显示语汇单元的位置 131
4.6词干分析 132
4.6.1StopFilter保留空位 133
4.6.2合并词干操作和停用词移除操作 134
4.7域分析 134
4.7.1多值域分析 135
4.7.2特定域分析 135
4.7.3搜索未被分析的域 136
4.8语言分析 139
4.8.1Unicode与字符编码 139
4.8.2非英语语种分析 140
4.8.3字符规范化处理 140
4.8.4亚洲语种分析 141
4.8.5有关非英语语种分析的其他问题 143
4.9Nutch分析 144
4.10小结 146
第5章高级搜索技术147
5.1Lucene域缓存 148
5.1.1为所有文档加载域值 149
5.1.2段对应的reader 149
5.2对搜索结果进行排序 150
5.2.1根据域值进行排序 150
5.2.2按照相关性进行排序 153
5.2.3按照索引顺序进行排序 154
5.2.4通过域进行排序 154
5.2.5倒排序 155
5.2.6通过多个域进行排序 156
5.2.7为排序域选择类型 157
5.2.8使用非默认的locale方式进行排序 157
5.3使用MultiPhraseQuery 158
5.4针对多个域的一次性查询 160
5.5跨度查询 162
5.5.1跨度查询的构建模块:SpanTermQuery 165
5.5.2在域的起点查找跨度 166
5.5.3彼此相邻的跨度 167
5.5.4在匹配结果中排除重叠的跨度 169
5.5.5SpanOrQuery类 170
5.5.6SpanQuery类和QueryParser类 171
5.6搜索过滤 172
5.6.1TermRangeFilter 173
5.6.2NumericRangeFilter 174
5.6.3FieldCacheRangeFilter 174
5.6.4特定项过滤 174
5.6.5使用QueryWrapperFilter类 175
5.6.6使用SpanQueryFilter类 175
5.6.7安全过滤器 176
5.6.8使用BooleanQuery类进行过滤 177
5.6.9PrefixFilter 178
5.6.10缓存过滤结果 178
5.6.11将filter封装成query 179
5.6.12对过滤器进行过滤 179
5.6.13非Lucene内置的过滤器 180
5.7使用功能查询实现自定义评分 180
5.7.1功能查询的相关类 180
5.7.2使用功能查询对最近修改过的文档进行加权 182
5.8针对多索引的搜索 184
5.8.1使用MultiSearch类 184
5.8.2使用ParallelMultiSearcher进行多线程搜索 186
5.9使用项向量 186
5.9.1查找相似书籍 187
5.9.2它属于哪个类别 190
5.9.3TermVectorMapper类 193
5.10使用FieldSelector加载域 194
5.11停止较慢的搜索 195
5.12小结 196
第6章扩展搜索198
6.1使用自定义排序方法 199
6.1.1针对地理位置排序方式进行文档索引 199
6.1.2实现自定义的地理位置排序方式 200
6.1.3访问自定义排序中的值 203
6.2开发自定义的Collector 204
6.2.1Collector基类 205
6.2.2自定义Collector:BookLinkCollector 206
6.2.3AllDocCollector类 207
6.3扩展QueryParser类 208
6.3.1自定义QueryParser的行为 208
6.3.2禁用模糊查询和通配符查询 209
6.3.3处理数值域的范围查询 210
6.3.4处理日期范围 211
6.3.5对已排序短语进行查询 213
6.4自定义过滤器 215
6.4.1实现自定义过滤器 215
6.4.2搜索期间使用自定义过滤器 216
6.4.3另一种选择:FilterQuery类 217
6.5有效载荷(Payloads) 218
6.5.1分析期间生成有效载荷 219
6.5.2搜索期间使用有效载荷 220
6.5.3有效载荷和跨度查询 223
6.5.4通过TermPositions来检索有效载荷 223
6.6小结 223
第2部分Lucene应用
第7章使用Tika提取文本227
7.1Tika是什么 228
7.2Tika的逻辑设计和API 230
7.3安装Tika 231
7.4Tika的内置文本提取工具 232
7.5编程实现文本提取 234
7.5.1索引Lucene文档 234
7.5.2Tika工具类 237
7.5.3选择自定义分析器 238
7.6Tika的局限 238
7.7索引自定义的XML文件 239
7.7.1使用SAX进行解析 239
7.7.2使用Apache Commons Digester进行解析和索引 242
7.8其他选择 244
7.9小结 245
第8章Lucene基本扩展246
8.1Luke:Lucene的索引工具箱 247
8.1.1Overview标签页:索引的全局视图 248
8.1.2浏览文档 249
8.1.3使用QueryParser进行搜索 251
8.1.4Files and Plugins标签页 252
8.2分析器、语汇单元器和语汇单元过滤器 253
8.2.1SnowballAnalyzer 255
8.2.2Ngram过滤器 256
8.2.3Shingle过滤器 258
8.2.4获取捐赠分析器 258
8.3高亮显示查询项 259
8.3.1高亮显示模块 259
8.3.2独立的高亮显示示例 262
8.3.3使用CSS进行高亮显示处理 263
8.3.4高亮显示搜索结果 264
8.4FastVector Highlighter类 266
8.5拼写检查 269
8.5.1生成提示列表 269
8.5.2选择最佳提示 271
8.5.3向用户展示搜索结果 272
8.5.4一些加强拼写检查的考虑 273
8.6引人注目的查询扩展功能 274
8.6.1MoreLikeThis 274
8.6.2FuzzyLikeThisQuery 275
8.6.3BoostingQuery 275
8.6.4TermsFilter 276
8.6.5DuplicateFilter 276
8.6.6RegexQuery 276
8.7构建软件捐赠模块(contrib mole) 277
8.7.1源代码获取方式 277
8.7.2contrib目录的Ant插件 277
8.8小结 278
第9章Lucene高级扩展279
9.1链式过滤器 280
9.2使用Berkeley DB存储索引 282
9.3WordNet同义词 284
9.3.1建立同义词索引 285
9.3.2将WordNet同义词链接到分析器中 287
9.4基于内存的快速索引 289
9.5XML QueryParser:超出“one box”的搜索接口 289
9.5.1使用XmlQueryParser 291
9.5.2扩展XML查询语法 295
9.6外围查询语言 296
9.7Spatial Lucene 298
9.7.1索引空间数据 299
9.7.2搜索空间数据 302
9.7.3Spatial Lucene的性能特点 304
9.8远程进行多索引搜索 306
9.9灵活的QueryParser 309
9.10其他内容 312
9.11小结 313
第10章其他编程语言使用Lucene314
10.1移植入门 315
10.1.1移植取舍 316
10.1.2选择合适的移植版本 317
10.2CLucene(C++) 317
10.2.1移植目的 318
10.2.2API和索引兼容 319
10.2.3支持的平台 321
10.2.4当前情况以及未来展望 321
10.3Lucene-Net(C#和其他.NET编程语言) 321
10.3.1API兼容 323
10.3.2索引兼容 324
10.4KinoSearch和Lucy(Perl) 324
10.4.1KinoSearch 325
10.4.2Lucy 327
10.4.3其他Perl选项 327
10.5Ferret(Ruby) 328
10.6PHP 329
10.6.1Zend Framework 329
10.6.2PHP Bridge 330
10.7PyLucene(Python) 330
10.7.1API兼容 332
10.7.2其他Python选项 332
10.8Solr(包含多种编程语言) 332
10.9小结 334
第11章Lucene管理和性能调优335
11.1性能调优 336
11.1.1简单的性能调优步骤 337
11.1.2测试方法 338
11.1.3索引-搜索时延调优 339
11.1.4索引操作吞吐量调优 340
11.1.5搜索时延和搜索吞吐量调优 344
11.2多线程和并行处理 346
11.2.1使用多线程进行索引操作 347
11.2.2使用多线程进行搜索操作 351
11.3资源消耗管理 354
11.3.1磁盘空间管理 354
11.3.2文件描述符管理 357
11.3.3内存管理 361
11.4热备份索引 364
11.4.1创建索引备份 365
11.4.2恢复索引 366
11.5常见错误 367
11.5.1索引损坏 367
11.5.2修复索引 369
11.6小结 369
第3部分案例分析
第12章案例分析1:Krugle373
12.1Krugle介绍 374
12.2应用架构 375
12.3搜索性能 376
12.4源代码解析 377
12.5子串搜索 378
12.6查询VS搜索 381
12.7改进空间 382
12.7.1FieldCache内存使用 382
12.7.2合并索引 382
12.8小结 383
第13章案例分析2:SIREn384
13.1SIREn介绍 385
13.2SIREn优势 385
13.2.1通过所有域进行搜索 387
13.2.2一种高效词典 388
13.2.3可变域 388
13.2.4对多值域的高效处理 388
13.3使用SIREn索引实体 388
13.3.1数据模型 389
13.3.2实现问题 389
13.3.3索引概要 390
13.3.4索引前的数据准备 390
13.4使用SIREn搜索实体 392
13.4.1搜索内容 392
13.4.2根据单元限制搜索范围 393
13.4.3将单元合并成元组 393
13.4.4针对实体描述进行查询 394
13.5在Solr中集成SIREn 394
13.6Benchmark 395
13.7小结 397
第14章案例分析3:LinkedIn398
14.1使用Bobo Browse进行分组搜索 398
14.1.1Bobo Browse的设计 400
14.1.2深层次分组搜索 403
14.2使用Zoie进行实时搜索 405
14.2.1Zoie架构 406
14.2.2实时VS近实时 409
14.2.3文档与索引请求 411
14.2.4自定义IndexReaders 411
14.2.5与Lucene的近实时搜索进行比较 412
14.2.6分布式搜索 413
14.3小结 415
附录A安装Lucene416
A.1二进制文件安装 416
A.2运行命令行演示程序 417
A.3运行Web应用演示程序 418
A.4编译源代码 419
A.5排错 420
附录BLucene索引格式421
B.1逻辑索引视图 421
B.2关于索引结构 422
B.2.1理解多文件索引结构 422
B.2.2理解复合索引结构 425
B.2.3转换索引结构 426
B.3倒排索引 427
B.4小结 430
附录CLucene/contrib benchmark431
C.1运行测试脚本 432
C.2测试脚本的组成部分 435
C.2.1内容源和文档生成器 438
C.2.2查询生成器 439
C.3控制结构 439
C.4内置任务 441
C.4.1建立和使用行文件 445
C.4.2内置报表任务 446
C.5评估搜索质量 446
C.6出错处理 449
C.7小结 449
附录D资源450
D.1Lucene知识库 450
D.2国际化 450
D.3语言探测 451
D.4项向量 451
D.5Lucene移植版本 451
D.6案例分析 452
D.7其他 452
D.8信息检索软件 452
D.9Doug Cutting的著作 453
D.9.1会议论文 453
D.9.2美国专利 454
⑶ lucene检索,必须完全包含我筛选的关键字,只包含其中一个字的要过滤掉,怎么设置
这个要看你的搜索关键词是什么,采用的分词器是什么,比如你搜索的关键词是“搜索引擎”,如果采用的分词器的分词结果就包含“搜索引擎‘这个词,那么采用TermQuery就可以了;如果采用的分词器的分词结果不是“搜索引擎‘这个词,而是”搜索“和”引擎“这两个词,那么要采用PhraseQuery,setSlop(0),这样就可以搜索出同时包含”搜索“和”引擎“这两个词并且这两个词紧挨着的所有文章了。
⑷ IKAnalyzer2012+lucene-3.4.0做分词,过滤停用词及大小写..出现了一个问题
呵呵,兄弟你在做搜索引擎的东西?这个IK分词器测试分词效果的代码需要稍作处理才能回避着个问题
⑸ solr ik分词器 停用词配置不能用solr的吗
要动态加载的首先基于机器学习的一些工具自然是不怎么容易上手了。当然也没那么容易入手。至于几种常见的lucene切词工具Paoding
⑹ Lucene+nutch搜索引擎开发的目录 内核揭秘篇
4.1网络蜘蛛原理
4.1.1体系结构设计
4.1.2访问策略与算法
4.1.3效率优化与更新
4.1.4蜘蛛访问规范
4.1.5开源蜘蛛简介
4.2Nutch网络蜘蛛
4.2.1Nutch网络蜘蛛概述
4.2.2Nutch抓取模式分类
4.2.3抓取测试站点建立
4.3Nutch局域网抓取
4.3.1本地下载准备
4.3.2启动下载过程
4.3.3下载过程解析
4.3.4下载多个网站
4.4Nutch互联网抓取
4.4.1下载列表获取
4.4.2下载大量网站
4.5Nutch抓取比较
4.6Nutch结果检测
4.6.1网页内容检索
4.6.2使用Readdb获取摘要
4.6.3使用SegRead读取分段
4.6.4Luke工具使用
4.7Nutch配置文件解析
4.8Heritrix网络蜘蛛
4.8.1Heritrix概述
4.8.2Heritrix体系结构
4.8.3Heritrix安装与使用
4.9小结 5.1文档索引原理
5.1.1索引概述
5.1.2索引基本结构
5.1.3倒排索引原理
5.1.4索引分类
5.1.5高性能索引
5.2Lucene索引器
5.2.1Lucene索引介绍
5.2.2Lucene索引结构
5.2.3多文件索引结构
5.2.4复合索引结构
5.3Lucene索引实例
5.3.1索引创建代码解析
5.3.2索引创建器(IndexWriter)
5.3.3索引管理器(IndexReader)
5.3.4索引修改器(IndexModifier)
5.3.5索引分析器(Analyzer)
5.4Lucene索引操作
5.4.1添加文本文件索引
5.4.2创建Lucene增量索引
5.4.3使用索引项删除文档
5.4.4使用编号删除文档
5.4.5压缩文档编号
5.4.6索引文档更新
5.5Lucene索引高级特性
5.5.1选择索引域类型
5.5.2索引参数优化
5.5.3使用磁盘索引
5.5.4使用内存索引
5.5.5同步与锁机制
5.6Lucene高级应用实例
5.6.1创建本地搜索的索引
5.6.2索引数据库记录
5.6.3索引优化与合并
5.7Nutch中的Lucene索引
5.8小结 6.1信息查询原理
6.1.1信息查询概述
6.1.2查询基本流程
6.1.3查询结果显示
6.1.4高性能查询
6.2Lucene查询概述
6.2.1Lucene查询操作基础
6.2.2Lucene查询实例入门
6.2.3查询工具IndexSearcher类
6.2.4查询封装Query类
6.2.5查询分析器QueryParser类
6.2.6查询结果集Hits类
6.3Lucene基本查询
6.3.1Lucene查询Query对象
6.3.2最小项查询TermQuery
6.3.3区间范围搜索RangeQuery
6.3.4逻1/4组合搜索BooleanQuery
6.3.5字串前缀搜索PrefixQuery
6.3.6短语搜索PhraseQuery
6.3.7模糊搜索FuzzyQuery
6.3.8通配符搜索WildcardQuery
6.3.9位置跨度搜索SpanQuery
6.4Lucene高级查询
6.4.1索引内存检索
6.4.2多关键字跨域检索
6.4.3多检索器跨索引检索
6.5Nutch中的Lucene查询
6.6小结 7.1搜索引擎文档排序原理
7.1.1传统检索排序技术
7.1.2向量模型排序局限
7.1.3搜索引擎相关性排序
7.1.4链接分析PageRank原理
7.1.5搜索引擎排序流程
7.2Lucene检索排序
7.2.1Lucene相关性因素
7.2.2Lucene相关排序流程
7.2.3Lucene排序计算体系
7.2.4Lucene排序控制方法
7.3文档Boost加权排序
7.3.1Lucene中Boost介绍
7.3.2Boost值全文档排序
7.3.3Boost值文档域排序
7.3.4BoostingTermQuery排序
7.4Sort对象检索排序
7.4.1Sort对象概述
7.4.2Sort对象相关性排序
7.4.3Sort对象文档编号排序
7.4.4Sort对象独立域排序
7.4.5Sort对象联合域排序
7.4.6Sort对象逆向排序
7.5Lucene相关性公式
7.5.1Lucene评分结果分析
7.5.2Lucene排序公式
7.5.3其他动态排序因子
7.6Lucene自定义排序
7.6.1自定义排序比较接口
7.6.2自定义排序接口类实例
7.6.3自定义排序结果测试实例
7.6.4自定义排序测试结果
7.7Nutch中的结果排序
7.7.1Nutch排序因素
7.7.2Nutch链接分析
7.7.3Nutch相关度计算
7.8小结 8.1文档分析与中文分词原理
8.1.1文档分析预处理概述
8.1.2文档分析基本流程
8.1.3中文分析处理中的分词
8.2Lucene分析器内核原理
8.2.1Lucene分析器原理
8.2.2Analysis包简介
8.2.3Analyzer类的组合结构
8.2.4JavaCC构造分析器
8.2.5StopAnalyzer内核代码分析
8.2.6StandardAnalyzer内核代码分析
8.3Lucene分析器应用模式
8.3.1使用默认分析器建立索引
8.3.2使用多种分析器建立索引
8.3.3使用分析器检索查询
8.4Lucene主要分析器应用实例
8.4.1停用词分析器StopAnalyzer
8.4.2标准分析器StandardAnalyzer
8.4.3简单分析器SimpleAnalyzer
8.4.4空格分析器WhitespaceAnalyzer
8.4.5关键字分析器KeywordAnalyzer
8.5TokenStream分词器内核分析
8.5.1Tokenizer分词器
8.5.2标准分词器StandardTokenizer
8.5.3字符分词器CharTokenizer
8.5.4空格分词器WhiteSpaceTokenizer
8.5.5字母分词器LetterTokenizer
8.5.6小写分词器LowerCaseTokenizer
8.6TokenStream过滤器内核分析
8.6.1TokenFilter过滤器
8.6.2标准过滤器StandardFilter
8.6.3停用词过滤器StopFilter
8.6.4小写过滤器LowerCaseFilter
8.6.5长度过滤器LengthFilter
8.6.6词干过滤器PorterStemFilter
8.7Lucene中文分词
8.7.1中文分词基本原理方法
8.7.2StandardAnalyzer分析器中文处理
8.7.3CJKAnalyzer中文分析器
8.7.4ChineseAnalyzer中文分析器
8.7.5IK_CAnalyzer中文分析器
8.7.6中科院ICTCLAS中文分词
8.7.7JE中文分词
8.7.8中文分词问题
8.8Nutch分词和预处理
8.8.1Nutch分析器
8.8.2Nutch中文分词
8.9小结 9.1非结构化文本简介
9.1.1非结构化文本概述
9.1.2非结构化文本检索
9.2HTML文档分析
9.2.1主流HTML文档分析器
9.2.2HTMLParser安装配置
9.2.3HTMLParser的框架结构
9.3HTMLParser应用实例
9.3.1HTMLParser功能模式
9.3.2HTMLParser内容解析方式
9.3.3Visitor模式正文解析
9.3.4Filter模式简单链接提取
9.3.5Filter模式搜索链接提取
9.3.6Lexer模式遍历文档
9.4PDF文档分析
9.4.1常用的PDF处理包
9.4.2PDFBox安装配置
9.5PDFBox应用实例
9.5.1PDFBox提取文档内容
9.5.2PDFBox文档内容索引
9.6Office文档分析
9.6.1常用Office文档处理包
9.6.2使用POI安装与配置
9.6.3POI原理与接口介绍
9.7POI分析Office文档实例
9.7.1POI处理Excel文档
9.7.2POI处理Word文档
9.8XML文档分析
9.8.1主流XML文档分析器
9.8.2JDOM分析器安装配置
9.8.3xerces分析器安装配置
9.9XML解析应用实例
9.9.1使用JDOM分析XML 文档
9.9.2使用xerces分析XML 文档
9.10Nutch文档处理
9.11小结 10.1分布式检索与缓存
10.1.1分布式搜索引擎现状
10.1.2分布式搜索引擎原理
10.1.3搜索引擎缓存现状
10.1.4搜索引擎缓存原理
10.2Nutch与分布式检索
10.2.1Google分布式文件系统
10.2.2MapRece系统介绍
10.2.3Hadoop分布式文件系统
10.2.4Nutch分布式文件系统
10.2.5Nutch分布式检索概述
10.2.6Nutch分布式检索器
10.3Lucene分布式检索
10.3.1Socket通信基础
10.3.2Lucene索引服务器
10.4Nutch与搜索缓存
10.5开源系统缓存系统
10.6小结