大数据互联网大规模数据挖掘与分布式处理9787115291318pdf下载pdf下载

大数据互联网大规模数据挖掘与分布式处理9787115291318百度网盘pdf下载

作者:
简介:本篇主要提供大数据互联网大规模数据挖掘与分布式处理9787115291318pdf下载
出版社:
出版时间:2012-09-01
pdf下载价格:0.00¥

免费下载


书籍下载


内容介绍

基本信息

  • 商品名:大数据互联网大规模数据挖掘与分布式处理9787115□91318
  • ISBN:9787115291318
  • 定价:59
  • 出版社:人民邮电出版社
  • 作者:[美] Anand Rajaraman,[美]Jeffrey David Ullman

参考信息(以实物为准)

  • 出版时间:2012-09-01
  • 印刷时间:2012-09-01
  • 版次:1
  • 印次:1
  • 包装:平装
  • 开本:16开
  • 用纸:胶版纸
  • 页数:258
  • 字数:

编辑推荐

  

      不知道大数据?你OUT了,还在看泡沫般的大数据书吗?一遍遍反复咀嚼基本概念?看的时候激动人心,看完之后两眼茫然。要真正掌握大数据技术,你需要干货!给你重磅干货!提示:量大货干,请自备大量饮用水!
        大数据时代的及时雨 ,全球著名数据库技术专家新力作 ,理论与实际算法实现并重 。重点放在如何用数据挖掘知识解决各种实际问题。只要求具备很少的预备知识——不需要数据库背景,只需要很少的统计学或数学背景知识。书中包含大量的图表、综合示例和丰富的习题,并且使用示例、关键算法的简洁描述和习题,尽可能直接地聚焦于数据挖掘的主要概念。

内容简介

     《大数据:互联网大规模数据挖掘与分布式处理》源自作者在斯坦福大学教授多年的“Web挖掘”课程材料,主要关注大数据环境下数据挖掘的实际算法。书中分析了海量数据集数据挖掘常用的算法,介绍了目前Web应用的许多重要话题。主要内容包括:
     分布式文件系统以及Map-Reduce工具;
     相似性搜索;
     数据流处理以及针对易丢失数据等特殊情况的专用处理算法;
     搜索引擎技术,如谷歌的PageRank;
     频繁项集挖掘;
     大规模高维数据集的聚类算法;
     Web应用中的关键问题:广告管理和推荐系统。

前言序言

   本书是在Anand Rajaraman和Jeff Ullman于斯坦福大学教授多年的一门季度课程的材料基础上总结而成的。该课程名为“Web挖掘”(编号CS345A),尽管它已经成为高年级本科生能接受并感兴趣的课程之一,但其原本是一门为高年级研究生设计的课程。
   本书内容
   简单来说,本书是关于数据挖掘的。但是,本书主要关注极大规模数据的挖掘,也就是说这些数据大到无法在内存中存放。由于重点强调数据的规模,所以本书的例子大都来自Web本身或者Web上导出的数据。另外,本书从算法的角度来看待数据挖掘,即数据挖掘是将算法应用于数据,而不是使用数据来“训练”某种类型的机器学习引擎。
   本书的主要内容包括:
   (1) 分布式文件系统以及已成功应用于大规模数据集并行算法构建的Map-Reduce工具;
   (□) 相似性搜索,包括□小哈希和局部敏感哈希的关键技术;
   (3) 数据流处理以及面对快速到达、须立即处理、易丢失的数据的专用处理算法;
   (4) 搜索引擎技术,包括谷歌的PageRank、链接作弊检测及计算网页导航度(hub)和□□度(authority)的HITS方法;
   (5) 频繁项集挖掘,包括关联规则挖掘、购物篮分析、A-Priori及其改进算法;
   (6) 大规模高维数据集的聚类算法;
   (7) Web应用中的两个关键问题:广告管理及推荐系统。
   先修课程
   尽管从编号CS345A看,本课程属于高年级研究生课程,但是我们发现高年级本科生和低年级硕士生也能接受该课程。该课程将来可能会分配一个介于高年级研究生和低年级硕士生水□之间的编号。
   CS345A的先修课程包括:
   (1) 数据库系统的首期课程,包括基于SQL及其他数据库相关语言(如XQuery)的应用编程;
   (□) 大二的数据结构、算法及离散数学课程;
   (3) 大二的软件系统、软件工程及编程语言课程。
   习题
   本书包含大量的习题,基本每节都有对应习题。较难的习题或其中较难的部分都用惊叹号“!”来标记,而□难的习题则标有双惊叹号“!!”。
   致谢
   本书封面由Scott Ullman设计。感谢Foto Afrati和Arun Marathe精心阅读本书初稿并提出建设性的意见。感谢Leland Chen、Shrey Gupta、Xie Ke、Haewoon Kwak、Brad Penoff、Philips Kokoh Prasetyo、Mark Storus、Tim Triche Jr.及Roshan Sumbaly指出了本书中的部分错误。当然,剩余错误均由我们负责。
   A. R.
   J. D. U.
   加利福尼亚州帕洛阿尔托
   □011年6月

目录

□□章  数据挖掘基本概念
1.1  数据挖掘的定义
1.1.1  统计建模
1.1.□  机器学习
1.1.3  建模的计算方法
1.1.4  数据汇总
1.1.5  特征抽取
1.□  数据挖掘的统计限制
1.□.1  整体情报预警
1.□.□  邦弗朗尼原理
1.□.3  邦弗朗尼原理的一个例子
1.□.4  习题
1.3  相关知识
1.3.1  词语在文档中的重要性
1.3.□  哈希函数
1.3.3  索引
1.3.4  二级存储器
1.3.5  自然对数的底e
1.3.6  幂定律
1.3.7  习题
1.4  本书概要
1.5  小结
1.6  参考文献
第□章  大规模文件系统及Map-Reduce
□.1  分布式文件系统
□.1.1  计算节点的物理结构
□.1.□  大规模文件系统的结构
□.□  Map-Reduce
□.□.1  Map任务
□.□.□  分组和聚合
□.□.3  Reduce任务
□.□.4  组合器
□.□.5  Map-Reduce的执行细节
□.□.6  节点失效的处理
□.3  使用Map-Reduce的算法
□.3.1  基于Map-Reduce的矩阵-向量乘法实现
□.3.□  向量v无法放入内存时的处理
□.3.3  关系代数运算
□.3.4  基于Map-Reduce的选择运算
□.3.5  基于Map-Reduce的投影运算
□.3.6  基于Map-Reduce的并、交和差运算
□.3.7  基于Map-Reduce的自然连接运算
□.3.8  一般性的连接算法
□.3.9  基于Map-Reduce的分组和聚合运算
□.3.10  矩阵乘法
□.3.11  基于单步Map-Reduce的矩阵乘法
□.3.1□  习题
□.4  Map-Reduce的扩展
□.4.1  工作流系统
□.4.□  Map-Reduce的递归扩展版本
□.4.3  Pregel系统
□.4.4  习题
□.5  集群计算算法的效率问题
□.5.1  集群计算的通信开销模型
□.5.□  实耗通信开销
□.5.3  多路连接
□.5.4  习题
□.6  小结
□.7  参考文献
第3章  相似项发现
3.1  近邻搜索的应用
3.1.1  集合的Jaccard相似度
3.1.□  文档的相似度
3.1.3  协同过滤--一个集合相似问题
3.1.4  习题
3.□  文档的Shingling
3.□.1  k-Shingle
3.□.□  shingle大小的选择
3.□.3  对shingle进行哈希
3.□.4  基于词的shingle
3.□.5  习题
3.3  保持相似度的集合摘要表示
3.3.1  集合的矩阵表示
3.3.□  □小哈希
3.3.3  □小哈希及Jaccard相似度
3.3.4  □小哈希签名
3.3.5  □小哈希签名的计算
3.3.6  习题
3.4  文档的局部敏感哈希算法
3.4.1  面向□小哈希签名的LSH
3.4.□  行条化策略的分析
3.4.3  上述技术的综合
3.4.4  习题
3.5  距离测度
3.5.1  距离测度的定义
3.5.□  欧氏距离
3.5.3  Jaccard距离
3.5.4  余弦距离
3.5.5  编辑距离
3.5.6  海明距离
3.5.7  习题
3.6  局部敏感函数理论
3.6.1  局部敏感函数
3.6.□  面向Jaccard距离的局部敏感函数族
3.6.3  局部敏感函数族的放大处理
3.6.4  习题
3.7  面向其他距离测度的LSH函数族
3.7.1  面向海明距离的LSH函数族
3.7.□  随机超□面和余弦距离
3.7.3  梗概
3.7.4  面向欧氏距离的LSH函数族
3.7.5  面向欧氏空间的更多LSH函数族
3.7.6  习题
3.8  LSH函数的应用
3.8.1  实体关联
3.8.□  一个实体关联的例子
3.8.3  记录匹配的验证
3.8.4  指纹匹配
3.8.5  适用于指纹匹配的LSH函数族
3.8.6  相似新闻报道检测
3.8.7  习题
3.9  面向高相似度的方法
3.9.1  相等项发现
3.9.□  集合的字符串表示方法
3.9.3  基于长度的过滤
3.9.4  前缀索引
3.9.5  位置信息的使用
3.9.6  使用位置和长度信息的索引
3.9.7  习题
3.10  小结
3.11  参考文献
第4章  数据流挖掘
4.1  流数据模型
4.1.1  一个数据流管理系统
4.1.□  流数据源的例子
4.1.3  流查询
4.1.4  流处理中的若干问题
4.□  流当中的数据抽样
4.□.1  一个富于启发性的例子
4.□.□  代表性样本的获取
4.□.3  一般的抽样问题
4.□.4  样本规模的变化
4.□.5  习题
4.3  流过滤
4.3.1  一个例子
4.3.□  布隆过滤器
4.3.3  布隆过滤方法的分析
4.3.4  习题
4.4  流中独立元素的数目统计
4.4.1  独立元素计数问题
4.4.□  FM算法
4.4.3  组合估计
4.4.4  空间需求
4.4.5  习题
4.5  矩估计
4.5.1  矩定义
4.5.□  二阶矩估计的AMS算法
4.5.3  AMS算法有效的原因
4.5.4  更高阶矩的估计
4.5.5  无限流的处理
4.5.6  习题
4.6  窗口内的计数问题
4.6.1  精确计数的开销
4.6.□  DGIM算法
4.6.3  DGIM算法的存储需求
4.6.4  DGIM算法中的查询应答
4.6.5  DGIM条件的保持
4.6.6  降低错误率
4.6.7  窗口内计数问题的扩展
4.6.8  习题
4.7  衰减窗口
4.7.1  □常见元素问题
4.7.□  衰减窗口的定义
4.7.3  □流行元素的发现
4.8  小结
4.9  参考文献
第5章  链接分析
5.1  PageRank
5.1.1  早期的搜索引擎及词项作弊
5.1.□  PageRank的定义
5.1.3  Web结构
5.1.4  避免终止点
5.1.5  采集器陷阱及“抽税”法
5.1.6  PageRank在搜索引擎中的使用
5.1.7  习题
5.□  PageRank的快速计算
5.□.1  转移矩阵的表示
5.□.□  基于Map-Reduce的PageRank迭代计算
5.□.3  结果向量合并时的组合器使用
5.□.4  转移矩阵中块的表示
5.□.5  其他高效的PageRank迭代方法
5.□.6  习题
5.3  面向主题的PageRank
5.3.1  动机
5.3.□  有偏的随机游走模型
5.3.3  面向主题的PageRank的使用
5.3.4  基于词汇的主题推断
5.3.5  习题
5.4  链接作弊
5.4.1  垃圾农场的架构
5.4.□  垃圾农场的分析
5.4.3  与链接作弊的斗争
5.4.4  TrustRank
5.4.5  垃圾质量
5.4.6  习题
5.5  导航页和□□页
5.5.1  HITS的直观意义
5.5.□  导航度和□□度的形式化
5.5.3  习题
5.6  小结
5.7  参考文献
第6章  频繁项集
6.1  购物篮模型
6.1.1  频繁项集的定义
6.1.□  频繁项集的应用
6.1.3  关联规则
6.1.4  高可信度关联规则的发现
6.1.5  习题
6.□  购物篮及A-Priori算法
6.□.1  购物篮数据的表示
6.□.□  项集计数中的内存使用
6.□.3  项集的单调性
6.□.4  二元组计数
6.□.5  A-Priori算法
6.□.6  所有频繁项集上的A-Priori算法
6.□.7  习题
6.3  更大数据集在内存中的处理
6.3.1  PCY算法
6.3.□  多阶段算法
6.3.3  多哈希算法
6.3.4  习题
6.4  有限扫描算法
6.4.1  简单的随机化算法
6.4.□  抽样算法中的错误规避
6.4.3  SON算法
6.4.4  SON算法和Map-Reduce
6.4.5  Toivonen算法
6.4.6  Toivonen算法的有效性分析
6.4.7  习题
6.5  流中的频繁项计数
6.5.1  流的抽样方法
6.5.□  衰减窗口中的频繁项集
6.5.3  混合方法
6.5.4  习题
6.6  小结
6.7  参考文献
第7章  聚类
7.1  聚类技术介绍
7.1.1  点、空间和距离
7.1.□  聚类策略
7.1.3  维数灾难
7.1.4  习题
7.□  层次聚类
7.□.1  欧氏空间下的层次聚类
7.□.□  层次聚类算法的效率
7.□.3  控制层次聚类的其他规则
7.□.4  非欧空间下的层次聚类
7.□.5  习题
7.3  k-均值算法
7.3.1  k-均值算法基本知识
7.3.□  k-均值算法的簇初始化
7.3.3  选择k的正确值
7.3.4  BFR算法
7.3.5  BFR算法中的数据处理
7.3.6  习题
7.4  CURE算法
7.4.1  CURE算法的初始化
7.4.□  CURE算法的完成
7.4.3  习题
7.5  非欧空间下的聚类
7.5.1  GRGPF算法中的簇表示
7.5.□  簇表示树的初始化
7.5.3  GRGPF算法中的点加入
7.5.4  簇的分裂及合并
7.5.5  习题
7.6  流聚类及并行化
7.6.1  流计算模型
7.6.□  一个流聚类算法
7.6.3  桶的初始化
7.6.4  桶合并
7.6.5  查询应答
7.6.6  并行环境下的聚类
7.6.7  习题
7.7  小结
7.8  参考文献
第8章  Web广告
8.1  在线广告相关问题
8.1.1  广告机会
8.1.□  直投广告
8.1.3  展示广告的相关问题
8.□  在线算法
8.□.1  在线和离线算法
8.□.□  贪心算法
8.□.3  竞争率
8.□.4  习题
8.3  广告匹配问题
8.3.1  匹配及完美匹配
8.3.□  □大匹配贪心算法
8.3.3  贪心匹配算法的竞争率
8.3.4  习题
8.4  Adwords问题
8.4.1  搜索广告的历史
8.4.□  Adwords问题的定义
8.4.3  Adwords问题的贪心方法
8.4.4  Balance算法
8.4.5  Balance算法竞争率的一个下界
8.4.6  多投标者的Balance算法
8.4.7  一般性的Balance算法
8.4.8  Adwords问题的□后论述
8.4.9  习题
8.5  Adwords的实现
8.5.1  投标和搜索查询的匹配
8.5.□  更复杂的匹配问题
8.5.3  文档和投标之间的匹配算法
8.6  小结
8.7  参考文献
第9章  推荐系统
9.1  一个推荐系统的模型
9.1.1  效用矩阵
9.1.□  长尾现象
9.1.3  推荐系统的应用
9.1.4  效用矩阵的填充
9.□  基于内容的推荐
9.□.1  项模型
9.□.□  文档的特征发现
9.□.3  基于Tag的项特征获取
9.□.4  项模型的表示
9.□.5  用户模型
9.□.6  基于内容的项推荐
9.□.7  分类算法
9.□.8  习题
9.3  协同过滤
9.3.1  相似度计算
9.3.□  相似度对偶性
9.3.3  用户聚类和项聚类
9.3.4  习题
9.4  降维处理
9.4.1  UV分解
9.4.□  RMSE
9.4.3  UV分解的增量式计算
9.4.4  对任一元素的优化
9.4.5  一个完整UV分解算法的构建
9.4.6  习题
9.5  NetFlix竞赛
9.6  小结
9.7  参考文献
索引

内页插图

精彩书摘

    然而,当项对的数目太多而无法在内存中对所有的项对计数时,上述简单的方法就不再可行。A-Priori算法被设计成能够减少必须计数的项对数目,当然其代价是要对数据做两遍而不是一遍扫描。
    1.A-Priori算法的□□遍扫描
    □□遍扫描中,我们要建立两张表。如有必要,□□张表要将项的名称转换为1到n之间的整数(参考6.□.□节中的描述)。另一张表则是一个计数数组,第i个数组元素是上述第i个项的出现次
    数。这些所有项的计数值的初始值都是0。
    在读取购物篮时,我们检查购物篮中的每个项并将其名称转换为一个整数。然后,将该整数作为计数数组的下标找到对应的数组元素,□后,对该数组元素加1。
    □.A-Priori算法两遍扫描之间的处理
    □□遍扫描之后,我们检查所有项的计数值,以确定哪些项构成单元素频繁项集。我们可能会看到,大部分单元素项集都是不频繁的。这一点可能会有点出人意料。但是,前面提到,我们常常将阈值s设置得足够高以保证频繁集不会太多。一个典型的s值为所有购物篮数目的1%。想象一下自己到超市购物的情况,我们购买某些商品的次数肯定会超过总次数的1%,这些商品可能是牛奶、面包、可口可乐或百事可乐什么的。我们甚至相信,虽然我们不购买尿布,但是会有1%的顾客会购买尿布。然而,货架上的大部分商品的顾客购买比例肯定都不会超过1%,比如奶油凯撒沙拉汁。
    对于A-Priori算法的第二遍扫描,我们会只给频繁项重新编号,编号范围是1到m。此时的表格是一个下标为1到n的数组,如果第i项不频繁,则对应的第IAI数组元素为0,否则为1到m之间的一个□□整数。我们应将此表格称为频繁项表格。
    3.A-Priori算法的第二遍扫描
    在第二遍扫描中,我们对两个频繁项组成的所有项对计数。从6.□.3节的讨论可知,除非一个项对中的两个项都频繁,否则这个项对也不可能是频繁的。因此,在扫描过程中我们不可能会丢掉任何频繁项对。如果采用前面提到的三角矩阵方法来计数的话,则第二遍扫描所需的空间是□n□而不是□n□。需要注意的是,如果要使用一个大小正确的三角矩阵,那么就一定要只对频繁项进行重新编号处理。□□遍和第二遍扫描中所使用的完整内存结构集合如图6-3所示。
    需要注意的另外一点是,上述非频繁项去除的好处会被放大:如果只有一半的项是频繁项,那么在计数过程中仅需要原来空间的1/4。类似地,如果使用三元组方式,我们只需要对至少出现在一个购物篮中的两个频繁项组成的项对进行计数。
    第二遍扫描的技术细节如下:
    (1)对每个购物篮,在频繁项集表中检查哪些项是频繁的;
    (□)通过一个双重循环生成所有的频繁项对;
    (3)对每个频繁项对,在存储计数值的数据结构中相应的计数值上加1;
    □后,在第二遍扫描结束时,检查计数值结构以确定哪些项对是频繁项对。 

作者简介

     Anand Rajaraman,数据库和Web技术领域专业,创业投资基金Cambrian联合创始人,斯坦福大学计算机科学系助理教授。Rajaraman职业生涯非常成功:1996年创办Junglee公司,□000年与人合创Cambrian,孵化出几个后来被谷歌收购的公司;□005年创办Kosmix公司并任CEO,该公司□011年被沃尔玛集团收购。Rajaraman生于印度,在斯坦福大学获得计算机科学硕士和博士学位。求学期间与人合著的一篇论文荣列近□0年来被引用次数□多的论文之一。

     Jeffrey David Ullman,美国国家工程院院士,计算机科学家,斯坦福大学教授。Ullman早年在贝尔实验室工作,之后任教于普林斯顿大学,十年后加入斯坦福大学直至退休,一生的科研、著书和育人成果卓著。他是ACM会员,曾获SIGMOD贡献奖、Knuth奖等多项科研大奖;他是“龙书”《编译原理》、数据库领域专业指南《数据库系统实现》的合著者;麾下多名学生成为了数据库领域的专家,其中□有名的当属谷歌创始人Sergey Brin。

     译者简介:
     王斌,博士,中国科学院计算技术研究所博士生导师。中国科学院信息工程研究所客座研究员。主要研究方向为信息检索、自然语言处理和数据挖掘。《信息检索导论》译者。主持国家973、863、国家自然科学基金、国际合作基金、国家支撑计划等课题□0余项,发表学术论文1□0余篇。现为ACM会员、中国中文信息学会理事、中文信息学会信息检索专委会委员、《中文信息学报》编委、中国计算机学会高级会员及计算机学会中文信息处理专委会委员。自□006年起在中国科学院研究生院(现改名“中国科学院大学”)讲授《现代信息检索》研究生课程,选课人数累计近千人。□001年开始指导研究生,迄今培养博士、硕士研究生30余名。