树莓派论坛

 找回密码
 立即注册

QQ登录

只需一步,快速开始

搜索
查看: 2519|回复: 0
收起左侧

[交流] 在树莓派 hadoop 丛集环境安装 Spark 执行Wordcount应用程序

[复制链接]
发表于 2016-5-10 07:51:25 | 显示全部楼层 |阅读模式
近年来大数据 (big data)很夯, Google 使用 hadoop 分析全世界 user 在搜寻引擎输入的关键词,分析客户的未来动向,做为产品开发依据hadoop 执行 MapReduce 分布式运算时(例如wordcount),中间运算过程 (例如合并) 必须由硬盘读出 data运算后再将结果写回硬盘,如果合并的次数过多,就会影响系统的效率;Spark 就是解决这项缺点的新产品, Spark 将这些中间运算结果存于memory,当然 memory I/O 效率是大于disk;只是会增加系统memory 的成本;另外执行 MapReduce 需要人为写程序 (例如java), Spark 可透过Spark-shell 交谈接口,数行指令就能达成原先使用MapReduce Api 的效果;因为以上优点 mahout 已使用 Spark 替代 MapReduce; 为了可透过 spark-shell 读取存于 HDFS 的数据,以下网址范例先在 3 片树莓派建立 Hadoop丛集 (1 master, 2 slaves); 然后在 master node安装 Spark,使得同一问题可用 MapReduce Spark 两种不同方式处理,但可得到相同结果 (差别在处里时间多寡)
使用树莓派学习 hadoop 的系统开发,就不怕系统 crash;因为重烧 image sdcard 比在 VMware player建立虚拟机快多了;待孰悉 hadoop spark 的使用后,再将系统移植至要付钱的 Google, IBM,Amazon,Microsoft 的云端平台虚拟机使用
https://drive.google.com/file/d/0B7_CUSsY2cbnZUw3MndfSkJiZDQ/view?usp=sharing
https://drive.google.com/folderview?id=0B7_CUSsY2cbnbm90UTNDWmcwaGs&usp=sharing

回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

小黑屋|手机版|Archiver|树莓派论坛 ( 粤ICP备15075382号-1  

GMT+8, 2024-11-23 11:12 , Processed in 1.109375 second(s), 28 queries , Gzip On.

Powered by Shumeipai.net! X3.2

© 2001-2015 树莓派论坛安全联盟

快速回复 返回顶部 返回列表