企业级大数据分析平台实践案例必威体育精装版课件.pptVIP

企业级大数据分析平台实践案例必威体育精装版课件.ppt

  1. 1、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
(续) # # 配 置 Sink a1.sinks.k1.type = hdfs a1.sinks.k1.channel = c1 a1.sinks.k1.hdfs.useLocalTimeStamp = true a1.sinks.k1.hdfs.path = hdfs://master1/user/hdfs/flume/collector1 # a1.sinks.k1.hdfs.path = /user/hdfs/flume/collector1 a1.sinks.k1.hdfs.filePrefix = %Y-%m-%d-%H a1.sinks.k1.hdfs.fileSuffix = .log a1.sinks.k1.hdfs.minBlockReplicas = 1 a1.sinks.k1.hdfs.fileType = DataStream a1.sinks.k1.hdfs.writeFormat = T ext a1.sinks.k1.hdfs.rollInterval = 86400 a1.sinks.k1.hdfs.rollSize = 1000000 a1.sinks.k1.hdfs.rollCount = 10000 a1.sinks.k1.hdfs.idleTimeout = 0 (续) # # 配 置 Channel a1.channels.c1.type = memory a1.channels.c1.capacity = 1000 a1.channels.c1.transactionCapacity = 100 # # 将三者连接 a1.sources.r1.channel = c1 a1.sinks.k1.channel = c1 分布式 WEB 日志分析案例 准备实验环境 ? 挂载光盘,并且安装 nginx 服务 # mount /dev/sr0 /mnt/cdrom # yum install nginx ? 准备 web 服务器日志,开启 nginx 服务器 # systemctl start nginx ? 开启服务后可以通过查看 /var/log/flume/flume.log 来看到运行 日志。 准备实验环境 ? 创建日志导入 hdfs 的目录 # su - hdfs $ hadoop fs -mkdir /user/hdfs/flume/collector1 $ hadoop fs -chmod -R 777 /user/hdfs/flume Nginx Web 界面 在地址栏输入开了 nginx 服务的机器 IP 即可。 启动代理 ? 启动代理 a1 # flume-ng agent --conf /etc/flume/conf/ \ --conf-file /etc/flume/conf/flume.conf \ --name a1 ? 启动之后打开 Web 端 http://192.168.X.X 或者执行 # wget http://192.168.X.X 都可访问 nginx 页面。 此时本地的 nginx 日志即可传输到 hdfs 当中。 运行结果 程序运行结果,日志在 hdfs 上的存储结果 配置 mapred-site.xml Name mapreduce.map.java.opts mapreduce.map.memory.mb mapreduce.reduce.java.opts mapreduce.reduce.memory.mb Value 作用 -Xmx1024M 运行 Map 任务的 JVM 参数 31 Container 这个进程的最大可用 内存大小 -Xmx1024M 运行 Reduce 任务的 JVM 参数 63 Container 这个进程的最大可用 内存大小 注:以上设置内存值情况为 MR 任务因内存问题卡死即可据此设置,值不唯一 配置 yarn 的 linux 本地目录 # touch /etc/hadoop/conf/yarn-env.sh # mkdir -p /hadoop/yarn/local # chown yarn:yarn -R /hadoop/yarn/local 启动服务 ? 在 master2 上开启 resourcemanage

文档评论(0)

精品大课件 + 关注
实名认证
文档贡献者

专业类课件,PPT课件,ppt课件,专业类Word文档。只为能提供更有价值的文档。

1亿VIP精品文档

相关文档