博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
hadoop day 1
阅读量:6803 次
发布时间:2019-06-26

本文共 1126 字,大约阅读时间需要 3 分钟。

hadoop是什么?

解决的问题:

  海量数据的存储(HDFS):供hbase,mapreduce进行处理

  海量数据的分析(MapReduce)

  资源管理调度(YARN)

搜索引擎:

  爬虫系统+站内搜索

  爬虫对html网页进行抓取,数据量较大,需要进行海量数据存储,传统存储手段已经无法满足需求

 

hadoop具体能干什么

1.擅长海量日志分析

海量数据存储的解决方案:

程序执行相关命令:

向hdfs中上传文件至根目录:hadoop fs -put filename hdfs://hostname:port/ 从hdfs中下载文件:hadoop fs -get hdfs://hostname:port/filename 创建目录:hadoop fs -mkdir hdfs://hostname:port/wordcount 查看目录下的类容:    -ls 查看某个文件的类容:  -cat 执行mapreduce程序: hadoop jar filename.jar pi 5 5

2.hdfs的实现机制

hdfs通过分布式集群来存储文件,为客户端提供了一个便捷的访问方式,就是一个虚拟的工作目录

文件存储到hdfs集群中去的时候是被切分成block的

文件的block存放在若干台datanode节点上

hdfs文件系统中的文件与真实的block之间有映射关系,由namenode管理

namenode记录每个文件在datanode所存放的位置

每个block在集群中会存储多个副本,好处是可以提高数据的可靠性和访问的吞吐量

 

3.mapreduce

hadoop fs -mkdir hdfs://hostname:9000/wordcount

hadoop fs -mkdir /wordcount/input

hadoop fs -mkdir /wordcount/output

hadoop fs -put test.txt /wordcount/input  将文件放到hdfs中

hadoop jar filename.jar  wordcount /wordcount/input /wordcount/output

 

4.hdfs实现机制

将文件分块放置于不同的DataNode下:DataNode的路径如下/hadoop/data/dfs/data/,每个block在集群中会存储多个副本

NameNode中记录了元数据所存放的位置,客户端通过namenode对分布式的数据进行操作

hdfs文件的内容不能修改

 

转载于:https://www.cnblogs.com/lvjygogo/p/8537046.html

你可能感兴趣的文章
微信支付demo集
查看>>
python读取json的工具jsonreader | the5fire的技术博客
查看>>
Sharepoint学习笔记—习题系列--70-576习题解析 -(Q99-Q101)
查看>>
转oracle 学习 - 表空间
查看>>
百度地图显示多个标注点
查看>>
robots.txt的介绍和写作
查看>>
11个实用jQuery日历插件
查看>>
MySQL slave状态之Seconds_Behind_Master
查看>>
国内外开源与 SaaS ,团队协作平台、项目管理工具整理
查看>>
oracle字符集查看修改
查看>>
[Leetcode] Container With Most Water
查看>>
查看版本信息的命令
查看>>
Linux搭建SVN服务器
查看>>
UML 之 数据流图(DFD)
查看>>
IO知识点整理(文件File类的使用)
查看>>
mahout 实现canopy
查看>>
修炼你自己
查看>>
窥探一句话木马后门的背后
查看>>
Kafka设计解析(二):Kafka High Availability (上)-转
查看>>
bzoj2186【SDOI2008】沙拉公主的困惑
查看>>