- 1、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
数据仓库-Hive;主要内容;Hive 是一个构建在Hadoop 上的数据仓库平台,其设计目标是使Hadoop上的数据操作与传统SQL结合,让熟悉SQL编程的开发人员能够向Hadoop平台迁移。 Hive可以在HDFS上构建数据仓库来存储结构化的数据,这些数据来源于HDFS上的原始数据, Hive提供了类似SQL的查询语言HiveQL,可以执行查询,变换数据等操作。通过解析,HiveQL语言在底层被转化为相应的MapReduce操作。;Hive的体系结构 ;Hive相关组件: 外部接口:Hive提供了例如命令行(CLI)、Web界面等用户接口, 还提供了应用程序接口(API)例如 JDBC,ODBC等。 Thrift服务器:Hive Thrift服务器是一种跨语言服务的可伸缩软件框架。它结合律功能强大的软件堆栈的代码生成引擎,可以无缝的与C++、C#、Java、Python、PHP和Ruby结合。Thrift允许用户简单地定义文件中的数据类型和服务接口,编译器生成代码来实现RPC客户端和服务器之间的通信。 Hive内部集成了Thrift服务,支持在多种语言中运行Hive命令,使 客户端可以跨平台连接Hive。 ;Hive相关组件: 解析器(Driver):包括解释器,编译器,优化器,执行器,通过这一系列对HiveQL查询语句的处理,最后生成查询计划。解析器管理着HiveQL语句在编译,优化和执行时的生命周期。当接收到一个HiveQL查询语句时,解析器会创建一个相对的句柄,这个句柄被用来追踪执行时间,输出行数等数据。 Hadoop:数据仓库和查询计划存储在HDFS上,计算过程由MapReduce执行。 ;Hive相关组件: 元数据库(Metastore):管理系统目录,通常存储在关系数据库如MySQL,Derby中。Hive所有其他的组件都会与它进行交互。Hive的元数据中保存了表的属性和服务信息,为查询操作提供依据,默认的元数据库是内部的Derby,这种情况下metastore和其他Hive服务运行在同一个Java虚拟机里,只能允许建立单个会话,要实现多用户多会话支持,需要配置一个独立的元数据库。 ;Hive的数据模型;数据在Hive里组织成表,分区和桶的形式 分区:分区是表的部分列的集合。一个表可以有一个或者多个分区, 这些分区确定了数据在表目录下的分布情况。假设表T的数 据是在/wh/T目录下。如果T在列ds和ctry上被分区,那么 ds值ctry值为US的数据将会被存储到 /wh/T/dsctry=US的目录下。 桶:在每个分区中的数据可以根据列的哈希值进一步划分成桶,每 个桶在分区目录下都存在一个文件中。 ;Hive支持的数据类型(基本类型) ;Hive支持的数据类型(复杂类型) ;Hive提供了类似于SQL的查询语言 HiveQL。 HiveQL支持选择,投影,连接,聚合,合并以及From中嵌套的子查询语句。 HiveQL允许在创建表的时候申明表的序列化格式,分区等HiveQL目前不支持行的删除和更新。 HiveQL支持多表的插入操作。;HiveQL的常用操作 创建表:创建一张名为userinfo的表,表中有两列id和name,Hive Shell中的创建命令为: create table userinfo (id int, name string) row format delimited fields terminated by ‘\t’; row format delimited fields terminated by ‘\t 是HiveQL特有的,用来指定数据的分隔方式 导入数据:建表后可以从本地文件系统或HDFS中导入数据文件,导入命令如下: load data local inpath ‘/home/hadoop/1’ overwrite into table userinfo ;HiveQL的常用操作 创建分区:创建一张名为userinfo的表,表中有两列id和name,并且对name进行分区,创建命令为: create table userinfo (id int) partitioned by (name string) row format delimited fields terminated by ‘\t’; 创建桶:可以把表或者是分区组织成桶,桶是按行分开组织特定字段,每个桶对应一个reduce操作。在建立桶之前要设置hive.enforce.bucket
您可能关注的文档
最近下载
- 发电机空载特性曲线测录试验报告.pdf VIP
- 济南版八年级下册生物教案全册.doc VIP
- 医学课件-《中国老年骨质疏松症诊疗指南(2025)》.pptx
- 6.2《学会依法办事》教学设计 2025-2026学年统编版道德与法治 八年级上册 .docx VIP
- GJ B 5881-2006 技术文件版本标识及管理要求.pdf VIP
- 剑阁县清江河桅杆水电站增效扩容工程环境影响报告.docx VIP
- GJ B 5873-2006 模压硫化橡胶线性收缩率的测定.pdf VIP
- 国家及行业标准-G-J-B 5882-2006.pdf VIP
- G-J-B 5186.6-2005 数字式时分制指令响应型多路传输数据总线测试方法 第6部分.pdf VIP
- 肾上腺疾病的外科治疗课件.ppt VIP
有哪些信誉好的足球投注网站
文档评论(0)