百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术文章 > 正文

HIVE SQL基础语法(hive sql语句大全)

zhezhongyun 2025-01-27 01:14 83 浏览

引言

与关系型数据库的SQL略有不同,但支持了绝大多数的语句如DDL、DML以及常见的聚合函数、连接查询、条件查询。HIVE不适合用于联机事务处理,也不提供实时查询功能。它最适合应用在基于大量不可变数据的批处理作业上。

1. HIVE的特点

可伸缩(在Hadoop集群上动态的添加设备),可扩展,容错,输入格式的松散耦合。

2. DDL

1)建表

Create [external] table [if not exists] table_name

[(col_name data_type [comment col_comment],...)]

[COMMENT table_comment]

[PARTITIONED BY(col_name data_type [COMMENT col_comment],...)]

[CLUSTERED BY(col_name, col_name,...)

[SORTED BY(col_name [ASC| DESC],...)] INTO num_buckets BUCKETS]

[ROW FORMAT row_format]

[STORED AS file_format]

[LOCATION hdfd_path]

-CREATE TABLE创建一个指定名字的表。如果相同名字的表已经存在,则抛出异常;用户可以用IF NOT EXISTS来忽略这个异常。

-EXTERNAL关键字可以让用户创建一个外部表,在建表的同时指定一个指向实际数据的路径(LOCATION)

-LIKE允许用户复制现有的表结构,但是不复制数据

-COMMENT可以为表与字段增加描述

-ROW FORMAT

DELIMITED[FIELDS TERMINATED BY char] [COLLECTION ITEMS TERMINATED BY char]

[MAP KEYS TERMINATED BY char] [LINES TERMINATED BY char]

I SERDE serde_name [WITH SERDEPROPERTIES (property.name =property_value,

property_name=property_value,...)]

用户在建表的时候可以自定义SerDe或者使用自带的SerDe。如果没有指定ROW FORMAT或者ROW FORMAT DELIMITED,将会使用自带的SerDe。在建表的时候,用户还需要为表指定列,用户在指定表的列的同时也会指定自定义的SerDe,Hive通过SerDe确定表的具体的列的数据。

-STORED AS

SEQUENCEFILE

| TEXTFILE

| RCFILE

| INPUTFORMAT input_format_classname OUTPUTFORMAT output_format_classname

如果文件数据是纯文本,可以使用STORED AS TEXTFILE。如果数据需要压缩,使用STORED AS SEQUENCE。

2)创建简单表

hive>CREATE TABLE pokes (foo INT,bar STRING);

3)创建外部表

CREATE EXTERNAL TABLE page_view(viewTime INT,userid BIGINT, page_url STRING, referrer_url STRING, ip STRING COMMENT “IP Address of the User”, country STRING COMMENT “country of origination”)

COMMENT “This is the staging page view table”

ROW FORMAT DELIMITED FlELDS TERMINATED BY “ \054”

STORED AS TEXTFILE

LOCATION “”;

4) 建分区表

CREATE TABLE par_table(viewTime INT, userid BIGINT, page_url STRING, referrer_url STRING, ip STRING COMMENT “IP Address of the User”)

COMMENT “This is the page view table”

PARTITIONED BY(date STRING, pos STRING)

ROW FORMAT DELIMITED “\t”

FIELDS TERMINATED BY“\t”

STORED AS SEQUENCEFILE;

-例子

create table user_info (user_id int, cid string, ckid string, username string)

row format delimited

fields terminated by '\t'

lines terminated by '\n';

-导入数据表的数据格式是:字段之间是tab键分割,行之间是断行。

及要我们的文件内容格式:

100636 100890 c5c86f4cddcl5eb7 yyyvybtvt

100612 100865 97cc70d411cl8b6f gyvcycy

100078 100087 ecd6026al5ffddf5 qa000l00

-显示所有表:

hive>SHOW TABLES;

-按正条件(正则表达式)显示表,

hive>SHOW TABLES ‘.*s’;

5) 修改表结构

-表添加一列:

hive>ALTER TABLE pokes ADD COLUMNS(new_col INT);

-添加一列并增加列字段注释

hive> ALTER TABLE invites ADD COLUMNS (new_col2 INT COMMENT

‘a comment’);

-更改表名

hive> ALTER TABLE events RENAME TO 3koobecaf;

-删除列

hive> DROP TABLE pokes;

6) 增加、删除分区

-增加

ALTER TABLE table_name ADD [IF NOT EXISTS] partition_spec [ LOCATION ‘location’]

partition.spec [ LOCATION ‘location2’]...

partition_spec:

:PARTITION (partition_col = partition_col_value, partition_col =partiton_col_value,...)

-删除

ALTER TABLE table_name DROP partition_spec, partition_spec,...

7) 重命名表

ALTER TABLE table_name RENAME TO new_table_name

修改列的名字、类型、位置、注释:

ALTER TABLE table_name CHANGE [COLUMN] col_old_name col_new_name column_type [COMMENT col_comment] [FIRST| AFTER column_name]

-这个命令可以允许改变列名、数据类型、注释、列位置或者它们的任意组合

8)表添加一列

hive>ALTER TABLE pokes ADD COLUMNS(new_col INT);

9)添加一列并增加列字段注释

hive> ALTER TABLE invites ADD COLUMNS (new_col INT COMMENT "a comment");

10)增加/更新列

-ALTER TABLE table_name ADD| REPLACE COLUMNS (col_name data_type [COMMENT col_comment],...)

-ADD是代表新增一字段,字段位置在所有列后面(partition列前)

REPLACE则是表示替换表中所有字段。

11) 增加表的元数据信息

-ALTER TABLE table_name SET TBLPROPERTIES table_properties:

:[property_name = property_value....]

-用户可以用这个命令由表中增加metadata

12) 改变表文件格式与组织

-ALTER TABLE table_name SET FlLEFORMAT file_format

-ALTER TABLE table_name CLUSTERED BY(userid) SORTED BY(viewTime) INTO num_buckets

BUCKETS

-这个命令修改了表的物理存储属性

13) 创建/删除视图

-CREATE VIEW [IF NOT EXISTS] view_name [ (column_name [COMMENT

column_comment],...) ][COMMENT view_comment][TBLPROPERTIES

(property_name =property_value,...)] AS SELECT

-增加视图

-如果没有提供表名,视图列的名字将由定义的SELECT表达式自动生成

-如果修改基本表的属性,视图中不会体现,无效查询将会失败

-视图是只读的,不能用LOAD/INSERT/ALTER

-DROP VIEW view_name

-删除视图

创建数据库

-CREATE DATABASE name

显示命令

-show tables;

-show databases;

-show partitions;

-show functions

-describe extended table_name dot col_name

3. DML

hive不支持用insert语句一条一条的进行插入操作,也不支持update操作。数据是以load的方式加载到建立好的表中。数据一旦导入就不可以修改。

DML包括:INSERT插入、UPDATE更新、DELETE删除

1)向数据表内加载文件

-LOAD DATA [LOCAL] INPATH“filepath”[OVERWRITE] INTO TABLE tablename

[PARTITION (partcol1=val1, partcol2=val2...)]

-Load操作只是单纯的复制/移动操作,将数据文件移动到Hive表对应的位置。

-filepath

-相对路径,例如:project/datal

-绝对路径,例如:/user/hive/project/data1

-包含模式的完整 URI,例如:hdfs://namenode:9000/user/hive/project/data1

例如:

hive>LOAD DATA LOCAL INPATH

‘./examples/files/kv1.txt’

OVERWRITE INTO TABLE pokes;

2) 加载本地数据,同时给定分区信息

-加载的目标可以是一个表或者分区。如果表包含分区,必须指定每一个分区的分区名

-filepath可以引用一个文件(这种情况下,Hive会将文件移动到表所对应的目录中)或者是一个目录(在这种情况下,Hive会将目录中的所有文件移动至表所对应的目录中)

LOCAL关键字

-指定了 LOCAL,即本地

-load命令会去查找本地文件系统中的filepath。如果发现是相对路径,则路径会被解释为相对于当前用户的当前路径。用户也可以为本地文件指定一个完整的URI,比如:fiIe: ///user/hive/project/data1.

-load命令会将filepath中的文件复制到目标文件系统中。目标文件系统由表的位置属性决定。被复制的数据文件移动到表的数据对应的位置

例如:加载本地数据,同时给定分区信息:

hive>LOAD DATA LOCAL INPATH ‘./examples/files/kv2.txt’

OVERWRITE INTO TABLE

invites PARTlTION (ds=’2008-08-15’);

-没有指定LOCAL

如果filepath指向的是一个完整的URI, hive会直接使用这个URI。否则

如果没有指定schema或者authority, Hive会使用在hadoop配置文件中定义的schema 和 authority, fs.default.name 指定了 Namenode 的 URI

-如果路径不是绝对的,Hive相对于/user/进行解释。Hive会将filepath中指定的文件内容移动到table (或者partition)所指定的路径中

3)加载DF数据,同时给定分区信息

hive>LOAD DATA INPATH ‘/user/myname/kv2.txt’

OVERWRITE INTO TABLE invites

PARTTION (ds=’2008-08-15’);

The above command will load data from an HDFS file/directory to the table. Note that loading data from HDFS will result in moving the file/directory. As a result, the operation is almost instantaneous.

-OVERWRITE

-指定了 OVERWRITE

-目标表(或者分区)中的内容(如果有)会被删除,然后再将filepath指向的文件/目录中的内容添加到表/分区中。

-如果目标表(分区)已经有一个文件,并且文件名和filepath中的文件名冲突,那么现有的文件会被新文件所替代。

4) 将查询结果插入Hive表

-将查询结果插入Hive表

-将查询结果写入HDFS文件系统

-基本模式

INSERT OVERWRITE TABLE tablename1 [PARTITION (partcol1=val1, partcol2=val2...)]

Select_statement1 FROM from_statement

-多插入模式

FROM from_statement

INSERT OVERWRITE TABLE tablename1 [PARTTITION (partcol1=val1, partcol2=val2...)]

Select_statement1

[INSERT OVERWRITE TABLE tablename2 [PARTITION...] select_statement2]...

-自动分区模式

INSERT OVERWRITE TABLE tablename PARTITION (partcol1[=val1], partcol2[=val2]...)

select_statement FROM from_statement

5) 将查询结果写入HDFS文件系统

-INSERT OVERWRITE [LOCAL] DIRECTORY directory1 SELECT... FROM ...

FROM from_statement

INSERT OVERWRITE [LOCAL] DIRECTORY directory1 select_statement1

[INSERT OVERWRITE [LOCAL] DIRECTORY directory2 select_statement2]

-数据写入文件系统时进行文本序列化,且每列用^A来区分,\n换行

INSERTINTO

-INSERTINTO TABLE tablename1 [PARTITION (partcol1=val1, partcol2=val2 ...)]

Select_statement1 FROM from_statement

4. DQL操作

1) 数据查询SQL

-基本的Select操作

SELECT [ALL | DISTINCTI select_expr, select_expr,...

FROM table_reference

[WHERE where_ condition]

[GROUP BY col_list [HAVING condition]]

[CLUSTER BY col_list

| [DISTRIBUTE BY col_list] [SORT BY| ORDER BY col_list]

]

[LIMIT number]

-使用ALL和DISTlNCT选项区分对重复记录的处理。默认是ALL,表示查询所有记录。DISTNCT表示去掉重复的记录

-Where条件

-类似我们传统SQL的where条件

-目前支持AND,OR ,0.9版本支持between,IN, NOT IN

-不支持 EXIST,NOT EXIST

2)ORDER BY 与SORT BY的不同

-ORDER BY全局排序,只有一个Reduce任务

-SORT BY只在本机做排序

3)Limit

-Limit可以限制查询的记录数

SELECT* FROM t1 LIMIT 5

-实现Top k查询

-下面的查询语句查询销售记录最大的5个销售代表。

SET mapred.reduce.tasks =1

SELECT* FROM test SORT BY amount DESC LIMIT 5

4)基于Partition的查询

-一般SELECT查询会扫描整个表,使用PARFFONED BY子句建表,查询就可以利用分区剪枝(input pruning)的特性

-Hive当前的实现是,只有分区断言出现在离FROM子句最近的那个WHERE子句中,才会启用分区剪枝

5) Join

-Hive 只支持等值连接(equality joins)、外连接(outer joins)和(left semi

joins)。Hive不支持所有非等值的连接,因为非等值连接非常难转化到

map/reduce 任务

-LEFT, RIGHT和FULL OUTER关键字用于处理join中空记录的情况

-LEFT SEMI JOIN是IN/EXISTS子查询的一种更高效的实现

-join时,每次map/reduce任务的逻辑是这样的:reducer会缓存join序列中除了最后一个表的所有表的记录,再通过最后一个表将结果序列化到文件系统

-实践中,应该把最大的那个表写在最后。

6) 从sot到Hivea需要注意的事项

-Hive不支持等值连接

-Hive不支持将数据插入现有的表或分区中

-hive不支持INSERT INTO, UPDATE, DELETE操作

-hive支持嵌入mapreduce程序,来处理复杂的逻辑

-hive支持将转换后的数据直接写入不同的表,还能写入分区、hdfs和本地目录。

相关推荐

DNF无色流派还在继续,重力之泉龙战八荒测评

作者:礁石22222前言本篇为115级套装天天鉴栏目,来帮助各位读者对于新版本的装备有一个更清晰的认知。115级套装分为了稀有到太初5个品级,所有套装的稀有品级属性是一致的,从神器开始出现分歧。通过积...

《暗黑破坏神2重制版》常用符文之语P3

大家好我是游戏小白,继续补充一下《暗黑破坏神2重制版》常用的符文之语,主要给大家总结一下前期过渡常用符文之语。没看过之前关于符文之语总结的小伙伴可以翻翻前面的文章。1、钢铁符文之语钢铁造价极低但性价比...

魔兽怀旧服:P1一款法系BIS披风,获取方式隐蔽,需完成875个任务

在魔兽怀旧服WLK版本,依旧存在许多实用的制造业装备,特别是在P1阶段,制造业装备的耐用性和性价比是最高的,不仅可以帮助玩家快速过渡到团本,甚至还有个别制造业装备超越了团本掉落的强度,除了玩家近期讨论...

分手类型——过渡阶段

过度阶段一.内涵:类似于反复期,在这个阶段儿可能会出现两种可能性。1.感性想分手,但理性上舍不得。感性上我完全不想跟他相处,但理性上我又觉得他身上有很多对我有利的,对我未来有机会有利的东西。二.理性...

《最后的信仰》新手开局保姆级指南职业选择、属性加点与开荒策略

《最后的信仰》作为类魂动作游戏,开局选择直接影响开荒体验。本文针对新手玩家,从职业特性、属性分配到武器过渡,提炼高效开荒公式,助你避开陷阱,快速掌握战斗节奏。一、职业选择:斗士/盗贼优先,法系/...

DNF回血秘方揭示,夏日前买必看篇

作者:辽宁吴彦祖前言(省流速览)夏日礼包购买理由:夏日礼包是DNF四大礼包之一(新春&耕耘&夏日&金秋),错过销售日期后续想获得部分道具难度极大。主打暖暖时装、特色补齐、海量打...

DNF手游:55级粉装有大作用!强化继承大法,可节省大量幸运符

55级粉装的自身属性,实际上比较一般,但它可以用来作为“过渡胚子”,能够帮大家节省很多幸运符和宇宙精华!1、强化继承大法因为不断有玩家翻出了55级团本武器,这把武器肯定是当前版本毋庸置疑的版本答案,但...

魔兽世界50级职业任务装备如何选择,手把手教学

魔兽世界50级职业任务,我们装备应该如何选择,今天分身一个文章告诉你,我们知道BWL开放,也会开放50级的职业任务,那么50级的职业任务,对某些职业来说还是非常重要的,因为给的装备。有的甚至可以用到7...

暗牧的T5与散件如何取舍?认准自己的团队地位才最重要

牧师作为《魔兽世界》中的老牌职业历经许久已经收获了不少的信仰者,而在笔者看来牧师的最大特色便是风格完全不同的三系专精,在TBC时期,Raid本中的牧师大多为神牧,而戒律牧基本只活跃在竞技场和战场上,而...

DNF:魂异界传说宝珠曝光!属性设计一般般,男枪第五转职专属

魂异界地下城“炒冷饭”,定位新春活动副本,奖励道具覆盖面广,涉及白金徽章、转职书、矛盾材料等等。解锁魂异界次元等级,还能兑换传说宝珠,属性也逐渐浮出水面,却比较鸡肋,“抠门”发挥的淋漓尽致!太“抠门”...

SwiftUI入门五:让视图和过渡动起来

在使用SwiftUI的时候,无论效果在哪里,我们都可以单独的让视图的变化动起来,或者让视图的状态的变化动态化。SwiftUI会为我们处理那些组合的、层叠的以及可中断的动画的复杂性。在这个教程中,我们会...

DNF:又是变强的一年?2024耕耘礼包提升率揭晓

作者:assddde前言国服耕耘礼包的内容已经爆料了。对去年拉满耕耘的奶系职业的而言,今年的提升点为纹章加入了1%的增益量增幅。对C而言,今年换装称号中还加入了buff换装词条。而对于错过了新春套的C...

魔兽世界:TBC第一阶段还有必要刷T4套吗,D3套能否过渡到T5套?

T4套真的不如D3套?TBC怀旧服P1阶段目前已经走过大半,作为这个阶段装备等级最高的套装T4套装,游戏中有很大争议。比如猎人玩家会选择D3套,直接跳过T4到T5阶段,而法师甚至会选择继续使用T3套装...

《异世界勇者》390版本开荒&毕业攻略——狂暴战

虽然说这个版本是防战的本命版本,但是从大家催更的频率来看,狂暴战依旧是碾压的优势,今天给大家分享一下390版本狂暴战的毕业游玩思路,希望对你有帮助。今天给大家带来的是手动速刷版的攻略,想要挂机过本需要...

飞飞重逢:装备属性卡全攻略,五色神卡助你战力飙升快速获取

在游戏中,装备属性卡是提升战斗力的关键道具,它能赋予装备特殊的元素属性,不仅大幅提升攻击力,还能针对不同怪物打出克制伤害。属性卡分为火、水、风、土、电五种元素,每种都能为装备附加独特的攻击特效。那么如...