Hive 启动及数据仓库指令汇总
1、进入hive数据库,不需要启动server,使用本地的metastore,可以直接做一些简单的数据操作和测试
hive (或) hive --service cli
2、开启metastore服务 默认端口用的是9083
hive --service metastore
3、开启hiveserver服务 JDBC端口是10000 JAVA可以连接
hive --service hiveserver (或)
4、hive web界面的启动方式(用于通过浏览器来访问hive)
hive –service hwi
HIVE的连接模式== 本地连接模式 直接启动hive命令
HIVE的远程连接 这里要启动HIVE的服务 thirft进行编写
hiveserver2 —- > 前台启动 后台启动
前台启动 hiveserver2
后台启动 hiveserver2 &
1、进入客户端 >hive
2、查看hive中的所有数据库:show databases;
3、用default数据库:use default;
4、查看所有的表:show tables;
5、查询表结构:desc mytest(表名);
6、查询表数据: select * from mytest(表名);
7、创建数据库:
hive> CREATE SCHEMA userdb;
8、验证数据库表:
hive> SHOW DATABASES;
9、删除数据库:
hive> DROP DATABASE IF EXISTS userdb; hive> DROP SCHEMA userdb;
全部删除相应的表在删除数据库之前:
hive> DROP DATABASE IF EXISTS userdb CASCADE;
10、创建表employee
hive> create table if not exists employee (eid int,name String,salary String,destination String) > comment 'employee details' > ROW FORMAT DELIMITED > FIELDS TERMINATED BY '\t' > LINES TERMINATED BY '\n' > STORED AS TEXTFILE;
如果增加分区必须在创建表的时候就创建分区,不然就会报错,创建分区的命令>partition by ‘根据哪个字段分区’,
hive> create table employee (id int, name String, dept String) > PARTITIONED BY (year int) > ROW FORMAT delimited > fields terminated by '\t' > lines terminated by '\n' > stored as textfile;
stored as textfile文件格式,文件格式在hive中有三种: textfile、Sequencefile(序列化文件,学hadoop的都会知道啦)、Rcfile。
11、添加数据到表中
hive> LOAD DATA LOCAL INPATH '/usr/hadoop/hive/sample.txt' > OVERWRITE INTO TABLE employee;
如果table是个分区表则必须在hql中指定分区
hive> LOAD DATA LOCAL INPATH '/usr/hadoop/hive/sample.txt' > OVERWRITE INTO TABLE employee partition(year=2012);
(虽然已经实现了分区,但还未明白为什么分区后所有的数据都根据分区条件发生变化)
LOAD DATA:加载数据; LOCAL:本地数据 INPATH:文件的地址 OVERWRITE:覆盖表中的数据 加overwrite是重写表的数据,不加是追加数据
插入表数据:
insert into employee(eid,name) values (1208,'jack');
hive只支持插入不支持修改和删除
12、重命名表名:
hive> ALTER TABLE employee RENAME TO emp;
13、修改emp表中字段name为ename:
hive> ALTER TABLE emp CHANGE name ename String;
14、修改emp表中字段salary的数据类型从float改为double:
hive> ALTER TABLE emp CHANGE salary salary Double;
15、删除表;
hive> drop table test;
16、创建视图
hive> create view empview as > select * from emp where salary>40000;
17、不同类型的连接 JOIN 、LEFT OUTER JOIN、RIGHT OUTER JOIN、FULL OUTER JOIN
18、创建外部表:用external关键字
hive> create external table outsidetable(name string comment 'name value',addr string comment 'addr value');
查询表信息:desc formatted outsidetable;
原文链接: https://www.yukx.com/bigdata/article/details/1459.html 优科学习网Hive 启动及数据仓库指令汇总
-
MD5(Message-DigestAlgorithm5)是一种广泛使用的散列函数(哈希函数),由美国密码学家罗纳德·李维斯特(RonaldL.Rivest)在1991年设计。MD5的作用是对任意长度的信息生成一个固定长度(128位,即32个十六进制字符)的“指纹”或“消息摘要”,并且几乎不可能找到
-
循环冗余校验(CyclicRedundancyCheck,CRC)是一种用于检测数据传输和存储过程中发生错误的技术,属于一种基于数学原理的错误检测编码(ErrorDetectionCoding)方法。它通过在原始数据上附加一个固定长度的校验码,使得接收端可以通过同样的计算规则对收到的数据进行校验,确
-
AES(AdvancedEncryptionStandard)是一种广泛使用的对称密钥加密算法,它是美国国家标准与技术研究院(NIST)于2001年制定的加密标准,用于替代原有的DES(DataEncryptionStandard)。AES算法以其高效性、安全性和可靠性而著称,在众多应用领域中被广泛
-
RSA(Rivest-Shamir-Adleman)是一种广泛应用的非对称加密算法,由RonRivest、AdiShamir和LenAdleman在1977年提出。其安全性基于数学上的大数因子分解难题,即对于足够大的两个素数p和q而言,已知它们的乘积很容易,但想要从这个乘积中恢复原始的素数则异常困难
-
最小生成树(MinimumSpanningTree,MST)是一种图论算法,用于在一个带权重的无向连通图中找到一棵包括所有顶点且总权重尽可能小的树。常见的最小生成树算法有两种:Prim算法和Kruskal算法。Prim算法原理:Prim算法是一种贪心算法,它从图中的一个顶点开始,逐步增加边,每次都添
-
关于最短路径算法的Java实现,这里简述一下几种常用的算法及其基本原理,并给出一个Dijkstra算法的基本实现框架。Dijkstra算法(适用于无负权边的图)Dijkstra算法用于寻找图中一个顶点到其他所有顶点的最短路径。它维护了一个距离表,用来存储从源点到各个顶点的已知最短距离,并且每次都会选