hive查询有哪些数据库,hive中怎么查询出所有库的所有表名
来源:整理 编辑:黑码技术 2024-07-18 16:11:56
本文目录一览
1,hive中怎么查询出所有库的所有表名
在表上面右击——编写表脚本为:——Create到——新查询编辑器窗口,你也可以保存为sql文件,新查询编辑器窗口的话在最上面一条把use databasename改成你要复制过去的数据库名称
2,检查hive下是否存在某个数据库实例
进入Hive可以使用 show databases;命令列出所有的数据库。hive支持多种数据库存放元数据derby|mysql|postgres|oracle,默认使用derby数据库。
3,hive怎么切换进数据库
MySQLdb.connect是python 连接MySQL数据库的方法,在Python中 import MySQLdb即可使用,至于connect中的参数很简单: host:MySQL服务器名 user:数据库使用者 password:用户登录密码 db:操作的数据库名 charset:使用的字符集(一般是gb2312)历史上存在的原理,以前都是使用hive来构建数据仓库,所以存在大量对hive所管理的数据查询的需求。而hive、shark、sparlsql都可以进行hive的数据查询。shark是使用了hive的sql语法解析器和优化器,修改了执行器,使之物理执行过程是跑在spark上;而sparksql是使用了自身的语法解析器、优化器和执行器,同时sparksql还扩展了接口,不单单支持hive数据的查询,可以进行多种数据源的数据查询。
4,怎样查看hive建的外部表的数据库
1进入HIVE之前要把HADOOP给启动起来,因为HIVE是基于HADOOP的。所有的MR计算都是在HADOOP上面进行的。2在命令行中输入:hive。这个时候就可以顺利的进入HIVE了。当然了,如果你想直接执行HQL脚本文件可以这样:hive -f xxxxx.hql。3进入hive之后一一般默认的数据库都是default。如果你切换数据库的话所建的表都会是在default数据库里面。4创建数据库的语法是:create database database_name;非常简单的,其实hive跟mysql的语法还是比较相似的。为什么呢?请继续往下5切换数据库的时候可以输入:use database_name;查看所有数据库的时候可以输入:show databases;查看所有表的时候可以输入:show tables6看表结构的时候可以输入:describe tab_name;hive是一个基于hadoop的数据仓库平台。通过hive,我们可以方便地进行etl的工作。hive定义了一个类似于sql的查询语言:hql,能 够将用户编写的ql转化为相应的mapreduce程序基于hadoop执行。
5,如何用Hive访问Hadoop上数据
步骤Hive提供了jdbc驱动,使得我们可以连接Hive并进行一些类关系型数据库的sql语句查询等操作,首先我们需要将这些驱动拷贝到报表工程下面,然后再建立连接,最后通过连接进行数据查询。拷贝jar包到FR工程将hadoop里的hadoop-common.jar拷贝至报表工程appname/WEB-INF/lib下;将hive里的hive-exec.jar、hive-jdbc.jar、hive-metastore.jar、hive-service.jar、libfb303.jar、log4j.jar、slf4j-api.jar、slf4j-log4j12.jar拷贝至报表工程appname/WEB-INF/lib下。配置数据连接启动设计器,打开服务器>定义数据连接,新建JDBC连接。在Hive 0.11.0版本之前,只有HiveServer服务可用,在程序操作Hive之前,必须在Hive安装的服务器上打开HiveServer服务。而HiveServer本身存在很多问题(比如:安全性、并发性等);针对这些问题,Hive0.11.0版本提供了一个全新的服务:HiveServer2,这个很好的解决HiveServer存在的安全性、并发性等问题,所以下面我们分别介绍HiveServer和HiveServer2配置数据连接的方式。HiveServer数据库驱动:org.apache.hadoop.hive.jdbc.HiveDriver;URL:jdbc:hive://localhost:10000/default注:hive服务默认端口为10000,根据实际情况修改端口;另外目前只支持默认数据库名default,所有的Hive都支持。测试连接,提示连接成功即可。4数据库驱动:org.apache.hive.jdbc.HiveDriver;URL:jdbc:hive2://localhost:10000/default注:该连接方式只支持Hive0.11.0及之后版本。修改文件 /etc/profile,添加如下的行: export hadoop_home=/usr/local/hadoopexport ant_home=$hadoop_home/apache-ant-1.7.1export path=$path:/usr/local/hadoop/bin:$java_home/bin:$hadoop_home/contrib/hive/bin:$ant_home/bin export ant_lib=$hadoop_home/apache-ant-1.7.1/lib export hadoop=$hadoop_home/bin/hadoop 4、修改hive配置文件 /usr/local/hadoop/contrib/hive/conf/hive-default.xml,只要改一个地方,使其内容为:/usr/local/hadoop/contrib/hive/lib/hive_hwi.war。昨天我把它书写成 “hive-hwi.war”,浏览器访问,就只列出文件目录,死活都不对,唉! 5、启动hive web服务: $ hive –service hwi & .监听端口默认是9999,也可以自己到hive-default.xml定制。浏览器的访问url为 http:/hadoop:9999/hwi. 注:hive表的存放地为hdfs,默认是 /user/hive .这个路径只有通过hadoop shell才能看见(不是/usr)
文章TAG:
查询 哪些 数据 数据库 hive查询有哪些数据库