本文目录一览

1,如何在hive表里加载数据

(1)、从本地文件系统中导入数据到 Hive 表; (2)、从 HDFS 上导入数据到 Hive 表; (3)、从别的表中查询出相应的数据并导入到 Hive 表中; (4)、在创建表的时候通过从别的表中查询出相应的记录并插入到所创建的表中。

如何在hive表里加载数据

2,hive的元数据存储在derby和mysql 中有什么区别

hive的元数据如果放在derby,一般只能允许1个会话连接;而mysql则没有这个限制;为了共享知识,请点个赞支持下
定义 元数据最本质、最抽象的定义为:data about data (关于数据的数据)。它是一种广泛存在的现象,在许多领域有其具体的定义和应用。 在数据仓库领域中,元数据被定义为:描述数据及其环境的数据。一般来说,它有两方面的用途。

hive的元数据存储在derby和mysql 中有什么区别

3,hive连接mysql mysql安装在哪里

一般是在另 外一台电脑或服务器上;在linux和windows下都可以安装。 hive与mysql可以加载数据。当然其他关系数据库链接安装也是这样,例如360oracle
for i in `cat hive.txt`;do mysql -uroot -p passwd -e "show databases;" (-e 里面就是你所执行的sql语句)done

hive连接mysql mysql安装在哪里

4,从mysql导入到hive是外部表还是内部表

MySQL命令行导出数据库:1,进入MySQL目录下的bin文件夹:cd MySQL中到bin文件夹的目录如我输入的命令行:cd C:\Program Files\MySQL\MySQL Server 4.1\bin(或者直接将windows的环境变量path中添加该目录)2,导出数据库:mysqldump -u 用户名 -p 数据库名 > 导出的文件名 如我输入的命令行:mysqldump -u root -p news > news.sql (输入后会让你输入进入MySQL的密码)(如果导出单张表的话在数据库名后面输入表名即可)3、会看到文件news.sql自动生成到bin文件下 命令行导入数据库:1,将要导入的.sql文件移至bin文件下,这样的路径比较方便2,同上面导出的第1步3,进入MySQL:mysql -u 用户名 -p如我输入的命令行:mysql -u root -p (输入同样后会让你输入MySQL的密码)4,在MySQL-Front中新建你要建的数据库,这时是空数据库,如新建一个名为news的目标数据库5,输入:mysql>use 目标数据库名如我输入的命令行:mysql>use news;6,导入文件:mysql>source 导入的文件名; 如我输入的命令行:mysql>source news.sql;
for i in `cat hive.txt`;do mysql -uroot -p passwd -e "show databases;" (-e 里面就是你所执行的sql语句)done

5,如何用Hive访问Hadoop上数据

步骤Hive提供了jdbc驱动,使得我们可以连接Hive并进行一些类关系型数据库的sql语句查询等操作,首先我们需要将这些驱动拷贝到报表工程下面,然后再建立连接,最后通过连接进行数据查询。拷贝jar包到FR工程将hadoop里的hadoop-common.jar拷贝至报表工程appname/WEB-INF/lib下;将hive里的hive-exec.jar、hive-jdbc.jar、hive-metastore.jar、hive-service.jar、libfb303.jar、log4j.jar、slf4j-api.jar、slf4j-log4j12.jar拷贝至报表工程appname/WEB-INF/lib下。配置数据连接启动设计器,打开服务器>定义数据连接,新建JDBC连接。在Hive 0.11.0版本之前,只有HiveServer服务可用,在程序操作Hive之前,必须在Hive安装的服务器上打开HiveServer服务。而HiveServer本身存在很多问题(比如:安全性、并发性等);针对这些问题,Hive0.11.0版本提供了一个全新的服务:HiveServer2,这个很好的解决HiveServer存在的安全性、并发性等问题,所以下面我们分别介绍HiveServer和HiveServer2配置数据连接的方式。HiveServer数据库驱动:org.apache.hadoop.hive.jdbc.HiveDriver;URL:jdbc:hive://localhost:10000/default注:hive服务默认端口为10000,根据实际情况修改端口;另外目前只支持默认数据库名default,所有的Hive都支持。测试连接,提示连接成功即可。4数据库驱动:org.apache.hive.jdbc.HiveDriver;URL:jdbc:hive2://localhost:10000/default注:该连接方式只支持Hive0.11.0及之后版本。
修改文件 /etc/profile,添加如下的行: export hadoop_home=/usr/local/hadoopexport ant_home=$hadoop_home/apache-ant-1.7.1export path=$path:/usr/local/hadoop/bin:$java_home/bin:$hadoop_home/contrib/hive/bin:$ant_home/bin export ant_lib=$hadoop_home/apache-ant-1.7.1/lib export hadoop=$hadoop_home/bin/hadoop 4、修改hive配置文件 /usr/local/hadoop/contrib/hive/conf/hive-default.xml,只要改一个地方,使其内容为:/usr/local/hadoop/contrib/hive/lib/hive_hwi.war。昨天我把它书写成 “hive-hwi.war”,浏览器访问,就只列出文件目录,死活都不对,唉! 5、启动hive web服务: $ hive –service hwi & .监听端口默认是9999,也可以自己到hive-default.xml定制。浏览器的访问url为 http:/hadoop:9999/hwi. 注:hive表的存放地为hdfs,默认是 /user/hive .这个路径只有通过hadoop shell才能看见(不是/usr)

文章TAG:里面  数据  数据库  在哪  hive里面数据库在哪个路径  
下一篇