表示 进入内容 101110112
« 先前的 10 新的记录 | 下一步 2 较早的记录 »
Displaying posts with tag: Hive (reset)
hive连接数

使用hive分析日志作业很多的时候,需要修改mysql的默认连接数

修改方法   打开/etc/my.cnf文件

在[mysqld]  中添加 max_connections=1000

重启mysql服务  service mysqld restart

mysql>show variables like '%max_connections%';

查看当前mysql的连接数方法 mysqladmin -uroot -p status 其中,Uptime:mysqld运行时间,单位秒。

【mysql】  【日志】  【open】  【Hive】  【variables】   …

[获取更多]
hive1.2伪分布mysql数据库配置详解

hadoop2.6伪分布配置:http://blog.csdn.net/gamer_gyt/article/details/46793731 hive1.2  derby元数据库配置:http://blog.

【服务器】  【mysql】  【hadoop】  【数据库】  【配置】  【JDBC】  【xml】  【Hive】   …

[获取更多]
使用hadoop平台进行小型网站日志分析

版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/qq1010885678/article/details/44688325

0.上传日志文件到linux中,通过flume将文件收集到hdfs中。

【mysql】  【hadoop】  【Cloud】  【BY】  【脚本】  【IP】  【string】   …

[获取更多]
hadoop hive hbase 入门学习 (三)

  ////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////////...

【java】  【mysql】  【hbase】  【hadoop】  【Apache】  【path】  【配置】  【测试】   …

[获取更多]
HADOOP之HIVE+MYSQL,HBASE+ZOOKEEPER

这个搞得有劲哈哈 继续。。。继续。。。。



【mysql】  【hbase】  【hadoop】  【Hive】  【zookeeper】   点击查看原文>

MySQL推出Applier,可实时复制数据到Hadoop

http://labs.mysql.com MySQL复制操作可以将数据从一个MySQL服务器(主)复制到其他的一个或多个MySQL服务器(从)。

【服务器】  【mysql】  【hdfs】  【hadoop】  【Apache】  【数据库】  【数据仓库】  【分布式文件系统】   …

[获取更多]
org.apache.hadoop.hdfs.server.namenode.SafeModeException: Cannot create directory /user/hive/warehouse/page_view. Name node is in safe mode

FAILED: Error in metadata: MetaException(message:Got exception: org.apache.hadoop.ipc.RemoteException org.

【mysql】  【hdfs】  【hadoop】  【Apache】  【node】  【Server】  【string】  【exception】   …

[获取更多]
大数据工具篇之Hive与MySQL整合完整教程

一、引言   Hive元数据存储可以放到RDBMS数据库中,本文以Hive与MySQL数据库的整合为目标,详细说明Hive与MySQL的整合方法。 二、安装驱动   MySQL最新的Java驱动版本为:mysql-connector-java-5.1.28-bin.jar,下载后拷贝到:Hive/Lib目录。

【大数据】  【mysql】  【数据库】  【配置】  【rpm】  【JDBC】   …

[获取更多]
q: 单机版的hive

q: 单机版的hive

在hadoop中自己写map/reduce代码,分析文本文件, 开发效率不高,
于是有了hive,只要定义好表结构,然后就可以直接用sql语句来分析文本文件,效率大大提升。

在单机linux上呢?如果要分析一个文本文件,通常是用awk,或者py/php? 开发速度也不快
于是就有了q,可以用sql语句来分析文本文件,表结构都不用提前定义的。

https://github.com/harelba/q

      [大硬盘][zhaokunyao@ tpcc-mysql]$ ls -l >exampledatafile 
[大硬盘][zhaokunyao@ tpcc-mysql]$ cat exampledatafile 
总用量 368
-rw-rw-r--. 1 zhaokunyao zhaokunyao   1621 8月   8 16:08 add_fkey_idx.sql
-rw-rw-r--. 1 zhaokunyao zhaokunyao    317 8月   8 16:08 count.sql
-rw-rw-r--. 1 zhaokunyao zhaokunyao   3105 8月   8 16:08 create_table.sql
-rw-rw-r--. 1 zhaokunyao zhaokunyao    763 8月   8 16:08 drop_cons.sql …
[获取更多]
使用sqoop把mysql数据导入hive

使用sqoop把mysql数据导入hive

export HADOOP_COMMON_HOME=/hadoop
export HADOOP_MAPRED_HOME=/hadoop
 
cp /hive/lib/mysql-connector-java-5.1.25-bin.jar     /sqoop/lib/

share表第一列为自增主键 share_id,share_id<1000的数据共有999条:

      mysql> SELECT COUNT(*) FROM share WHERE share_id<1000;
+----------+
| COUNT(*) |
+----------+
|      999 |
+----------+
1 ROW IN SET (0.00 sec)

使用sqoop导入到hive

      [hduser@www lib]$ /sqoop/bin/sqoop import --connect jdbc:mysql://localhost/shipincon --table share --username root --password xxx --hive-import --where "share_id<1000"  -- --default-character-set=utf8
 
 
Warning: /usr/lib/hbase does not exist! HBase imports will fail.
Please set $HBASE_HOME to the root of your HBase installation. …
[获取更多]
表示 进入内容 101110112
« 先前的 10 新的记录 | 下一步 2 较早的记录 »