版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/qq1010885678/article/details/44543931
sqoop只要安装到集群中的一台节点就可以了 1.
【mysql】 【hdfs】 【数据库】 【集群】 【JDBC】 【sqoop】 点击查看原文>
使用sqoop把mysql数据导入hive
export HADOOP_COMMON_HOME=/hadoop export HADOOP_MAPRED_HOME=/hadoop cp /hive/lib/mysql-connector-java-5.1.25-bin.jar /sqoop/lib/ |
share表第一列为自增主键 share_id,share_id<1000的数据共有999条:
mysql> SELECT COUNT(*) FROM share WHERE share_id<1000; +----------+ | COUNT(*) | +----------+ | 999 | +----------+ 1 ROW IN SET (0.00 sec) |
使用sqoop导入到hive
[hduser@www lib]$ /sqoop/bin/sqoop import --connect jdbc:mysql://localhost/shipincon --table share --username root --password xxx --hive-import --where "share_id<1000" -- --default-character-set=utf8 Warning: /usr/lib/hbase does not exist! HBase imports will fail. Please set $HBASE_HOME to the root of your HBase installation. … |