首页 > 数据库技术 > 详细

spark sql 连接使用mysql数据源

时间:2015-10-13 15:27:49      阅读:475      评论:0      收藏:0      [点我收藏+]

spark sql 可以通过标准的jdbc连接数据库,获得数据源

package com.xx;

import org.apache.spark.SparkConf;
import org.apache.spark.SparkContext;
import org.apache.spark.sql.DataFrame;
import org.apache.spark.sql.SQLContext;

/**
 * spark sql
 * @author Chenj
 */
public class SparkSql {

    private static final String appName = "spark sql test";
    private static final String master = "spark://192.168.1.21:7077";
    private static final String JDBCURL = "jdbc:mysql://192.168.1.55/lng?useUnicode=true&characterEncoding=utf-8&user=root&password=123456";

    public static void main(String[] avgs){
        SparkConf conf = new SparkConf().
                setAppName(appName).
                setMaster(master).
                setSparkHome(System.getenv("SPARK_HOME")).
                setJars(new String[]{System.getenv("JARS")});

        SparkContext sparkContext = new SparkContext(conf);

        SQLContext sqlContext = new SQLContext(sparkContext);

        DataFrame user = sqlContext.jdbc(JDBCURL, "tsys_user");

        user.show();

    }

}

首先得上传mysql 的驱动jar包到集群中。

使用

./spark-submit --driver-class-path ../lib/mysql-connector-java-5.1.36.jar --class com.xx.SparkSql --master spark://ser21:7077 /usr/local/spark-1.0-SNAPSHOT.jar

--driver-class-path 为jdbc驱动地址,

 

spark sql 连接使用mysql数据源

原文:http://my.oschina.net/u/160697/blog/516300

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!