Spark On Hive配置测试及分布式SQL ThriftServer配置

Spark On Hive的原理及配置

  • Spark本身是一个执行引擎,而没有管理metadate的能力,当我们在执行SQL的时候只能将SQL转化为RDD提交。而对于一些数据中的元数据Spark并不知道,而Spark能写SQL主要是通过DataFrame进行注册的。
  • 这时候我们就可以借助Hive中的MetaStore进行元数据管理。也就是说把Hive中的metastore服务器直接拿过来给Spark使用。

配置步骤

  1. 在spark安装的conf目录下创建hive-site.xml
<configuration>
    <!-- 告知spark创建表位置 -->
    <property>
        <name>hive.metastore.warehouse.dir</name>
        <value>/user/hive/warehouse</value>
    </property>

    <!-- 告知spark hive metastore位置 -->
    <property>
        <name>hive.metastore.uris</name>
        <value>thrift://node1:9083</value>
    </property>
</configuration>
  1. 将mysql驱动Jar包放在spark安装的jars目录中
  2. 确保Hive配置了metastore的服务
<!-- 远程模式部署metastore metastore地址 -->
<property>
    <name>hive.metastore.uris</name>
    <value>thrift://node1:9083</value>
</property>
  1. 启动metastore服务
 nohup bin/hive --service metastore 2>&1 >> /export/server/apache-hive-3.1.2/log/metastore.log &
  1. 测试:在spark安装的bin目录下,启动spark-sql直接编写sql。

在代码中集成Spark On Hive

# 确保metastore服务是开启的
if __name__ == '__main__':
    ss = SparkSession.builder \
        .appName("test") \
        .master("local[*]") \
        .config("spark.sql.shuffle.partitions", 2) \
        .config("spark.sql.warehouse.dir", "hdfs://node1:8020/user/hive/warehouse/") \
        .config("hive.metastore.uris", "thrift://node1:9083") \
        .enableHiveSupport() \
        .getOrCreate()
    sc = ss.sparkContext

    ss.sql('''select * from student''').show()

Spark分布式SQL执行原理及配置

  • Spark中ThriftServer,监听10000端口的服务,能够使开发者直接使用数据库工具或者代码连接,并且直接通过编写SQL来操作Spark。前提确保metastore服务+spark on hive配置

配置步骤

  1. 配置spark on hive步骤相同
  2. 启动ThriftServer服务
./start-thriftserver.sh --hiveconf hive.server2.thrift.port=10000 --hiveconf hive.server2.thrift.bind.host=node1 --master local[2]
  1. 测试:通过DBeaver等工具连接Spark
    在这里插入图片描述

在代码中集成Spark JDBC ThriftServer

  1. 安装pyhive所需要的linux依赖包
yum install zlib-devel bzip2-devel openssl-devel ncurses-devel sqlite-devel readline-devel tk-devel libffi-devel gcc make gcc-c++ python-devel cyrus-sasl-devel cyrus-sasl-plain cyrus-sasl-gssapi -y
pip install pyhive pymysql sasl thrift thrift_sasl
  1. 代码测试
from pyhive import hive

if __name__ == '__main__':
    # 获取到Hive(Spark Thrift连接)
    conn = hive.connect(host="node1", port=10000, username="root")
    # 获取一个游标对象
    cursor = conn.cursor()
    # 执行SQL
    cursor.execute("SELECT * FROM student")
    # 通过fetchall函数返回结果
    res = cursor.fetchall()
    print(res)

总结

  • 分布式SQL执行引擎就是使用Spark提供的ThriftServer服务,以“后台进程”的模式持续运行,对外提供端口。
  • SQL提交后,底层运行的就是Spark任务。相当于构建了一个以MetaStore服务为元数据,Spark为执行引擎的数据库服务,像操作数据库那样方便的操作SparkSQL进行分布式的SQL计算。

相关推荐

  1. ubuntu nginx+rtmp配置简单测试

    2024-01-21 08:28:05       32 阅读
  2. 【Linux】网络基本配置网络测试测试工具

    2024-01-21 08:28:05       34 阅读
  3. 分布式配置中心SpringCloudConfig

    2024-01-21 08:28:05       41 阅读

最近更新

  1. ArduPilot开源代码之AP_OpticalFlow_MSP

    2024-01-21 08:28:05       0 阅读
  2. API分页处理指南:Postman中的高效数据浏览技巧

    2024-01-21 08:28:05       1 阅读
  3. 对称加密与非对称加密如何实现密钥交换

    2024-01-21 08:28:05       1 阅读
  4. 各种音频处理器

    2024-01-21 08:28:05       1 阅读
  5. this指针

    2024-01-21 08:28:05       1 阅读
  6. Object.defineProperty与Proxy对比【简单易懂】

    2024-01-21 08:28:05       1 阅读

热门阅读

  1. 一文详解pyspark中sql的join

    2024-01-21 08:28:05       33 阅读
  2. 探索Flask中的RESTful API设计与实现

    2024-01-21 08:28:05       34 阅读
  3. hive order by length() 报错

    2024-01-21 08:28:05       30 阅读
  4. C++核心编程

    2024-01-21 08:28:05       26 阅读
  5. 【笔记】Helm-3 主题-11 基于角色的访问控制

    2024-01-21 08:28:05       30 阅读
  6. 使用OpenCV从一个矩阵提取子矩阵

    2024-01-21 08:28:05       29 阅读
  7. 复现github项目的基本步骤

    2024-01-21 08:28:05       30 阅读
  8. RabbitMQ-数据持久化

    2024-01-21 08:28:05       35 阅读
  9. 开发安全之:XML Injection

    2024-01-21 08:28:05       31 阅读