理解 Spark 写入 API 的数据处理能力

6f98685715f030f33626640749dadf07.png

这张图解释了 Apache Spark DataFrame 写入 API 的流程。它始于对写入数据的 API 调用,支持的格式包括 CSV、JSON 或 Parquet。流程根据选择的保存模式(追加、覆盖、忽略或报错)而分岔。每种模式执行必要的检查和操作,例如分区和数据写入处理。流程以数据的最终写入或错误结束,取决于这些检查和操作的结果。

Apache Spark 是一个开源的分布式计算系统,提供了强大的平台用于处理大规模数据。写入 API 是 Spark 数据处理能力的基本组成部分,允许用户将数据从他们的 Spark 应用程序写入或输出到不同的数据源。

理解 Spark 写入 API

数据源

Spark 支持将数据写入各种数据源,包括但不限于:

•分布式文件系统,如 HDFS•云存储,如 AWS S3、Azure Blob Storage•传统数据库(包括 SQL 和 NoSQL)•大数据文件格式(Parquet、Avro、ORC)

DataFrameWriter

写入 API 的核心类是 DataFrameWriter。它提供配置和执行写入操作的功能。通过在 DataFrame 或 Dataset 上调用 .write 方法获得 DataFrameWriter

写入模式

指定 Spark 在写入数据时应如何处理现有数据的模式。常见的模式包括:

append:将新数据添加到现有数据中。•overwrite:用新数据覆盖现有数据。•ignore:如果数据已存在,则忽略写入操作。•errorIfExists(默认):如果数据已存在,则抛出错误。

格式规范

可以使用 .format("formatType") 方法指定输出数据的格式,如 JSON、CSV、Parquet 等。

分区

为了实现有效的数据存储,可以使用 .partitionBy("column") 方法根据一个或多个列对输出数据进行分区。

配置选项

可以使用 .option("key", "value") 方法设置特定于数据源的各种选项,如压缩、CSV 文件的自定义分隔符等。

保存数据

最后,使用 .save("path") 方法将 DataFrame 写入指定的路径。其他方法如 .saveAsTable("tableName") 也可用于不同的写入场景。

29c64f480db6986f1046c337de829a3a.gif
1*7K1OkHiRJJO9EQGgGX6NSg.gif
from pyspark.sql import SparkSession
from pyspark.sql import Row
import os


# 初始化 SparkSession
spark = SparkSession.builder  
    .appName("DataFrameWriterSaveModesExample")  
    .getOrCreate()


# 示例数据
data = [
    Row(name="Alice", age=25, country="USA"),
    Row(name="Bob", age=30, country="UK")
]


# 附加数据用于追加模式
additional_data = [
    Row(name="Carlos", age=35, country="Spain"),
    Row(name="Daisy", age=40, country="Australia")
]


# 创建 DataFrames
df = spark.createDataFrame(data)
additional_df = spark.createDataFrame(additional_data)


# 定义输出路径
output_path = "output/csv_save_modes"


# 函数:列出目录中的文件
def list_files_in_directory(path):
    files = os.listdir(path)
    return files


# 显示初始 DataFrame
print("初始 DataFrame:")
df.show()


# 使用覆盖模式写入 CSV 格式
df.write.csv(output_path, mode="overwrite", header=True)
print("覆盖模式后的文件:", list_files_in_directory(output_path))


# 显示附加 DataFrame
print("附加 DataFrame:")
additional_df.show()


# 使用追加模式写入 CSV 格式
additional_df.write.csv(output_path, mode="append", header=True)
print("追加模式后的文件:", list_files_in_directory(output_path))


# 使用忽略模式写入 CSV 格式
additional_df.write.csv(output_path, mode="ignore", header=True)
print("忽略模式后的文件:", list_files_in_directory(output_path))


# 使用 errorIfExists 模式写入 CSV 格式
try:
    additional_df.write.csv(output_path, mode="errorIfExists", header=True)
except Exception as e:
    print("errorIfExists 模式中发生错误:", e)


# 停止 SparkSession
spark.stop()

Spark 架构概述

bb57ed31ec18fc66cf028be6a1a294b9.png

在 Apache Spark 中写入 DataFrame 遵循一种顺序流程。Spark 基于用户 DataFrame 操作创建逻辑计划,优化为物理计划,并分成阶段。系统按分区处理数据,对其进行日志记录以确保可靠性,并带有定义的分区和写入模式写入到本地存储。Spark 的架构确保在计算集群中高效管理和扩展数据写入任务。

从 Spark 内部架构的角度来看,Apache Spark 写入 API 涉及了解 Spark 如何在幕后管理数据处理、分发和写入操作。让我们来详细了解:

Spark 架构概述

1.驱动程序和执行器: Spark 采用主从架构。驱动节点运行应用程序的 main() 函数并维护有关 Spark 应用程序的信息。执行器节点执行数据处理和写入操作。2.DAG 调度器: 当触发写入操作时,Spark 的 DAG(有向无环图)调度器将高级转换转换为一系列可以在集群中并行执行的阶段。3.任务调度器: 任务调度器在每个阶段内启动任务。这些任务分布在执行

器之间。

1.执行计划和物理计划: Spark 使用 Catalyst 优化器创建高效的执行计划。这包括将逻辑计划(要做什么)转换为物理计划(如何做),考虑到分区、数据本地性和其他因素。

在 Spark 内部写入数据

数据分布: Spark 中的数据分布在分区中。当启动写入操作时,Spark 首先确定这些分区中的数据布局。

写入任务执行: 每个分区的数据由一个任务处理。这些任务在不同的执行器之间并行执行。

写入模式和一致性:

•对于 overwrite 和 append 模式,Spark 确保一致性,通过管理数据文件的替换或添加来实现。•对于基于文件的数据源,Spark 以分阶段的方式写入数据,先写入临时位置再提交到最终位置,有助于确保一致性和处理故障。

格式处理和序列化: 根据指定的格式(例如,Parquet、CSV),Spark 使用相应的序列化器将数据转换为所需的格式。执行器处理此过程。

分区和文件管理:

•如果指定了分区,则Spark在写入之前根据这些分区对数据进行排序和组织。这通常涉及在执行器之间移动数据。•Spark 试图最小化每个分区创建的文件数量,以优化大文件大小,在分布式文件系统中更有效。

错误处理和容错: 在写入操作期间,如果任务失败,Spark 可以重试任务,确保容错。但并非所有写入操作都是完全原子的,特定情况可能需要手动干预以确保数据完整性。

优化技术:

Catalyst 优化器: 为效率优化写入计划,例如最小化数据移动。•Tungsten: Spark 的 Tungsten 引擎优化数据序列化和反序列化过程中的内存和 CPU 使用。

写入提交协议: Spark 使用写入提交协议来协调特定数据源的任务提交和中止过程,确保对写入数据的一致视图。

Spark 的写入 API 旨在实现高效和可靠的数据写入,它以复杂的方式编排任务分发、数据序列化和文件管理。它利用 Spark 的核心组件,如 DAG 调度器、任务调度器和 Catalyst 优化器,有效地执行写入操作。

相关推荐

  1. spark写入数据报错

    2023-12-14 07:46:04       37 阅读
  2. 使用Spark写入数据数据库

    2023-12-14 07:46:04       37 阅读
  3. Spark:大数据处理璀璨明星

    2023-12-14 07:46:04       12 阅读
  4. Spark SQL将Hive表中数据写入到MySQL数据库

    2023-12-14 07:46:04       41 阅读
  5. 泛化能力理解

    2023-12-14 07:46:04       7 阅读

最近更新

  1. TCP协议是安全的吗?

    2023-12-14 07:46:04       18 阅读
  2. 阿里云服务器执行yum,一直下载docker-ce-stable失败

    2023-12-14 07:46:04       19 阅读
  3. 【Python教程】压缩PDF文件大小

    2023-12-14 07:46:04       19 阅读
  4. 通过文章id递归查询所有评论(xml)

    2023-12-14 07:46:04       20 阅读

热门阅读

  1. Spark读写MySQL数据库

    2023-12-14 07:46:04       38 阅读
  2. 【LeetCode每日一题】152. 乘积最大子数组

    2023-12-14 07:46:04       50 阅读
  3. 【排序算法】之快排

    2023-12-14 07:46:04       37 阅读
  4. Linux-扩容已有分区的磁盘空间

    2023-12-14 07:46:04       38 阅读
  5. 百度智能云解析DNS python版api ddns实现2023最新

    2023-12-14 07:46:04       37 阅读
  6. PyTorch : torch.cuda.amp: 自动混合精度详解

    2023-12-14 07:46:04       40 阅读
  7. wordpress打包小程序并能分享转发

    2023-12-14 07:46:04       41 阅读
  8. 深入了解 Scrapy 中的 Pipelines 和 Item

    2023-12-14 07:46:04       35 阅读