pyspark.sql.DataFrameWriter

pyspark.sql。 DataFrameWriter ( df:DataFrame )

接口用于编写一个DataFrame外部存储系统(如文件系统、键值存储等)。使用DataFrame.write来访问。

方法

bucketBy(col numBuckets *峡路)

桶的输出给定的列。

csv(路径、模式、压缩、9月报价,…))

保存的内容DataFrame在CSV格式指定的路径。

格式(源)

指定底层输出数据源。

insertInto(表名(覆盖))

插入的内容DataFrame指定的表。

jdbc(url,表[模式中,属性])

保存的内容DataFrame通过JDBC外部数据库表。

json(路径、模式、压缩、dateFormat…))

保存的内容DataFrame在JSON格式(JSON文本格式或用JSON在指定的路径)。

模式(saveMode)

指定的行为当数据或表已经存在。

选项(关键字,值)

增加了一个输出选择基础数据源。

选项(* *选项)

为底层数据源添加了输出选项。

兽人(路径(模式、partitionBy压缩))

保存的内容DataFrame在兽人格式指定的路径。

拼花(路径(模式、partitionBy压缩))

保存的内容DataFrame在拼花格式指定的路径。

partitionBy(*峡路)

分区文件系统上的输出通过给定的列。

保存([路径、格式、模式,partitionBy])

保存的内容DataFrame一个数据源。

saveAsTable(名称、格式、模式,partitionBy])

保存的内容DataFrame指定的表。

sortBy(*关口坳)

在每个桶排序输出给定的列在文件系统。

文本(道路、压缩、lineSep])

保存的内容DataFrame在文本文件在指定的路径。