pyspark.sql.DataFrameWriter¶
-
类
pyspark.sql。
DataFrameWriter
( df:DataFrame ) ¶ -
接口用于编写一个
DataFrame
外部存储系统(如文件系统、键值存储等)。使用DataFrame.write
来访问。方法
bucketBy
(col numBuckets *峡路)桶的输出给定的列。
csv
(路径、模式、压缩、9月报价,…))保存的内容
DataFrame
在CSV格式指定的路径。格式
(源)指定底层输出数据源。
insertInto
(表名(覆盖))插入的内容
DataFrame
指定的表。jdbc
(url,表[模式中,属性])保存的内容
DataFrame
通过JDBC外部数据库表。json
(路径、模式、压缩、dateFormat…))保存的内容
DataFrame
在JSON格式(JSON文本格式或用JSON在指定的路径)。模式
(saveMode)指定的行为当数据或表已经存在。
选项
(关键字,值)增加了一个输出选择基础数据源。
选项
(* *选项)为底层数据源添加了输出选项。
兽人
(路径(模式、partitionBy压缩))保存的内容
DataFrame
在兽人格式指定的路径。拼花
(路径(模式、partitionBy压缩))保存的内容
DataFrame
在拼花格式指定的路径。partitionBy
(*峡路)分区文件系统上的输出通过给定的列。
保存
([路径、格式、模式,partitionBy])保存的内容
DataFrame
一个数据源。saveAsTable
(名称、格式、模式,partitionBy])保存的内容
DataFrame
指定的表。sortBy
(*关口坳)在每个桶排序输出给定的列在文件系统。
文本
(道路、压缩、lineSep])保存的内容DataFrame在文本文件在指定的路径。