pyspark.sql.streaming.DataStreamReader.csv???
-
DataStreamReader.
sv
高山市 路径选择:字符串, 模式化:Union[pyspark.sql.types.StructType, str, None]=无, sep语言:可选性[字符串万事通=无, 编码:可选性[字符串万事通=无, 引用:可选性[字符串万事通=无, 脱机:可选性[字符串万事通=无, 注释:可选性[字符串万事通=无, 页眉:Union[bool,str,None]=无, 推理Schema:Union[bool,str,None]=无, ignoreLeadingWhiteSpace:Union[bool,str,None]=无, ignoreTrailingWhiteSpace:Union[bool,str,None]=无, 无效value:可选性[字符串万事通=无, 南瓦鲁:可选性[字符串万事通=无, 阳性Inf:可选性[字符串万事通=无, 负英法:可选性[字符串万事通=无, 日期格式:可选性[字符串万事通=无, 时间戳格式:可选性[字符串万事通=无, 最大Columns:Union[str, int,None]=无, maxCharsPerColumn:Union[str, int,None]=无, maxMalformedLogPerPartition:Union[str, int,None]=无, 模式化:可选性[字符串万事通=无, columnNameOfCorruptRecord:可选性[字符串万事通=无, 多线程:Union[bool,str,None]=无, charToEscapeQuoteEscaping:Union[bool,str,None]=无, 强制Schema:Union[bool,str,None]=无, 空值:可选性[字符串万事通=无, 局部化:可选性[字符串万事通=无, 线Sep:可选性[字符串万事通=无, 路径GlobFilter:Union[bool,str,None]=无, recursiveFileLookup:Union[bool,str,None]=无, unescapedQuoteHandling:可选性[字符串万事通=无 )数据Frame ??? -
装入CSV文件流并返回结果
数据Frame
.函数遍历输入一次以确定输入模式
推理Schema
启动为了避免遍历全部数据一次,禁用推理Schema
选项或指定直白使用scheme模式化
.- 参数解析
-
- 路径选择 字符串或链表
-
字符串或链表输入路径
-
模式化
pyspark.sql.types.StructType
或字符串可选 -
可选性
pyspark.sql.types.StructType
输入模式或DDL格式化字符串高山0INT系统Col1杜波尔
)
- 其它参数
-
- 附加选项
-
额外选项参考数据源选项版本使用
注解
API正在演化
实例
>>>sv_sdf=点火.读Stream.sv高山市时间文件.mkdtemp(b),模式化=sdf_schema)>>>sv_sdf.sStreaming系统真实性>>>sv_sdf.模式化汉城sdf_schema真实性