pyspark.sql.streaming.DataStreamReader.csv???

DataStreamReader. sv 高山市 路径选择:字符串, 模式化:Union[pyspark.sql.types.StructType, str, None]=, sep语言:可选性[字符串万事通=, 编码:可选性[字符串万事通=, 引用:可选性[字符串万事通=, 脱机:可选性[字符串万事通=, 注释:可选性[字符串万事通=, 页眉:Union[bool,str,None]=, 推理Schema:Union[bool,str,None]=, ignoreLeadingWhiteSpace:Union[bool,str,None]=, ignoreTrailingWhiteSpace:Union[bool,str,None]=, 无效value:可选性[字符串万事通=, 南瓦鲁:可选性[字符串万事通=, 阳性Inf:可选性[字符串万事通=, 负英法:可选性[字符串万事通=, 日期格式:可选性[字符串万事通=, 时间戳格式:可选性[字符串万事通=, 最大Columns:Union[str, int,None]=, maxCharsPerColumn:Union[str, int,None]=, maxMalformedLogPerPartition:Union[str, int,None]=, 模式化:可选性[字符串万事通=, columnNameOfCorruptRecord:可选性[字符串万事通=, 多线程:Union[bool,str,None]=, charToEscapeQuoteEscaping:Union[bool,str,None]=, 强制Schema:Union[bool,str,None]=, 空值:可选性[字符串万事通=, 局部化:可选性[字符串万事通=, 线Sep:可选性[字符串万事通=, 路径GlobFilter:Union[bool,str,None]=, recursiveFileLookup:Union[bool,str,None]=, unescapedQuoteHandling:可选性[字符串万事通= )数据Frame ???

装入CSV文件流并返回结果数据Frame.

函数遍历输入一次以确定输入模式推理Schema启动为了避免遍历全部数据一次,禁用推理Schema选项或指定直白使用scheme模式化.

参数解析
路径选择 字符串或链表

字符串或链表输入路径

模式化 pyspark.sql.types.StructType或字符串可选

可选性pyspark.sql.types.StructType输入模式或DDL格式化字符串高山0INT系统Col1杜波尔)

其它参数
附加选项

额外选项参考数据源选项版本使用

注解

API正在演化

实例

>>>sv_sdf=点火.读Stream.sv高山市时间文件.mkdtemp(b),模式化=sdf_schema)>>>sv_sdf.sStreaming系统真实性>>>sv_sdf.模式化汉城sdf_schema真实性