DefaultParamsWriter

pyspark.ml.util。 DefaultParamsWriter ( 实例:参数个数 )

专业化的MLWriter参数个数类型

类写作JSON-serializable估计和变压器的参数。

方法

extractJsonParams(skipParams实例)

选项(关键字,值)

增加了一个选项来底层MLWriter。

覆盖()

覆盖如果输出路径已经存在。

保存(路径)

保存毫升实例输入路径。

saveImpl(路径)

save()处理覆盖,然后调用这个方法。

saveMetadata(例如,道路,sc […])

保存元数据+参数:路径+“/元数据”

会话(sparkSession)

设置引发会话用于保存/加载。

属性

sc

返回底层SparkContext

sparkSession

返回指定的火花会话或默认。

方法的文档

静态 extractJsonParams ( 实例:参数个数,skipParams:序列(str] )→Dict类型(str,任何]
选项 ( 关键:str,价值:任何 )pyspark.ml.util.MLWriter

增加了一个选项来底层MLWriter。看到具体的文档模型的作家可能的选项。选项名称(关键)是不区分大小写的。

覆盖 ( )pyspark.ml.util.MLWriter

覆盖如果输出路径已经存在。

保存 ( 路径:str )→没有

保存毫升实例输入路径。

saveImpl ( 路径:str )→没有

save()处理覆盖,然后调用这个方法。子类应该重写此方法实现实例的实际储蓄。

静态 saveMetadata ( 实例:参数个数,路径:str,sc:pyspark.context.SparkContext,extraMetadata:可选(Dict(str,任何]]=没有一个,paramMap:可选(Dict(str,任何]]=没有一个 )→没有

保存元数据+参数:路径+“/元数据”

  • 时间戳

  • sparkVersion

  • uid

  • paramMap

  • defaultParamMap(因为测试盒框)

  • (可选,额外的元数据)

参数
extraMetadata 东西,可选

额外的元数据保存在同一水平uid, paramMap等等。

paramMap 东西,可选

如果,这是保存在“paramMap”字段。

会话 ( sparkSession:pyspark.sql.session.SparkSession )→RW

设置引发会话用于保存/加载。

属性的文档

sc

返回底层SparkContext

sparkSession

返回指定的火花会话或默认。