AFTSurvivalRegression¶
-
类
pyspark.ml.regression。
AFTSurvivalRegression
( *,featuresCol:str=“特性”,labelCol:str=“标签”,predictionCol:str=“预测”,fitIntercept:bool=真正的,麦克斯特:int=One hundred.,托尔:浮动=1 e-06,censorCol:str=“审查”,quantileProbabilities:列表(浮动]=(0.01,0.05,0.1,0.25,0.5,0.75,0.9,0.95,0.99),quantilesCol:可选(str]=没有一个,aggregationDepth:int=2,maxBlockSizeInMB:浮动=0.0 ) ¶ -
加速失效时间模型(尾部)生存回归
适合参数船尾生存回归模型基于威布尔分布的生存时间。
笔记
更多信息见维基百科页面尾模型
例子
> > >从pyspark.ml.linalg进口向量> > >df=火花。createDataFrame([…(1.0,向量。密集的(1.0),1.0),…(1 e-40,向量。稀疏的(1,[],[]),0.0)),(“标签”,“特征”,“审查”])> > >aftsr=AFTSurvivalRegression()> > >aftsr。setMaxIter(10)AFTSurvivalRegression……> > >aftsr。getMaxIter()10> > >aftsr。清晰的(aftsr。麦克斯特)> > >模型=aftsr。适合(df)> > >模型。getMaxBlockSizeInMB()0.0> > >模型。setFeaturesCol(“特征”)AFTSurvivalRegressionModel……> > >模型。预测(向量。密集的(6.3))1.0> > >模型。predictQuantiles(向量。密集的(6.3))DenseVector ([0.0101, 0.0513, 0.1054, 0.2877, 0.6931, 1.3863, 2.3026, 2.9957, 4.6052))> > >模型。变换(df)。显示()+ - - - - - - - - - - - - - - - - - - - + - - - - - - - - - - - - - - - - - +| | |特性标签审查| |预测+ - - - - - - - - - - - - - - - - - - - + - - - - - - - - - - - - - - - - - +(1.0)| 1.0 | | 1.0 | 1.0 || 1.0 e-40 | (1 [] []) | 0.0 | 1.0 |+ - - - - - - - - - - - - - - - - - - - + - - - - - - - - - - - - - - - - - +…> > >aftsr_path=temp_path+“/ aftsr”> > >aftsr。保存(aftsr_path)> > >aftsr2=AFTSurvivalRegression。负载(aftsr_path)> > >aftsr2。getMaxIter()One hundred.> > >model_path=temp_path+“/ aftsr_model”> > >模型。保存(model_path)> > >model2=AFTSurvivalRegressionModel。负载(model_path)> > >模型。系数= =model2。系数真正的> > >模型。拦截= =model2。拦截真正的> > >模型。规模= =model2。规模真正的> > >模型。变换(df)。取(1)= =model2。变换(df)。取(1)真正的
方法
清晰的
(参数)清除参数映射的参数是否被显式地设置。
复制
((额外的))创建这个实例的副本具有相同uid和一些额外的参数。
explainParam
(参数)解释一个参数并返回它的名字,医生,和可选的默认值,用户提供的字符串值。
返回文档的所有参数选择默认值和用户提供的值。
extractParamMap
((额外的))提取嵌入默认参数值和用户提供的值,然后合并他们额外的值从输入平面参数映射,后者使用价值如果存在冲突,即。排序:默认参数值< <额外的用户提供的值。
适合
(数据集[params))适合一个模型与可选参数的输入数据集。
fitMultiple
(paramMaps数据集)适合一个模型为每个参数映射的输入数据集paramMaps。
得到的价值aggregationDepth或其默认值。
得到的价值censorCol或其默认值。
得到的价值featuresCol或其默认值。
得到的价值fitIntercept或其默认值。
得到的价值labelCol或其默认值。
得到的价值maxBlockSizeInMB或其默认值。
麦克斯特的价值或其默认值。
getOrDefault
(参数)得到参数的值在用户提供的参数映射或其默认值。
getParam
(paramName)通过它的名称参数。
得到的价值predictionCol或其默认值。
得到的价值quantileProbabilities或其默认值。
得到的价值quantilesCol或其默认值。
getTol
()被托尔的价值或其默认值。
hasDefault
(参数)检查是否一个参数有默认值。
hasParam
(paramName)测试这个实例包含一个参数是否与给定名称(字符串)。
isDefined
(参数)检查参数是否由用户或显式地设置一个默认值。
收取
(参数)检查参数是否由用户显式地设置。
负载
(路径)从输入路径,读取一个毫升实例的快捷方式read () .load(路径)。
读
()返回一个MLReader这个类的实例。
保存
(路径)这个毫升实例保存到给定的路径,一个快捷方式的“写().save(路径)。
集
(参数值)设置一个参数嵌入参数映射。
设置的值
aggregationDepth
。setCensorCol
(值)设置的值
censorCol
。设置的值
featuresCol
。设置的值
fitIntercept
。setLabelCol
(值)设置的值
labelCol
。设置的值
maxBlockSizeInMB
。setMaxIter
(值)设置的值
麦克斯特
。setparam
(* [,labelCol featuresCol…))setparam(自我,*,featuresCol =“特性”,labelCol =“标签”,predictionCol =“预测”,fitIntercept = True,麦克斯特= 100,tol = 1 e-6, censorCol =“审查”,quantileProbabilities = (0.01, 0.05, 0.1, 0.25, 0.5, 0.75, 0.9, 0.95, 0.99), quantilesCol = None, aggregationDepth = 2, maxBlockSizeInMB = 0.0):
设置的值
predictionCol
。设置的值
quantilesCol
。setTol
(值)设置的值
托尔
。写
()返回一个MLWriter实例毫升实例。
属性
返回所有参数命令的名字。
方法的文档
-
清晰的
( 参数:pyspark.ml.param.Param )→没有¶ -
清除参数映射的参数是否被显式地设置。
-
复制
( 额外的:可选(ParamMap]=没有一个 )→摩根大通¶ -
创建这个实例的副本具有相同uid和一些额外的参数。这个实现第一次调用参数。复制and then make a copy of the companion Java pipeline component with extra params. So both the Python wrapper and the Java pipeline component get copied.
- 参数
-
- 额外的 东西,可选
-
额外参数复制到新实例
- 返回
-
-
JavaParams
-
这个实例的副本
-
-
explainParam
( 参数:联盟(str,pyspark.ml.param.Param] )→str¶ -
解释一个参数并返回它的名字,医生,和可选的默认值,用户提供的字符串值。
-
explainParams
( )→str¶ -
返回文档的所有参数选择默认值和用户提供的值。
-
extractParamMap
( 额外的:可选(ParamMap]=没有一个 )→ParamMap¶ -
提取嵌入默认参数值和用户提供的值,然后合并他们额外的值从输入平面参数映射,后者使用价值如果存在冲突,即。排序:默认参数值< <额外的用户提供的值。
- 参数
-
- 额外的 东西,可选
-
额外的参数值
- 返回
-
- dict
-
合并后的参数映射
-
适合
( 数据集:pyspark.sql.dataframe.DataFrame,参数个数:联盟[ParamMap、列表(ParamMap)元组(ParamMap),没有一个)=没有一个 )→联盟(米,列表(米] ] ¶ -
适合一个模型与可选参数的输入数据集。
- 参数
-
-
数据集
pyspark.sql.DataFrame
-
输入数据集。
- 参数个数 dict或列表或元组,可选的
-
一个可选的参数覆盖嵌入参数的地图。如果列表/元组的参数映射,这适用于每一个参数并返回一个列表的模型映射。
-
数据集
- 返回
-
-
变压器
或者一个列表变压器
-
拟合模型(年代)
-
-
fitMultiple
( 数据集:pyspark.sql.dataframe.DataFrame,paramMaps:序列(ParamMap] )→迭代器(元组(int,米] ] ¶ -
适合一个模型为每个参数映射的输入数据集paramMaps。
- 参数
-
-
数据集
pyspark.sql.DataFrame
-
输入数据集。
-
paramMaps
collections.abc.Sequence
-
一系列的参数映射。
-
数据集
- 返回
-
-
_FitMultipleIterator
-
一个线程安全的iterable包含为每个参数映射模型。每次调用下一个(modelIterator)将返回(指数模型)模型是适合使用在哪里paramMaps(指数)。指数值可能不是连续的。
-
-
getAggregationDepth
( )→int¶ -
得到的价值aggregationDepth或其默认值。
-
getCensorCol
( )→str¶ -
得到的价值censorCol或其默认值。
-
getFeaturesCol
( )→str¶ -
得到的价值featuresCol或其默认值。
-
getFitIntercept
( )→bool¶ -
得到的价值fitIntercept或其默认值。
-
getLabelCol
( )→str¶ -
得到的价值labelCol或其默认值。
-
getMaxBlockSizeInMB
( )→浮动¶ -
得到的价值maxBlockSizeInMB或其默认值。
-
getMaxIter
( )→int¶ -
麦克斯特的价值或其默认值。
-
getOrDefault
( 参数:联盟(str,pyspark.ml.param.Param(T]] )→联盟(任何,T] ¶ -
得到参数的值在用户提供的参数映射或其默认值。如果没有设置提出了一个错误。
-
getParam
( paramName:str )→pyspark.ml.param.Param ¶ -
通过它的名称参数。
-
getPredictionCol
( )→str¶ -
得到的价值predictionCol或其默认值。
-
getQuantileProbabilities
( )→列表(浮动] ¶ -
得到的价值quantileProbabilities或其默认值。
-
getQuantilesCol
( )→str¶ -
得到的价值quantilesCol或其默认值。
-
getTol
( )→浮动¶ -
被托尔的价值或其默认值。
-
hasDefault
( 参数:联盟(str,pyspark.ml.param.Param(任何]] )→bool¶ -
检查是否一个参数有默认值。
-
hasParam
( paramName:str )→bool¶ -
测试这个实例包含一个参数是否与给定名称(字符串)。
-
isDefined
( 参数:联盟(str,pyspark.ml.param.Param(任何]] )→bool¶ -
检查参数是否由用户或显式地设置一个默认值。
-
收取
( 参数:联盟(str,pyspark.ml.param.Param(任何]] )→bool¶ -
检查参数是否由用户显式地设置。
-
classmethod
负载
( 路径:str )→RL¶ -
从输入路径,读取一个毫升实例的快捷方式read () .load(路径)。
-
classmethod
读
( )→pyspark.ml.util.JavaMLReader(RL] ¶ -
返回一个MLReader这个类的实例。
-
保存
( 路径:str )→没有¶ -
这个毫升实例保存到给定的路径,一个快捷方式的“写().save(路径)。
-
集
( 参数:pyspark.ml.param.Param,价值:任何 )→没有¶ -
设置一个参数嵌入参数映射。
-
setAggregationDepth
( 价值:int )→pyspark.ml.regression.AFTSurvivalRegression ¶ -
设置的值
aggregationDepth
。
-
setCensorCol
( 价值:str )→pyspark.ml.regression.AFTSurvivalRegression ¶ -
设置的值
censorCol
。
-
setFeaturesCol
( 价值:str )→P¶ -
设置的值
featuresCol
。
-
setFitIntercept
( 价值:bool )→pyspark.ml.regression.AFTSurvivalRegression ¶ -
设置的值
fitIntercept
。
-
setMaxBlockSizeInMB
( 价值:int )→pyspark.ml.regression.AFTSurvivalRegression ¶ -
设置的值
maxBlockSizeInMB
。
-
setMaxIter
( 价值:int )→pyspark.ml.regression.AFTSurvivalRegression ¶ -
设置的值
麦克斯特
。
-
setparam
( *,featuresCol:str=“特性”,labelCol:str=“标签”,predictionCol:str=“预测”,fitIntercept:bool=真正的,麦克斯特:int=One hundred.,托尔:浮动=1 e-06,censorCol:str=“审查”,quantileProbabilities:列表(浮动]=(0.01,0.05,0.1,0.25,0.5,0.75,0.9,0.95,0.99),quantilesCol:可选(str]=没有一个,aggregationDepth:int=2,maxBlockSizeInMB:浮动=0.0 )→pyspark.ml.regression.AFTSurvivalRegression ¶ -
setparam(自我,*,featuresCol =“特性”,labelCol =“标签”,predictionCol =“预测”,fitIntercept = True,麦克斯特= 100,tol = 1 e-6, censorCol =“审查”,quantileProbabilities = (0.01, 0.05, 0.1, 0.25, 0.5, 0.75, 0.9, 0.95, 0.99), quantilesCol = None, aggregationDepth = 2, maxBlockSizeInMB = 0.0):
-
setPredictionCol
( 价值:str )→P¶ -
设置的值
predictionCol
。
-
setQuantileProbabilities
( 价值:列表(浮动] )→pyspark.ml.regression.AFTSurvivalRegression ¶
-
setQuantilesCol
( 价值:str )→pyspark.ml.regression.AFTSurvivalRegression ¶ -
设置的值
quantilesCol
。
-
setTol
( 价值:浮动 )→pyspark.ml.regression.AFTSurvivalRegression ¶ -
设置的值
托尔
。
-
写
( )→pyspark.ml.util.JavaMLWriter¶ -
返回一个MLWriter实例毫升实例。
属性的文档
-
aggregationDepth
=参数(父母=‘定义’,name = ' aggregationDepth ', doc =的建议深度treeAggregate (> = 2)。) ¶
-
censorCol
=参数(父母=‘定义’,name = ' censorCol ', doc = '审查列名。该列的值是0或1。如果该值为1,这意味着事件发生即未经审查的;否则审查。”) ¶
-
featuresCol
=参数(父母=‘定义’,name = ' featuresCol ', doc =功能列名称。) ¶
-
fitIntercept
=参数(父母=‘定义’,name = ' fitIntercept ', doc =是否适合一个截距项。) ¶
-
labelCol
=参数(父母=‘定义’,name = ' labelCol ', doc =“标签列名。”) ¶
-
maxBlockSizeInMB
=参数(父母=‘定义’,name = ' maxBlockSizeInMB ',医生在MB = '最大内存叠加输入数据块。数据分区内堆放。如果超过剩余的数据大小的分区是调整大小的数据。默认0.0代表了选择最优值,取决于特定的算法。必须> = 0”。) ¶
-
麦克斯特
=参数(父母=‘定义’,name =“麦克斯特”,医生=“马克斯(> = 0)的迭代次数。) ¶
-
参数个数
¶ -
返回所有参数命令的名字。默认实现使用
dir ()
所有的属性类型参数
。
-
predictionCol
=参数(父母=‘定义’,name = ' predictionCol ', doc =预测列名称。) ¶
-
quantileProbabilities
=参数(父母=‘定义’,name = ' quantileProbabilities ', doc = '分位数概率数组。分位数的概率数组的值应该在(0,1)和数组应该非空。”) ¶
-
quantilesCol
=参数(父母=‘定义’,name = ' quantilesCol ', doc = '分位数列名。本专栏将输出相应的分位数quantileProbabilities如果它被设置。) ¶
-
托尔
=参数(父母=‘定义’,name =“托尔”,医生=迭代算法的收敛公差(> = 0)”。) ¶
-