GeneralizedLinearRegressionModel¶
-
类
pyspark.ml.regression。
GeneralizedLinearRegressionModel
( java_model:可选(JavaObject]=没有一个 ) ¶ -
模型拟合的
GeneralizedLinearRegression
。方法
清晰的
(参数)清除参数映射的参数是否被显式地设置。
复制
((额外的))创建这个实例的副本具有相同uid和一些额外的参数。
评估
(数据集)评估模型的测试数据集。
explainParam
(参数)解释一个参数并返回它的名字,医生,和可选的默认值,用户提供的字符串值。
返回文档的所有参数选择默认值和用户提供的值。
extractParamMap
((额外的))提取嵌入默认参数值和用户提供的值,然后合并他们额外的值从输入平面参数映射,后者使用价值如果存在冲突,即。排序:默认参数值< <额外的用户提供的值。
得到的价值aggregationDepth或其默认值。
得到家庭的价值或其默认值。
得到的价值featuresCol或其默认值。
得到的价值fitIntercept或其默认值。
得到的价值labelCol或其默认值。
getLink
()被链接的价值或其默认值。
得到的价值linkPower或其默认值。
得到的价值linkPredictionCol或其默认值。
麦克斯特的价值或其默认值。
得到的价值offsetCol或其默认值。
getOrDefault
(参数)得到参数的值在用户提供的参数映射或其默认值。
getParam
(paramName)通过它的名称参数。
得到的价值predictionCol或其默认值。
得到的价值regParam或其默认值。
得到解决的价值或其默认值。
getTol
()被托尔的价值或其默认值。
得到的价值variancePower或其默认值。
得到的价值weightCol或其默认值。
hasDefault
(参数)检查是否一个参数有默认值。
hasParam
(paramName)测试这个实例包含一个参数是否与给定名称(字符串)。
isDefined
(参数)检查参数是否由用户或显式地设置一个默认值。
收取
(参数)检查参数是否由用户显式地设置。
负载
(路径)从输入路径,读取一个毫升实例的快捷方式read () .load(路径)。
预测
(值)预测给定特性的标签。
读
()返回一个MLReader这个类的实例。
保存
(路径)这个毫升实例保存到给定的路径,一个快捷方式的“写().save(路径)。
集
(参数值)设置一个参数嵌入参数映射。
设置的值
featuresCol
。设置的值
linkPredictionCol
。设置的值
predictionCol
。变换
(数据集[params))与可选参数转换的输入数据集。
写
()返回一个MLWriter实例毫升实例。
属性
模型系数。
表明这个模型实例是否存在一个培训总结。
截距的模型。
返回的数量特征模型训练。
返回所有参数命令的名字。
总结(残差,异常,假定值)的模型训练集。
方法的文档
-
清晰的
( 参数:pyspark.ml.param.Param )→没有¶ -
清除参数映射的参数是否被显式地设置。
-
复制
( 额外的:可选(ParamMap]=没有一个 )→摩根大通¶ -
创建这个实例的副本具有相同uid和一些额外的参数。这个实现第一次调用参数。复制and then make a copy of the companion Java pipeline component with extra params. So both the Python wrapper and the Java pipeline component get copied.
- 参数
-
- 额外的 东西,可选
-
额外参数复制到新实例
- 返回
-
-
JavaParams
-
这个实例的副本
-
-
评估
( 数据集:pyspark.sql.dataframe.DataFrame )→pyspark.ml.regression.GeneralizedLinearRegressionSummary ¶ -
评估模型的测试数据集。
- 参数
-
-
数据集
pyspark.sql.DataFrame
-
测试数据集评估模型,数据集的一个实例
pyspark.sql.DataFrame
-
数据集
-
explainParam
( 参数:联盟(str,pyspark.ml.param.Param] )→str¶ -
解释一个参数并返回它的名字,医生,和可选的默认值,用户提供的字符串值。
-
explainParams
( )→str¶ -
返回文档的所有参数选择默认值和用户提供的值。
-
extractParamMap
( 额外的:可选(ParamMap]=没有一个 )→ParamMap¶ -
提取嵌入默认参数值和用户提供的值,然后合并他们额外的值从输入平面参数映射,后者使用价值如果存在冲突,即。排序:默认参数值< <额外的用户提供的值。
- 参数
-
- 额外的 东西,可选
-
额外的参数值
- 返回
-
- dict
-
合并后的参数映射
-
getAggregationDepth
( )→int¶ -
得到的价值aggregationDepth或其默认值。
-
getFamily
( )→str¶ -
得到家庭的价值或其默认值。
-
getFeaturesCol
( )→str¶ -
得到的价值featuresCol或其默认值。
-
getFitIntercept
( )→bool¶ -
得到的价值fitIntercept或其默认值。
-
getLabelCol
( )→str¶ -
得到的价值labelCol或其默认值。
-
getLink
( )→str¶ -
被链接的价值或其默认值。
-
getLinkPower
( )→浮动¶ -
得到的价值linkPower或其默认值。
-
getLinkPredictionCol
( )→str¶ -
得到的价值linkPredictionCol或其默认值。
-
getMaxIter
( )→int¶ -
麦克斯特的价值或其默认值。
-
getOffsetCol
( )→str¶ -
得到的价值offsetCol或其默认值。
-
getOrDefault
( 参数:联盟(str,pyspark.ml.param.Param(T]] )→联盟(任何,T] ¶ -
得到参数的值在用户提供的参数映射或其默认值。如果没有设置提出了一个错误。
-
getParam
( paramName:str )→pyspark.ml.param.Param ¶ -
通过它的名称参数。
-
getPredictionCol
( )→str¶ -
得到的价值predictionCol或其默认值。
-
getRegParam
( )→浮动¶ -
得到的价值regParam或其默认值。
-
getSolver
( )→str¶ -
得到解决的价值或其默认值。
-
getTol
( )→浮动¶ -
被托尔的价值或其默认值。
-
getVariancePower
( )→浮动¶ -
得到的价值variancePower或其默认值。
-
getWeightCol
( )→str¶ -
得到的价值weightCol或其默认值。
-
hasDefault
( 参数:联盟(str,pyspark.ml.param.Param(任何]] )→bool¶ -
检查是否一个参数有默认值。
-
hasParam
( paramName:str )→bool¶ -
测试这个实例包含一个参数是否与给定名称(字符串)。
-
isDefined
( 参数:联盟(str,pyspark.ml.param.Param(任何]] )→bool¶ -
检查参数是否由用户或显式地设置一个默认值。
-
收取
( 参数:联盟(str,pyspark.ml.param.Param(任何]] )→bool¶ -
检查参数是否由用户显式地设置。
-
classmethod
负载
( 路径:str )→RL¶ -
从输入路径,读取一个毫升实例的快捷方式read () .load(路径)。
-
预测
( 价值:T )→浮动¶ -
预测给定特性的标签。
-
classmethod
读
( )→pyspark.ml.util.JavaMLReader(RL] ¶ -
返回一个MLReader这个类的实例。
-
保存
( 路径:str )→没有¶ -
这个毫升实例保存到给定的路径,一个快捷方式的“写().save(路径)。
-
集
( 参数:pyspark.ml.param.Param,价值:任何 )→没有¶ -
设置一个参数嵌入参数映射。
-
setFeaturesCol
( 价值:str )→P¶ -
设置的值
featuresCol
。
-
setLinkPredictionCol
( 价值:str )→pyspark.ml.regression.GeneralizedLinearRegressionModel ¶ -
设置的值
linkPredictionCol
。
-
setPredictionCol
( 价值:str )→P¶ -
设置的值
predictionCol
。
-
变换
( 数据集:pyspark.sql.dataframe.DataFrame,参数个数:可选(ParamMap]=没有一个 )→pyspark.sql.dataframe.DataFrame¶ -
与可选参数转换的输入数据集。
- 参数
-
-
数据集
pyspark.sql.DataFrame
-
输入数据集
- 参数个数 东西,可选
-
一个可选的参数覆盖嵌入参数的地图。
-
数据集
- 返回
-
-
pyspark.sql.DataFrame
-
改变了数据集
-
-
写
( )→pyspark.ml.util.JavaMLWriter¶ -
返回一个MLWriter实例毫升实例。
属性的文档
-
aggregationDepth
=参数(父母=‘定义’,name = ' aggregationDepth ', doc =的建议深度treeAggregate (> = 2)。) ¶
-
系数
¶ -
模型系数。
-
家庭
:pyspark.ml.param.Param (str) =参数(父母=‘定义’,name = '家庭',doc = '家人的名字是误差分布的描述中使用的模型。支持选项:高斯(默认)、二项式分布、泊松分布、伽玛和tweedie。”) ¶
-
featuresCol
=参数(父母=‘定义’,name = ' featuresCol ', doc =功能列名称。) ¶
-
fitIntercept
=参数(父母=‘定义’,name = ' fitIntercept ', doc =是否适合一个截距项。) ¶
-
hasSummary
¶ -
表明这个模型实例是否存在一个培训总结。
-
拦截
¶ -
截距的模型。
-
labelCol
=参数(父母=‘定义’,name = ' labelCol ', doc =“标签列名。”) ¶
-
链接
:pyspark.ml.param.Param (str) =参数(父母=‘定义’,name =“链接”,医生= '链接函数的名称提供线性预测之间的关系和分布函数的均值。支持选项:身份、日志、逆分对数,probit, cloglog和sqrt。”) ¶
-
linkPower
:pyspark.ml.param.Param(浮动) =参数(父母=‘定义’,name = ' linkPower ', doc =权力链接的指数函数。只适用于Tweedie家庭。”) ¶
-
linkPredictionCol
:pyspark.ml.param.Param (str) =参数(父母=‘定义’,name = ' linkPredictionCol ', doc =“链接预测(线性预测)列名称”) ¶
-
麦克斯特
=参数(父母=‘定义’,name =“麦克斯特”,医生=“马克斯(> = 0)的迭代次数。) ¶
-
numFeatures
¶ -
返回的数量特征模型训练。如果未知,返回1
-
offsetCol
:pyspark.ml.param.Param (str) =参数(父母=‘定义’,name = ' offsetCol ', doc = '抵消列名。如果这不是设置或空,我们对所有实例偏移量为0.0”) ¶
-
参数个数
¶ -
返回所有参数命令的名字。默认实现使用
dir ()
所有的属性类型参数
。
-
predictionCol
=参数(父母=‘定义’,name = ' predictionCol ', doc =预测列名称。) ¶
-
regParam
=参数(父母=‘定义’,name = ' regParam ', doc =“正则化参数(> = 0)”。) ¶
-
解算器
:pyspark.ml.param.Param (str) =参数(父母=‘定义’,name =“规划求解”,医生= '优化的求解算法。支持选择:irl。”) ¶
-
总结
¶ -
总结(残差,异常,假定值)的模型训练集,抛出异常,如果trainingSummary没有。
-
托尔
=参数(父母=‘定义’,name =“托尔”,医生=迭代算法的收敛公差(> = 0)”。) ¶
-
variancePower
:pyspark.ml.param.Param(浮动) =参数(父母=‘定义’,name = ' variancePower ', doc = '的力量Tweedie分布的方差函数特征分布的方差和均值的关系。只适用于Tweedie家族。支持值:0和1,正)。”) ¶
-
weightCol
=参数(父母=‘定义’,name = ' weightCol ', doc = '体重列名。如果这不是设置或空,我们对所有实例权重为1.0。”) ¶
-