LinearRegressionModel¶
-
类
pyspark.ml.regression。
LinearRegressionModel
( java_model:可选(JavaObject]=没有一个 ) ¶ -
模型拟合的
LinearRegression
。方法
清晰的
(参数)清除参数映射的参数是否被显式地设置。
复制
((额外的))创建这个实例的副本具有相同uid和一些额外的参数。
评估
(数据集)评估模型的测试数据集。
explainParam
(参数)解释一个参数并返回它的名字,医生,和可选的默认值,用户提供的字符串值。
返回文档的所有参数选择默认值和用户提供的值。
extractParamMap
((额外的))提取嵌入默认参数值和用户提供的值,然后合并他们额外的值从输入平面参数映射,后者使用价值如果存在冲突,即。排序:默认参数值< <额外的用户提供的值。
得到的价值aggregationDepth或其默认值。
得到的价值elasticNetParam或其默认值。
得到的值ε或其默认值。
得到的价值featuresCol或其默认值。
得到的价值fitIntercept或其默认值。
得到的价值labelCol或其默认值。
getLoss
()获得的价值损失或其默认值。
得到的价值maxBlockSizeInMB或其默认值。
麦克斯特的价值或其默认值。
getOrDefault
(参数)得到参数的值在用户提供的参数映射或其默认值。
getParam
(paramName)通过它的名称参数。
得到的价值predictionCol或其默认值。
得到的价值regParam或其默认值。
得到解决的价值或其默认值。
被标准化的价值或其默认值。
getTol
()被托尔的价值或其默认值。
得到的价值weightCol或其默认值。
hasDefault
(参数)检查是否一个参数有默认值。
hasParam
(paramName)测试这个实例包含一个参数是否与给定名称(字符串)。
isDefined
(参数)检查参数是否由用户或显式地设置一个默认值。
收取
(参数)检查参数是否由用户显式地设置。
负载
(路径)从输入路径,读取一个毫升实例的快捷方式read () .load(路径)。
预测
(值)预测给定特性的标签。
读
()返回一个MLReader这个类的实例。
保存
(路径)这个毫升实例保存到给定的路径,一个快捷方式的“写().save(路径)。
集
(参数值)设置一个参数嵌入参数映射。
设置的值
featuresCol
。设置的值
predictionCol
。变换
(数据集[params))与可选参数转换的输入数据集。
写
()返回一个GeneralMLWriter实例毫升实例。
属性
模型系数。
表明这个模型实例是否存在一个培训总结。
截距的模型。
返回的数量特征模型训练。
返回所有参数命令的名字。
的价值\ (y - X 'w \ \ | | \)按比例缩小损失是“huber”时,否则1.0。
总结(MSE,残差平方)模型训练集。
方法的文档
-
清晰的
( 参数:pyspark.ml.param.Param )→没有¶ -
清除参数映射的参数是否被显式地设置。
-
复制
( 额外的:可选(ParamMap]=没有一个 )→摩根大通¶ -
创建这个实例的副本具有相同uid和一些额外的参数。这个实现第一次调用参数。复制and then make a copy of the companion Java pipeline component with extra params. So both the Python wrapper and the Java pipeline component get copied.
- 参数
-
- 额外的 东西,可选
-
额外参数复制到新实例
- 返回
-
-
JavaParams
-
这个实例的副本
-
-
评估
( 数据集:pyspark.sql.dataframe.DataFrame )→pyspark.ml.regression.LinearRegressionSummary ¶ -
评估模型的测试数据集。
- 参数
-
-
数据集
pyspark.sql.DataFrame
-
测试数据集评估模型,数据集的一个实例
pyspark.sql.DataFrame
-
数据集
-
explainParam
( 参数:联盟(str,pyspark.ml.param.Param] )→str¶ -
解释一个参数并返回它的名字,医生,和可选的默认值,用户提供的字符串值。
-
explainParams
( )→str¶ -
返回文档的所有参数选择默认值和用户提供的值。
-
extractParamMap
( 额外的:可选(ParamMap]=没有一个 )→ParamMap¶ -
提取嵌入默认参数值和用户提供的值,然后合并他们额外的值从输入平面参数映射,后者使用价值如果存在冲突,即。排序:默认参数值< <额外的用户提供的值。
- 参数
-
- 额外的 东西,可选
-
额外的参数值
- 返回
-
- dict
-
合并后的参数映射
-
getAggregationDepth
( )→int¶ -
得到的价值aggregationDepth或其默认值。
-
getElasticNetParam
( )→浮动¶ -
得到的价值elasticNetParam或其默认值。
-
getEpsilon
( )→浮动¶ -
得到的值ε或其默认值。
-
getFeaturesCol
( )→str¶ -
得到的价值featuresCol或其默认值。
-
getFitIntercept
( )→bool¶ -
得到的价值fitIntercept或其默认值。
-
getLabelCol
( )→str¶ -
得到的价值labelCol或其默认值。
-
getLoss
( )→str¶ -
获得的价值损失或其默认值。
-
getMaxBlockSizeInMB
( )→浮动¶ -
得到的价值maxBlockSizeInMB或其默认值。
-
getMaxIter
( )→int¶ -
麦克斯特的价值或其默认值。
-
getOrDefault
( 参数:联盟(str,pyspark.ml.param.Param(T]] )→联盟(任何,T] ¶ -
得到参数的值在用户提供的参数映射或其默认值。如果没有设置提出了一个错误。
-
getParam
( paramName:str )→pyspark.ml.param.Param ¶ -
通过它的名称参数。
-
getPredictionCol
( )→str¶ -
得到的价值predictionCol或其默认值。
-
getRegParam
( )→浮动¶ -
得到的价值regParam或其默认值。
-
getSolver
( )→str¶ -
得到解决的价值或其默认值。
-
getStandardization
( )→bool¶ -
被标准化的价值或其默认值。
-
getTol
( )→浮动¶ -
被托尔的价值或其默认值。
-
getWeightCol
( )→str¶ -
得到的价值weightCol或其默认值。
-
hasDefault
( 参数:联盟(str,pyspark.ml.param.Param(任何]] )→bool¶ -
检查是否一个参数有默认值。
-
hasParam
( paramName:str )→bool¶ -
测试这个实例包含一个参数是否与给定名称(字符串)。
-
isDefined
( 参数:联盟(str,pyspark.ml.param.Param(任何]] )→bool¶ -
检查参数是否由用户或显式地设置一个默认值。
-
收取
( 参数:联盟(str,pyspark.ml.param.Param(任何]] )→bool¶ -
检查参数是否由用户显式地设置。
-
classmethod
负载
( 路径:str )→RL¶ -
从输入路径,读取一个毫升实例的快捷方式read () .load(路径)。
-
预测
( 价值:T )→浮动¶ -
预测给定特性的标签。
-
classmethod
读
( )→pyspark.ml.util.JavaMLReader(RL] ¶ -
返回一个MLReader这个类的实例。
-
保存
( 路径:str )→没有¶ -
这个毫升实例保存到给定的路径,一个快捷方式的“写().save(路径)。
-
集
( 参数:pyspark.ml.param.Param,价值:任何 )→没有¶ -
设置一个参数嵌入参数映射。
-
setFeaturesCol
( 价值:str )→P¶ -
设置的值
featuresCol
。
-
setPredictionCol
( 价值:str )→P¶ -
设置的值
predictionCol
。
-
变换
( 数据集:pyspark.sql.dataframe.DataFrame,参数个数:可选(ParamMap]=没有一个 )→pyspark.sql.dataframe.DataFrame¶ -
与可选参数转换的输入数据集。
- 参数
-
-
数据集
pyspark.sql.DataFrame
-
输入数据集
- 参数个数 东西,可选
-
一个可选的参数覆盖嵌入参数的地图。
-
数据集
- 返回
-
-
pyspark.sql.DataFrame
-
改变了数据集
-
-
写
( )→pyspark.ml.util.GeneralJavaMLWriter¶ -
返回一个GeneralMLWriter实例毫升实例。
属性的文档
-
aggregationDepth
=参数(父母=‘定义’,name = ' aggregationDepth ', doc =的建议深度treeAggregate (> = 2)。) ¶
-
系数
¶ -
模型系数。
-
elasticNetParam
=参数(父母=‘定义’,name = ' elasticNetParam ', doc = ' ElasticNet混合参数,在区间[0,1]。L2为α= 0,惩罚是一种惩罚。L1为α= 1,这是一个点球。”) ¶
-
ε
:pyspark.ml.param.Param(浮动) =参数(父母=‘定义’,name =ε,doc = '形状参数控制的鲁棒性。必须> 1.0。只有有效的huber)损失时 ¶
-
featuresCol
=参数(父母=‘定义’,name = ' featuresCol ', doc =功能列名称。) ¶
-
fitIntercept
=参数(父母=‘定义’,name = ' fitIntercept ', doc =是否适合一个截距项。) ¶
-
hasSummary
¶ -
表明这个模型实例是否存在一个培训总结。
-
拦截
¶ -
截距的模型。
-
labelCol
=参数(父母=‘定义’,name = ' labelCol ', doc =“标签列名。”) ¶
-
损失
:pyspark.ml.param.Param (str) =参数(父母=‘定义’,name =“损失”,医生= '损失函数进行优化。支持选择:squaredError huber。”) ¶
-
maxBlockSizeInMB
=参数(父母=‘定义’,name = ' maxBlockSizeInMB ',医生在MB = '最大内存叠加输入数据块。数据分区内堆放。如果超过剩余的数据大小的分区是调整大小的数据。默认0.0代表了选择最优值,取决于特定的算法。必须> = 0”。) ¶
-
麦克斯特
=参数(父母=‘定义’,name =“麦克斯特”,医生=“马克斯(> = 0)的迭代次数。) ¶
-
numFeatures
¶ -
返回的数量特征模型训练。如果未知,返回1
-
参数个数
¶ -
返回所有参数命令的名字。默认实现使用
dir ()
所有的属性类型参数
。
-
predictionCol
=参数(父母=‘定义’,name = ' predictionCol ', doc =预测列名称。) ¶
-
regParam
=参数(父母=‘定义’,name = ' regParam ', doc =“正则化参数(> = 0)”。) ¶
-
规模
¶ -
的价值\ (y - X 'w \ \ | | \)按比例缩小损失是“huber”时,否则1.0。
-
解算器
:pyspark.ml.param.Param (str) =参数(父母=‘定义’,name =“规划求解”,医生= '优化的求解算法。支持选择:汽车、正常,l-bfgs。”) ¶
-
标准化
=参数(父母=‘定义’,name =“标准化”,医生=是否规范培训特性拟合模型之前。) ¶
-
总结
¶ -
总结(MSE,残差平方)模型训练集。如果是一个例外trainingSummary没有。
-
托尔
=参数(父母=‘定义’,name =“托尔”,医生=迭代算法的收敛公差(> = 0)”。) ¶
-
weightCol
=参数(父母=‘定义’,name = ' weightCol ', doc = '体重列名。如果这不是设置或空,我们对所有实例权重为1.0。”) ¶
-