LinearSVCModel

pyspark.ml.classification。 LinearSVCModel ( java_model:可选(JavaObject]=没有一个 )

由LinearSVC模型拟合。

方法

清晰的(参数)

清除参数映射的参数是否被显式地设置。

复制((额外的))

创建这个实例的副本具有相同uid和一些额外的参数。

评估(数据集)

评估模型的测试数据集。

explainParam(参数)

解释一个参数并返回它的名字,医生,和可选的默认值,用户提供的字符串值。

explainParams()

返回文档的所有参数选择默认值和用户提供的值。

extractParamMap((额外的))

提取嵌入默认参数值和用户提供的值,然后合并他们额外的值从输入平面参数映射,后者使用价值如果存在冲突,即。排序:默认参数值< <额外的用户提供的值。

getAggregationDepth()

得到的价值aggregationDepth或其默认值。

getFeaturesCol()

得到的价值featuresCol或其默认值。

getFitIntercept()

得到的价值fitIntercept或其默认值。

getLabelCol()

得到的价值labelCol或其默认值。

getMaxBlockSizeInMB()

得到的价值maxBlockSizeInMB或其默认值。

getMaxIter()

麦克斯特的价值或其默认值。

getOrDefault(参数)

得到参数的值在用户提供的参数映射或其默认值。

getParam(paramName)

通过它的名称参数。

getPredictionCol()

得到的价值predictionCol或其默认值。

getRawPredictionCol()

得到的价值rawPredictionCol或其默认值。

getRegParam()

得到的价值regParam或其默认值。

getStandardization()

被标准化的价值或其默认值。

getThreshold()

得到的值阈值或其默认值。

getTol()

被托尔的价值或其默认值。

getWeightCol()

得到的价值weightCol或其默认值。

hasDefault(参数)

检查是否一个参数有默认值。

hasParam(paramName)

测试这个实例包含一个参数是否与给定名称(字符串)。

isDefined(参数)

检查参数是否由用户或显式地设置一个默认值。

收取(参数)

检查参数是否由用户显式地设置。

负载(路径)

从输入路径,读取一个毫升实例的快捷方式read () .load(路径)

预测(值)

预测给定特性的标签。

predictRaw(值)

原始预测为每个可能的标签。

()

返回一个MLReader这个类的实例。

保存(路径)

这个毫升实例保存到给定的路径,一个快捷方式的“写().save(路径)。

(参数值)

设置一个参数嵌入参数映射。

setFeaturesCol(值)

设置的值featuresCol

setPredictionCol(值)

设置的值predictionCol

setRawPredictionCol(值)

设置的值rawPredictionCol

setThreshold(值)

设置的值阈值

总结()

总结(精度/精密/召回,客观历史,总迭代)模型在训练集上训练。

变换(数据集[params))

与可选参数转换的输入数据集。

()

返回一个MLWriter实例毫升实例。

属性

aggregationDepth

系数

模型系数的线性支持向量机分类器。

featuresCol

fitIntercept

hasSummary

表明这个模型实例是否存在一个培训总结。

拦截

模型线性SVM分类器的拦截。

labelCol

maxBlockSizeInMB

麦克斯特

numClasses

数量的类标签可以(值)。

numFeatures

返回的数量特征模型训练。

参数个数

返回所有参数命令的名字。

predictionCol

rawPredictionCol

regParam

标准化

阈值

托尔

weightCol

方法的文档

清晰的 ( 参数:pyspark.ml.param.Param )→没有

清除参数映射的参数是否被显式地设置。

复制 ( 额外的:可选(ParamMap]=没有一个 )→摩根大通

创建这个实例的副本具有相同uid和一些额外的参数。这个实现第一次调用参数。复制and then make a copy of the companion Java pipeline component with extra params. So both the Python wrapper and the Java pipeline component get copied.

参数
额外的 东西,可选

额外参数复制到新实例

返回
JavaParams

这个实例的副本

评估 ( 数据集:pyspark.sql.dataframe.DataFrame )pyspark.ml.classification.LinearSVCSummary

评估模型的测试数据集。

参数
数据集 pyspark.sql.DataFrame

测试数据集对模型进行评估。

explainParam ( 参数:联盟(str,pyspark.ml.param.Param] )→str

解释一个参数并返回它的名字,医生,和可选的默认值,用户提供的字符串值。

explainParams ( )→str

返回文档的所有参数选择默认值和用户提供的值。

extractParamMap ( 额外的:可选(ParamMap]=没有一个 )→ParamMap

提取嵌入默认参数值和用户提供的值,然后合并他们额外的值从输入平面参数映射,后者使用价值如果存在冲突,即。排序:默认参数值< <额外的用户提供的值。

参数
额外的 东西,可选

额外的参数值

返回
dict

合并后的参数映射

getAggregationDepth ( )→int

得到的价值aggregationDepth或其默认值。

getFeaturesCol ( )→str

得到的价值featuresCol或其默认值。

getFitIntercept ( )→bool

得到的价值fitIntercept或其默认值。

getLabelCol ( )→str

得到的价值labelCol或其默认值。

getMaxBlockSizeInMB ( )→浮动

得到的价值maxBlockSizeInMB或其默认值。

getMaxIter ( )→int

麦克斯特的价值或其默认值。

getOrDefault ( 参数:联盟(str,pyspark.ml.param.Param(T]] )→联盟(任何,T]

得到参数的值在用户提供的参数映射或其默认值。如果没有设置提出了一个错误。

getParam ( paramName:str )pyspark.ml.param.Param

通过它的名称参数。

getPredictionCol ( )→str

得到的价值predictionCol或其默认值。

getRawPredictionCol ( )→str

得到的价值rawPredictionCol或其默认值。

getRegParam ( )→浮动

得到的价值regParam或其默认值。

getStandardization ( )→bool

被标准化的价值或其默认值。

getThreshold ( )→浮动

得到的值阈值或其默认值。

getTol ( )→浮动

被托尔的价值或其默认值。

getWeightCol ( )→str

得到的价值weightCol或其默认值。

hasDefault ( 参数:联盟(str,pyspark.ml.param.Param(任何]] )→bool

检查是否一个参数有默认值。

hasParam ( paramName:str )→bool

测试这个实例包含一个参数是否与给定名称(字符串)。

isDefined ( 参数:联盟(str,pyspark.ml.param.Param(任何]] )→bool

检查参数是否由用户或显式地设置一个默认值。

收取 ( 参数:联盟(str,pyspark.ml.param.Param(任何]] )→bool

检查参数是否由用户显式地设置。

classmethod 负载 ( 路径:str )→RL

从输入路径,读取一个毫升实例的快捷方式read () .load(路径)

预测 ( 价值:T )→浮动

预测给定特性的标签。

predictRaw ( 价值:pyspark.ml.linalg.Vector )pyspark.ml.linalg.Vector

原始预测为每个可能的标签。

classmethod ( )→pyspark.ml.util.JavaMLReader(RL]

返回一个MLReader这个类的实例。

保存 ( 路径:str )→没有

这个毫升实例保存到给定的路径,一个快捷方式的“写().save(路径)。

( 参数:pyspark.ml.param.Param,价值:任何 )→没有

设置一个参数嵌入参数映射。

setFeaturesCol ( 价值:str )→P

设置的值featuresCol

setPredictionCol ( 价值:str )→P

设置的值predictionCol

setRawPredictionCol ( 价值:str )→P

设置的值rawPredictionCol

setThreshold ( 价值:浮动 )pyspark.ml.classification.LinearSVCModel

设置的值阈值

总结 ( )pyspark.ml.classification.LinearSVCTrainingSummary

总结(精度/精密/召回,客观历史,总迭代)模型对训练集训练。如果是一个例外trainingSummary没有

变换 ( 数据集:pyspark.sql.dataframe.DataFrame,参数个数:可选(ParamMap]=没有一个 )→pyspark.sql.dataframe.DataFrame

与可选参数转换的输入数据集。

参数
数据集 pyspark.sql.DataFrame

输入数据集

参数个数 东西,可选

一个可选的参数覆盖嵌入参数的地图。

返回
pyspark.sql.DataFrame

改变了数据集

( )→pyspark.ml.util.JavaMLWriter

返回一个MLWriter实例毫升实例。

属性的文档

aggregationDepth =参数(父母=‘定义’,name = ' aggregationDepth ', doc =的建议深度treeAggregate (> = 2)。)
系数

模型系数的线性支持向量机分类器。

featuresCol =参数(父母=‘定义’,name = ' featuresCol ', doc =功能列名称。)
fitIntercept =参数(父母=‘定义’,name = ' fitIntercept ', doc =是否适合一个截距项。)
hasSummary

表明这个模型实例是否存在一个培训总结。

拦截

模型线性SVM分类器的拦截。

labelCol =参数(父母=‘定义’,name = ' labelCol ', doc =“标签列名。”)
maxBlockSizeInMB =参数(父母=‘定义’,name = ' maxBlockSizeInMB ',医生在MB = '最大内存叠加输入数据块。数据分区内堆放。如果超过剩余的数据大小的分区是调整大小的数据。默认0.0代表了选择最优值,取决于特定的算法。必须> = 0”。)
麦克斯特 =参数(父母=‘定义’,name =“麦克斯特”,医生=“马克斯(> = 0)的迭代次数。)
numClasses

数量的类标签可以(值)。

numFeatures

返回的数量特征模型训练。如果未知,返回1

参数个数

返回所有参数命令的名字。默认实现使用dir ()所有的属性类型参数

predictionCol =参数(父母=‘定义’,name = ' predictionCol ', doc =预测列名称。)
rawPredictionCol =参数(父母=‘定义’,name = ' rawPredictionCol ', doc =“原始预测(又名信心)列名”。)
regParam =参数(父母=‘定义’,name = ' regParam ', doc =“正则化参数(> = 0)”。)
标准化 =参数(父母=‘定义’,name =“标准化”,医生=是否规范培训特性拟合模型之前。)
阈值 :pyspark.ml.param.Param(浮动) =参数(父母=‘定义’,name =“阈值”,医生= '以二进制分类阈值应用到线性模型预测。这个阈值可以是任何实数,正将所有预测0.0和1.0负无穷将使所有的预测。”)
托尔 =参数(父母=‘定义’,name =“托尔”,医生=迭代算法的收敛公差(> = 0)”。)
weightCol =参数(父母=‘定义’,name = ' weightCol ', doc = '体重列名。如果这不是设置或空,我们对所有实例权重为1.0。”)