ALSModel

pyspark.ml.recommendation。 ALSModel ( java_model:可选(JavaObject]=没有一个 )

模型拟合了肌萎缩性侧索硬化症。

方法

清晰的(参数)

清除参数映射的参数是否被显式地设置。

复制((额外的))

创建这个实例的副本具有相同uid和一些额外的参数。

explainParam(参数)

解释一个参数并返回它的名字,医生,和可选的默认值,用户提供的字符串值。

explainParams()

返回文档的所有参数选择默认值和用户提供的值。

extractParamMap((额外的))

提取嵌入默认参数值和用户提供的值,然后合并他们额外的值从输入平面参数映射,后者使用价值如果存在冲突,即。排序:默认参数值< <额外的用户提供的值。

getBlockSize()

得到的价值blockSize或其默认值。

getColdStartStrategy()

得到的价值coldStartStrategy或其默认值。

getItemCol()

得到的价值itemCol或其默认值。

getOrDefault(参数)

得到参数的值在用户提供的参数映射或其默认值。

getParam(paramName)

通过它的名称参数。

getPredictionCol()

得到的价值predictionCol或其默认值。

getUserCol()

得到的价值userCol或其默认值。

hasDefault(参数)

检查是否一个参数有默认值。

hasParam(paramName)

测试这个实例包含一个参数是否与给定名称(字符串)。

isDefined(参数)

检查参数是否由用户或显式地设置一个默认值。

收取(参数)

检查参数是否由用户显式地设置。

负载(路径)

从输入路径,读取一个毫升实例的快捷方式read () .load(路径)

()

返回一个MLReader这个类的实例。

recommendForAllItems(numUsers)

返回顶部numUsers用户推荐为每个项目,所有项目。

recommendForAllUsers(numItems)

返回顶部numItems项目推荐给每一个用户,为所有用户。

recommendForItemSubset(numUsers数据集)

返回顶部numUsers用户推荐为每个项id的输入数据集。

recommendForUserSubset(numItems数据集)

返回顶部numItems项目推荐为每个用户id的输入数据集。

保存(路径)

这个毫升实例保存到给定的路径,一个快捷方式的“写().save(路径)。

(参数值)

设置一个参数嵌入参数映射。

setBlockSize(值)

设置的值blockSize

setColdStartStrategy(值)

设置的值coldStartStrategy

setItemCol(值)

设置的值itemCol

setPredictionCol(值)

设置的值predictionCol

setUserCol(值)

设置的值userCol

变换(数据集[params))

与可选参数转换的输入数据集。

()

返回一个MLWriter实例毫升实例。

属性

blockSize

coldStartStrategy

itemCol

itemFactors

DataFrame存储项因素在两列:id特性

参数个数

返回所有参数命令的名字。

predictionCol

排名

矩阵的秩分解模型

userCol

userFactors

DataFrame存储用户因素在两列:id特性

方法的文档

清晰的 ( 参数:pyspark.ml.param.Param )→没有

清除参数映射的参数是否被显式地设置。

复制 ( 额外的:可选(ParamMap]=没有一个 )→摩根大通

创建这个实例的副本具有相同uid和一些额外的参数。这个实现第一次调用参数。复制和then make a copy of the companion Java pipeline component with extra params. So both the Python wrapper and the Java pipeline component get copied.

参数
额外的 东西,可选

额外参数复制到新实例

返回
JavaParams

这个实例的副本

explainParam ( 参数:联盟(str,pyspark.ml.param.Param] )→str

解释一个参数并返回它的名字,医生,和可选的默认值,用户提供的字符串值。

explainParams ( )→str

返回文档的所有参数选择默认值和用户提供的值。

extractParamMap ( 额外的:可选(ParamMap]=没有一个 )→ParamMap

提取嵌入默认参数值和用户提供的值,然后合并他们额外的值从输入平面参数映射,后者使用价值如果存在冲突,即。排序:默认参数值< <额外的用户提供的值。

参数
额外的 东西,可选

额外的参数值

返回
dict

合并后的参数映射

getBlockSize ( )→int

得到的价值blockSize或其默认值。

getColdStartStrategy ( )→str

得到的价值coldStartStrategy或其默认值。

getItemCol ( )→str

得到的价值itemCol或其默认值。

getOrDefault ( 参数:联盟(str,pyspark.ml.param.Param(T]] )→联盟(任何,T]

得到参数的值在用户提供的参数映射或其默认值。如果没有设置提出了一个错误。

getParam ( paramName:str )pyspark.ml.param.Param

通过它的名称参数。

getPredictionCol ( )→str

得到的价值predictionCol或其默认值。

getUserCol ( )→str

得到的价值userCol或其默认值。

hasDefault ( 参数:联盟(str,pyspark.ml.param.Param(任何]] )→bool

检查是否一个参数有默认值。

hasParam ( paramName:str )→bool

测试这个实例包含一个参数是否与给定名称(字符串)。

isDefined ( 参数:联盟(str,pyspark.ml.param.Param(任何]] )→bool

检查参数是否由用户或显式地设置一个默认值。

收取 ( 参数:联盟(str,pyspark.ml.param.Param(任何]] )→bool

检查参数是否由用户显式地设置。

classmethod 负载 ( 路径:str )→RL

从输入路径,读取一个毫升实例的快捷方式read () .load(路径)

classmethod ( )→pyspark.ml.util.JavaMLReader(RL]

返回一个MLReader这个类的实例。

recommendForAllItems ( numUsers:int )→pyspark.sql.dataframe.DataFrame

返回顶部numUsers用户推荐为每个项目,所有项目。

参数
numUsers int

每个条目的最大数量的建议

返回
pyspark.sql.DataFrame

DataFrame (itemCol、推荐),建议在哪里存储为一个数组(userCol,评级)的行。

recommendForAllUsers ( numItems:int )→pyspark.sql.dataframe.DataFrame

返回顶部numItems项目推荐给每一个用户,为所有用户。

参数
numItems int

为每个用户最大数量的建议

返回
pyspark.sql.DataFrame

DataFrame (userCol、推荐),建议在哪里存储为一个数组(itemCol,评级)的行。

recommendForItemSubset ( 数据集:pyspark.sql.dataframe.DataFrame,numUsers:int )→pyspark.sql.dataframe.DataFrame

返回顶部numUsers用户推荐为每个项id的输入数据集。注意,如果有重复的id输入数据集,只有一组建议每个惟一的id将被归还。

参数
数据集 pyspark.sql.DataFrame

DataFrame包含一列条目id。列名必须匹配itemCol

numUsers int

每个条目的最大数量的建议

返回
pyspark.sql.DataFrame

DataFrame (itemCol、推荐),建议在哪里存储为一个数组(userCol,评级)的行。

recommendForUserSubset ( 数据集:pyspark.sql.dataframe.DataFrame,numItems:int )→pyspark.sql.dataframe.DataFrame

返回顶部numItems项目推荐为每个用户id的输入数据集。注意,如果有重复的id输入数据集,只有一组建议每个惟一的id将被归还。

参数
数据集 pyspark.sql.DataFrame

包含一个列DataFrame用户id。列名必须匹配userCol

numItems int

为每个用户最大数量的建议

返回
pyspark.sql.DataFrame

DataFrame (userCol、推荐),建议在哪里存储为一个数组(itemCol,评级)的行。

保存 ( 路径:str )→没有

这个毫升实例保存到给定的路径,一个快捷方式的“写().save(路径)。

( 参数:pyspark.ml.param.Param,价值:任何 )→没有

设置一个参数嵌入参数映射。

setBlockSize ( 价值:int )pyspark.ml.recommendation.ALSModel

设置的值blockSize

setColdStartStrategy ( 价值:str )pyspark.ml.recommendation.ALSModel

设置的值coldStartStrategy

setItemCol ( 价值:str )pyspark.ml.recommendation.ALSModel

设置的值itemCol

setPredictionCol ( 价值:str )pyspark.ml.recommendation.ALSModel

设置的值predictionCol

setUserCol ( 价值:str )pyspark.ml.recommendation.ALSModel

设置的值userCol

变换 ( 数据集:pyspark.sql.dataframe.DataFrame,参数个数:可选(ParamMap]=没有一个 )→pyspark.sql.dataframe.DataFrame

与可选参数转换的输入数据集。

参数
数据集 pyspark.sql.DataFrame

输入数据集

参数个数 东西,可选

一个可选的参数覆盖嵌入参数的地图。

返回
pyspark.sql.DataFrame

改变了数据集

( )→pyspark.ml.util.JavaMLWriter

返回一个MLWriter实例毫升实例。

属性的文档

blockSize =参数(父母=‘定义’,name = ' blockSize ', doc = '叠加输入数据块大小的矩阵。数据分区内堆放。如果超过剩余的数据块大小调整一个分区那么这个数据的大小。)
coldStartStrategy :pyspark.ml.param.Param (str) =参数(父母=‘定义’,name = ' coldStartStrategy ', doc = "战略应对未知或新用户/项目预测时间。这可能是有用的在交叉验证或生产场景中,用于处理用户/项目id模型并没有出现在训练数据。支持价值观:‘南’,‘降’。”)
itemCol :pyspark.ml.param.Param (str) =参数(父母=‘定义’,name = ' itemCol ', doc = '列名称条目id。id必须在整数值范围之内。”)
itemFactors

DataFrame存储项因素在两列:id特性

参数个数

返回所有参数命令的名字。默认实现使用dir ()所有的属性类型参数

predictionCol =参数(父母=‘定义’,name = ' predictionCol ', doc =预测列名称。)
排名

矩阵的秩分解模型

userCol :pyspark.ml.param.Param (str) =参数(父母=‘定义’,name = ' userCol ',医生为用户id = '列名称。id必须在整数值范围之内。”)
userFactors

DataFrame存储用户因素在两列:id特性