ALSModel¶
-
类
pyspark.ml.recommendation。
ALSModel
( java_model:可选(JavaObject]=没有一个 ) ¶ -
模型拟合了肌萎缩性侧索硬化症。
方法
清晰的
(参数)清除参数映射的参数是否被显式地设置。
复制
((额外的))创建这个实例的副本具有相同uid和一些额外的参数。
explainParam
(参数)解释一个参数并返回它的名字,医生,和可选的默认值,用户提供的字符串值。
返回文档的所有参数选择默认值和用户提供的值。
extractParamMap
((额外的))提取嵌入默认参数值和用户提供的值,然后合并他们额外的值从输入平面参数映射,后者使用价值如果存在冲突,即。排序:默认参数值< <额外的用户提供的值。
得到的价值blockSize或其默认值。
得到的价值coldStartStrategy或其默认值。
得到的价值itemCol或其默认值。
getOrDefault
(参数)得到参数的值在用户提供的参数映射或其默认值。
getParam
(paramName)通过它的名称参数。
得到的价值predictionCol或其默认值。
得到的价值userCol或其默认值。
hasDefault
(参数)检查是否一个参数有默认值。
hasParam
(paramName)测试这个实例包含一个参数是否与给定名称(字符串)。
isDefined
(参数)检查参数是否由用户或显式地设置一个默认值。
收取
(参数)检查参数是否由用户显式地设置。
负载
(路径)从输入路径,读取一个毫升实例的快捷方式read () .load(路径)。
读
()返回一个MLReader这个类的实例。
recommendForAllItems
(numUsers)返回顶部numUsers用户推荐为每个项目,所有项目。
recommendForAllUsers
(numItems)返回顶部numItems项目推荐给每一个用户,为所有用户。
recommendForItemSubset
(numUsers数据集)返回顶部numUsers用户推荐为每个项id的输入数据集。
recommendForUserSubset
(numItems数据集)返回顶部numItems项目推荐为每个用户id的输入数据集。
保存
(路径)这个毫升实例保存到给定的路径,一个快捷方式的“写().save(路径)。
集
(参数值)设置一个参数嵌入参数映射。
setBlockSize
(值)设置的值
blockSize
。设置的值
coldStartStrategy
。setItemCol
(值)设置的值
itemCol
。设置的值
predictionCol
。setUserCol
(值)设置的值
userCol
。变换
(数据集[params))与可选参数转换的输入数据集。
写
()返回一个MLWriter实例毫升实例。
属性
DataFrame存储项因素在两列:id和特性
返回所有参数命令的名字。
矩阵的秩分解模型
DataFrame存储用户因素在两列:id和特性
方法的文档
-
清晰的
( 参数:pyspark.ml.param.Param )→没有¶ -
清除参数映射的参数是否被显式地设置。
-
复制
( 额外的:可选(ParamMap]=没有一个 )→摩根大通¶ -
创建这个实例的副本具有相同uid和一些额外的参数。这个实现第一次调用参数。复制和then make a copy of the companion Java pipeline component with extra params. So both the Python wrapper and the Java pipeline component get copied.
- 参数
-
- 额外的 东西,可选
-
额外参数复制到新实例
- 返回
-
-
JavaParams
-
这个实例的副本
-
-
explainParam
( 参数:联盟(str,pyspark.ml.param.Param] )→str¶ -
解释一个参数并返回它的名字,医生,和可选的默认值,用户提供的字符串值。
-
explainParams
( )→str¶ -
返回文档的所有参数选择默认值和用户提供的值。
-
extractParamMap
( 额外的:可选(ParamMap]=没有一个 )→ParamMap¶ -
提取嵌入默认参数值和用户提供的值,然后合并他们额外的值从输入平面参数映射,后者使用价值如果存在冲突,即。排序:默认参数值< <额外的用户提供的值。
- 参数
-
- 额外的 东西,可选
-
额外的参数值
- 返回
-
- dict
-
合并后的参数映射
-
getBlockSize
( )→int¶ -
得到的价值blockSize或其默认值。
-
getColdStartStrategy
( )→str¶ -
得到的价值coldStartStrategy或其默认值。
-
getItemCol
( )→str¶ -
得到的价值itemCol或其默认值。
-
getOrDefault
( 参数:联盟(str,pyspark.ml.param.Param(T]] )→联盟(任何,T] ¶ -
得到参数的值在用户提供的参数映射或其默认值。如果没有设置提出了一个错误。
-
getParam
( paramName:str )→pyspark.ml.param.Param ¶ -
通过它的名称参数。
-
getPredictionCol
( )→str¶ -
得到的价值predictionCol或其默认值。
-
getUserCol
( )→str¶ -
得到的价值userCol或其默认值。
-
hasDefault
( 参数:联盟(str,pyspark.ml.param.Param(任何]] )→bool¶ -
检查是否一个参数有默认值。
-
hasParam
( paramName:str )→bool¶ -
测试这个实例包含一个参数是否与给定名称(字符串)。
-
isDefined
( 参数:联盟(str,pyspark.ml.param.Param(任何]] )→bool¶ -
检查参数是否由用户或显式地设置一个默认值。
-
收取
( 参数:联盟(str,pyspark.ml.param.Param(任何]] )→bool¶ -
检查参数是否由用户显式地设置。
-
classmethod
负载
( 路径:str )→RL¶ -
从输入路径,读取一个毫升实例的快捷方式read () .load(路径)。
-
classmethod
读
( )→pyspark.ml.util.JavaMLReader(RL] ¶ -
返回一个MLReader这个类的实例。
-
recommendForAllItems
( numUsers:int )→pyspark.sql.dataframe.DataFrame¶ -
返回顶部numUsers用户推荐为每个项目,所有项目。
- 参数
-
- numUsers int
-
每个条目的最大数量的建议
- 返回
-
-
pyspark.sql.DataFrame
-
DataFrame (itemCol、推荐),建议在哪里存储为一个数组(userCol,评级)的行。
-
-
recommendForAllUsers
( numItems:int )→pyspark.sql.dataframe.DataFrame¶ -
返回顶部numItems项目推荐给每一个用户,为所有用户。
- 参数
-
- numItems int
-
为每个用户最大数量的建议
- 返回
-
-
pyspark.sql.DataFrame
-
DataFrame (userCol、推荐),建议在哪里存储为一个数组(itemCol,评级)的行。
-
-
recommendForItemSubset
( 数据集:pyspark.sql.dataframe.DataFrame,numUsers:int )→pyspark.sql.dataframe.DataFrame¶ -
返回顶部numUsers用户推荐为每个项id的输入数据集。注意,如果有重复的id输入数据集,只有一组建议每个惟一的id将被归还。
- 参数
-
-
数据集
pyspark.sql.DataFrame
-
DataFrame包含一列条目id。列名必须匹配itemCol。
- numUsers int
-
每个条目的最大数量的建议
-
数据集
- 返回
-
-
pyspark.sql.DataFrame
-
DataFrame (itemCol、推荐),建议在哪里存储为一个数组(userCol,评级)的行。
-
-
recommendForUserSubset
( 数据集:pyspark.sql.dataframe.DataFrame,numItems:int )→pyspark.sql.dataframe.DataFrame¶ -
返回顶部numItems项目推荐为每个用户id的输入数据集。注意,如果有重复的id输入数据集,只有一组建议每个惟一的id将被归还。
- 参数
-
-
数据集
pyspark.sql.DataFrame
-
包含一个列DataFrame用户id。列名必须匹配userCol。
- numItems int
-
为每个用户最大数量的建议
-
数据集
- 返回
-
-
pyspark.sql.DataFrame
-
DataFrame (userCol、推荐),建议在哪里存储为一个数组(itemCol,评级)的行。
-
-
保存
( 路径:str )→没有¶ -
这个毫升实例保存到给定的路径,一个快捷方式的“写().save(路径)。
-
集
( 参数:pyspark.ml.param.Param,价值:任何 )→没有¶ -
设置一个参数嵌入参数映射。
-
setBlockSize
( 价值:int )→pyspark.ml.recommendation.ALSModel ¶ -
设置的值
blockSize
。
-
setColdStartStrategy
( 价值:str )→pyspark.ml.recommendation.ALSModel ¶ -
设置的值
coldStartStrategy
。
-
setItemCol
( 价值:str )→pyspark.ml.recommendation.ALSModel ¶ -
设置的值
itemCol
。
-
setPredictionCol
( 价值:str )→pyspark.ml.recommendation.ALSModel ¶ -
设置的值
predictionCol
。
-
setUserCol
( 价值:str )→pyspark.ml.recommendation.ALSModel ¶ -
设置的值
userCol
。
-
变换
( 数据集:pyspark.sql.dataframe.DataFrame,参数个数:可选(ParamMap]=没有一个 )→pyspark.sql.dataframe.DataFrame¶ -
与可选参数转换的输入数据集。
- 参数
-
-
数据集
pyspark.sql.DataFrame
-
输入数据集
- 参数个数 东西,可选
-
一个可选的参数覆盖嵌入参数的地图。
-
数据集
- 返回
-
-
pyspark.sql.DataFrame
-
改变了数据集
-
-
写
( )→pyspark.ml.util.JavaMLWriter¶ -
返回一个MLWriter实例毫升实例。
属性的文档
-
blockSize
=参数(父母=‘定义’,name = ' blockSize ', doc = '叠加输入数据块大小的矩阵。数据分区内堆放。如果超过剩余的数据块大小调整一个分区那么这个数据的大小。) ¶
-
coldStartStrategy
:pyspark.ml.param.Param (str) =参数(父母=‘定义’,name = ' coldStartStrategy ', doc = "战略应对未知或新用户/项目预测时间。这可能是有用的在交叉验证或生产场景中,用于处理用户/项目id模型并没有出现在训练数据。支持价值观:‘南’,‘降’。”) ¶
-
itemCol
:pyspark.ml.param.Param (str) =参数(父母=‘定义’,name = ' itemCol ', doc = '列名称条目id。id必须在整数值范围之内。”) ¶
-
itemFactors
¶ -
DataFrame存储项因素在两列:id和特性
-
参数个数
¶ -
返回所有参数命令的名字。默认实现使用
dir ()
所有的属性类型参数
。
-
predictionCol
=参数(父母=‘定义’,name = ' predictionCol ', doc =预测列名称。) ¶
-
排名
¶ -
矩阵的秩分解模型
-
userCol
:pyspark.ml.param.Param (str) =参数(父母=‘定义’,name = ' userCol ',医生为用户id = '列名称。id必须在整数值范围之内。”) ¶
-
userFactors
¶ -
DataFrame存储用户因素在两列:id和特性
-