MinHashLSHModel

pyspark.ml.feature。 MinHashLSHModel ( java_model:可选(JavaObject]=没有一个 )

模型由MinHashLSH,存储在多个哈希函数。每个哈希函数选择从以下家庭的哈希函数,在那里\ \ (a_i)\ (b_i \)是随机选择的整数不到':\ (h_i (x) = ((x + b_i) \ cdot a_i \ mod ') \)这个哈希家庭大约是min-wise独立根据参考。

笔记

看到汤姆Bohman表示,科林·库珀和艾伦·弗里兹。“Min-wise独立线性排列。“电子杂志组合7 (2000):R26。

方法

approxNearestNeighbors(数据、关键…[…])

给定一个大型数据集和一个项目,大约发现最多k项的项目最近的距离。

approxSimilarityJoin(datasetB datasetA…)

加入两个数据集大约找到所有成对的距离小于阈值的行。

清晰的(参数)

清除参数映射的参数是否被显式地设置。

复制((额外的))

创建这个实例的副本具有相同uid和一些额外的参数。

explainParam(参数)

解释一个参数并返回它的名字,医生,和可选的默认值,用户提供的字符串值。

explainParams()

返回文档的所有参数选择默认值和用户提供的值。

extractParamMap((额外的))

提取嵌入默认参数值和用户提供的值,然后合并他们额外的值从输入平面参数映射,后者使用价值如果存在冲突,即。排序:默认参数值< <额外的用户提供的值。

getInputCol()

得到的价值inputCol或其默认值。

getNumHashTables()

得到的价值numHashTables或其默认值。

getOrDefault(参数)

得到参数的值在用户提供的参数映射或其默认值。

getOutputCol()

得到的价值outputCol或其默认值。

getParam(paramName)

通过它的名称参数。

hasDefault(参数)

检查是否一个参数有默认值。

hasParam(paramName)

测试这个实例包含一个参数是否与给定名称(字符串)。

isDefined(参数)

检查参数是否由用户或显式地设置一个默认值。

收取(参数)

检查参数是否由用户显式地设置。

负载(路径)

从输入路径,读取一个毫升实例的快捷方式read () .load(路径)

()

返回一个MLReader这个类的实例。

保存(路径)

这个毫升实例保存到给定的路径,一个快捷方式的“写().save(路径)。

(参数值)

设置一个参数嵌入参数映射。

setInputCol(值)

设置的值inputCol

setOutputCol(值)

设置的值outputCol

变换(数据集[params))

与可选参数转换的输入数据集。

()

返回一个MLWriter实例毫升实例。

属性

inputCol

numHashTables

outputCol

参数个数

返回所有参数命令的名字。

方法的文档

approxNearestNeighbors ( 数据集:pyspark.sql.dataframe.DataFrame,关键:pyspark.ml.linalg.Vector,numNearestNeighbors:int,distCol:str=“distCol” )→pyspark.sql.dataframe.DataFrame

给定一个大型数据集和一个项目,大约发现最多k项的项目最近的距离。如果outputCol丢失,该方法将转换数据;如果outputCol存在,它将使用。这允许在必要时改变了数据的缓存。

参数
数据集 pyspark.sql.DataFrame

数据集搜索最近的邻居的关键。

关键 pyspark.ml.linalg.Vector

特征向量代表项目搜索。

numNearestNeighbors int

最近的邻居的最大数量。

distCol str

输出列来存储每个结果行之间的距离和关键。使用“distCol”如果不指定为默认值。

返回
pyspark.sql.DataFrame

数据集包含最多k项最关键。一列“distCol”添加到显示每一行之间的距离和关键。

笔记

这个方法是实验性的,下一个版本可能会改变行为。

approxSimilarityJoin ( datasetA:pyspark.sql.dataframe.DataFrame,datasetB:pyspark.sql.dataframe.DataFrame,阈值:浮动,distCol:str=“distCol” )→pyspark.sql.dataframe.DataFrame

加入两个数据集大约找到所有成对的距离小于阈值的行。如果outputCol丢失,该方法将转换数据;如果outputCol存在,它将使用。这允许在必要时改变了数据的缓存。

参数
datasetA pyspark.sql.DataFrame

的一个数据集加入。

datasetB pyspark.sql.DataFrame

加入另一个数据集。

阈值 浮动

距离阈值的行。

distCol str,可选

输出列来存储每一对行之间的距离。使用“distCol”如果不指定为默认值。

返回
pyspark.sql.DataFrame

加入数据集包含双行。原来的行是列“datasetA”和“datasetB”,和“distCol”一列添加到显示每一对之间的距离。

清晰的 ( 参数:pyspark.ml.param.Param )→没有

清除参数映射的参数是否被显式地设置。

复制 ( 额外的:可选(ParamMap]=没有一个 )→摩根大通

创建这个实例的副本具有相同uid和一些额外的参数。这个实现第一次调用参数。复制和then make a copy of the companion Java pipeline component with extra params. So both the Python wrapper and the Java pipeline component get copied.

参数
额外的 东西,可选

额外参数复制到新实例

返回
JavaParams

这个实例的副本

explainParam ( 参数:联盟(str,pyspark.ml.param.Param] )→str

解释一个参数并返回它的名字,医生,和可选的默认值,用户提供的字符串值。

explainParams ( )→str

返回文档的所有参数选择默认值和用户提供的值。

extractParamMap ( 额外的:可选(ParamMap]=没有一个 )→ParamMap

提取嵌入默认参数值和用户提供的值,然后合并他们额外的值从输入平面参数映射,后者使用价值如果存在冲突,即。排序:默认参数值< <额外的用户提供的值。

参数
额外的 东西,可选

额外的参数值

返回
dict

合并后的参数映射

getInputCol ( )→str

得到的价值inputCol或其默认值。

getNumHashTables ( )→int

得到的价值numHashTables或其默认值。

getOrDefault ( 参数:联盟(str,pyspark.ml.param.Param(T]] )→联盟(任何,T]

得到参数的值在用户提供的参数映射或其默认值。如果没有设置提出了一个错误。

getOutputCol ( )→str

得到的价值outputCol或其默认值。

getParam ( paramName:str )pyspark.ml.param.Param

通过它的名称参数。

hasDefault ( 参数:联盟(str,pyspark.ml.param.Param(任何]] )→bool

检查是否一个参数有默认值。

hasParam ( paramName:str )→bool

测试这个实例包含一个参数是否与给定名称(字符串)。

isDefined ( 参数:联盟(str,pyspark.ml.param.Param(任何]] )→bool

检查参数是否由用户或显式地设置一个默认值。

收取 ( 参数:联盟(str,pyspark.ml.param.Param(任何]] )→bool

检查参数是否由用户显式地设置。

classmethod 负载 ( 路径:str )→RL

从输入路径,读取一个毫升实例的快捷方式read () .load(路径)

classmethod ( )→pyspark.ml.util.JavaMLReader(RL]

返回一个MLReader这个类的实例。

保存 ( 路径:str )→没有

这个毫升实例保存到给定的路径,一个快捷方式的“写().save(路径)。

( 参数:pyspark.ml.param.Param,价值:任何 )→没有

设置一个参数嵌入参数映射。

setInputCol ( 价值:str )→P

设置的值inputCol

setOutputCol ( 价值:str )→P

设置的值outputCol

变换 ( 数据集:pyspark.sql.dataframe.DataFrame,参数个数:可选(ParamMap]=没有一个 )→pyspark.sql.dataframe.DataFrame

与可选参数转换的输入数据集。

参数
数据集 pyspark.sql.DataFrame

输入数据集

参数个数 东西,可选

一个可选的参数覆盖嵌入参数的地图。

返回
pyspark.sql.DataFrame

改变了数据集

( )→pyspark.ml.util.JavaMLWriter

返回一个MLWriter实例毫升实例。

属性的文档

inputCol =参数(父母=‘定义’,name = ' inputCol ', doc =输入列名称。)
numHashTables :pyspark.ml.param.Param (int) =参数(父母=‘定义’,name = ' numHashTables ', doc =”数量的哈希表,哈希表数量的增加降低了假阴性率,并提高运行性能降低。”)
outputCol =参数(父母=‘定义’,name = ' outputCol ', doc =输出列名称。)
参数个数

返回所有参数命令的名字。默认实现使用dir ()所有的属性类型参数