Skip to content
GitLab
探索
登录
注册
主导航
搜索或转到…
项目
D
DAGMM
管理
动态
成员
标记
计划
议题
0
议题看板
里程碑
Wiki
代码
合并请求
0
仓库
分支
提交
标签
仓库图
比较修订版本
代码片段
构建
流水线
作业
流水线计划
产物
部署
发布
软件包库
运维
环境
Terraform 模块
监控
事件
服务台
分析
价值流分析
Contributor analytics
CI/CD 分析
仓库分析
模型实验
帮助
帮助
支持
GitLab 文档
比较 GitLab 各版本
社区论坛
为极狐GitLab 提交贡献
提交反馈
快捷键
?
支持
扫码加入微信群
1. 获取企业级DevOps解决方案
2. 免费或优惠考取极狐GitLab官方培训认证
代码片段
群组
项目
AIOps-NanKai
model
DAGMM
提交
71a59620
提交
71a59620
编辑于
6年前
作者:
Toshihiro Nakae
浏览文件
操作
下载
补丁
差异文件
update parameter changes
上级
43eaaad5
分支
分支 包含提交
无相关合并请求
变更
2
隐藏空白变更内容
行内
左右并排
显示
2 个更改的文件
README.md
+8
-1
8 个添加, 1 个删除
README.md
README_ja.md
+10
-1
10 个添加, 1 个删除
README_ja.md
有
18 个添加
和
2 个删除
README.md
+
8
−
1
浏览文件 @
71a59620
...
...
@@ -81,7 +81,14 @@ Instead, this implementation uses cholesky decomposition of covariance matrix.
In
``DAGMM.fit()``
, it generates and stores triangular matrix of cholesky decomposition
of covariance matrix, and it is used in
``DAGMM.predict()``
,
In addition to it, small perturbation (1e-
3
) is added to diagonal
In addition to it, small perturbation (1e-
6
) is added to diagonal
elements of covariance matrix for more numerical stability
(it is same as Tensorflow GMM implementation,
and
[
another author of DAGMM
](
https://github.com/danieltan07/dagmm
)
also points it out)
## Parameter of GMM Covariance ($\lambda_2$)
Default value of $
\l
ambda_2$ is set to 0.0001 (0.005 in original paper).
When $
\l
ambda_2$ is 0.005, covariances of GMM becomes too large to detect
anomaly points. But perhaps it depends on data and preprocessing
(for example a method of normalization). Recommended control $
\l
ambda_2$
when performance metrics is not good.
This diff is collapsed.
Click to expand it.
README_ja.md
+
10
−
1
浏览文件 @
71a59620
...
...
@@ -81,8 +81,17 @@ Jupyter notebook での[実行サンプル](./Example_DAGMM_ja.ipynb)を用意
``DAGMM.fit()``
において、共分散行列のコレスキー分解をしておき、算出された
三角行列を
``DAGMM.predict()``
で利用しています。
さらに、共分散行列の対角行列にあらかじめ小さな値(1e-
3
)を加えることで、
さらに、共分散行列の対角行列にあらかじめ小さな値(1e-
6
)を加えることで、
安定的にコレスキー分解ができるようにしています。
(Tensorflow の GMM でも同様のロジックがあり、
[
DAGMMの別実装の実装者
](
https://github.com/danieltan07/dagmm
)
も
同じ事情について言及しています)
## 共分散パラメータ $\lambda_2$ について
共分散の対角成分を制御するパラメータ $
\l
ambda_2$ のデフォルト値は
0.
0001 としてあります(論文では 0.005 がおすすめとなっている)
これは、0.005 とした場合に共分散が大きくなりすぎて、大きなクラスタ
が選ばれる傾向にあったためです。ただしこれはデータの傾向、および
前処理の手順(例えば、データの正規化の方法)にも依存すると考えられます。
意図した精度が得られない場合は、$
\l
ambda_2$ の値をコントロールすることを
お勧めします。
This diff is collapsed.
Click to expand it.
预览
0%
请重试
或
添加新附件
.
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
保存评论
取消
想要评论请
注册
或
登录