LSTM Autoencoder 数据缩放指南

Guidance on Data Scaling for LSTM Autoencoder

提问人:Sarah 提问时间:8/9/2023 更新时间:8/9/2023 访问量:17

问:

我正在处理包含 9 个特征的数据集。虽然其中 8 个要素的值范围为 0-255,但一个要素的值却截然不同。我正在将此数据集与 LSTM 自动编码器一起使用以进行异常检测,并且有几个关于缩放的问题:

虽然建议使用 RobustScaler 来处理异常值,但我发现 StandardScaler 在我的测试中胜过它。您能解释一下为什么会这样吗?

我尝试将 RobustScaler 用于发散功能,将 StandardScaler 用于其余功能。这种方法似乎很有希望。您会推荐这种混合缩放方法,还是应该坚持使用一个缩放器来执行所有功能?

感谢您对最佳方法的见解和指导。

感谢您的时间和专业知识。

python-3.x LSTM 规范化 功能工程

评论


答: 暂无答案