深度可视化网络探索记忆的形成
在卷积神经网络领域中有许多可视化方面的研究,但是对于 LSTM 却没有足够的类似工具。LSTM 网络的可视化能带来很有意思的结果,由于其包含时间相关性,我们除了可以在可视化图像的空间维度上探索数据之间的关联,还可以在时间维度上探索关联的稳健性。
-
GitHub 地址: https://github.com/asap-report/lstm-visualisation
-
数据集地址 https://archive.ics.uci.edu/ml/datasets/Australian+Sign+Language+signs
对于长序列建模而言,长短期记忆(LSTM)网络是当前最先进的工具。然而,理解 LSTM 所学到的知识并研究它们犯某些特定错误的原因是有些困难的。在卷积神经网络领域中有许多这方面的文章和论文,但是对于 LSTM 我们却没有足够的工具可以对它们进行可视化和调试。
在这篇文章中,我们试图部分填补这个空白。我们从澳大利亚手语(Auslan)符号分类模型中对 LSTM 网络的激活行为进行可视化,通过在 LSTM 层的激活单元上训练一个降噪自编码器来实现。通过使用密集的自编码器,我们将 LSTM 激活值的 100 维向量投影到 2 维和 3 维。多亏了这一点,我们在一定程度上能够可视化地探索激活空间。我们对这个低维空间进行分析,并试图探索这种降维操作如何有助于找到数据集中样本之间的关系。
Auslan 符号分类器
本文是 Miroslav Bartold 工程论文(Bartołd,2017)的扩展。该论文中使用的数据集来自(Kadous,2002)。该数据集由 95 个 Auslan 手语符号组成,是使用带高质量位置追踪器的手套捕获而来的。然而,因为其中一个符号的数据文件存在问题,剩下 94 个类可用。每个符号由当地手语使用者重复 27 次,且每个时间步使用 22 个数字(每只手 11 个数字)进行编码。在数据集中,最长序列的长度为 137,但由于长序列数量很少,因此我们将长度保留 90 位,并在较短序列的前端填充零序列。
Miroslav 的论文测试了几种分类器,它们全都基于 LSTM 架构,分类的准确率在 96%左右。
如果你对 LSTM 不甚熟悉,你可以看看 Christopher Olah 的博客,上面有关于 LSTM 网络非常好的解释: http://colah.github.io/posts/2015-08-Understanding-LSTMs/。或者机器之心的文章: 在调用 API 之前,你需要理解的 LSTM 工作原理。
在这项研究中,我们将重点关注一种具有 100 个 LSTM 单元单隐层的架构。该架构最后的分类层有 94 个神经元。其输入是具有 90 个时间步的 22 维序列。我们使用了 Keras 函数式 API,其网络架构如图 1 所示。
图 1:模型架构
图 1 所示的 Lambda 元素从完整的激活序列中提取了最后一层激活(因为我们将 return_sequences=True 传给了 LSTM)。对于实现过程中的细节,我们希望大家查看我们的 repo。
首次尝试了解 LSTM 网络的内部结构
受到《Visualizing and Understanding Recurrent Networks》(Karpathy, 2015) 的启发,我们试图将一些对应易识别子手势的神经元局域化(并在不同的符号之间共享),例如握紧拳头或用手画圈。但是,这种想法失败了,这主要有下列五个原因:
-
来自定位追踪器的信号不足以完全重建手部的运动。
-
手势在追踪器和真实空间中的表征差异明显。
-
我们只有来自 http://www.auslan.org.au 的手势视频,却没有数据集中符号的实际执行的视频。
-
数据集以及视频中的语汇来自不同的方言,所以可能会出现同义词。
-
100 个神经元和 94 个符号对于人类理解而言是非常大的空间。
因此,我们只关注可视化技术,希望这能帮助我们揭开关于 LSTM 单元和数据集的一些奥秘。
去噪自编码器
为了将所有手势的 LSTM 输出激活序列可视化,我们将尝试在每一个时间步利用去噪自编码器将表征激活值的 100 维向量降为 2-3 维的向量。我们的自编码器由 5 个全连接层组成,其中第三层是具有线性激活函数的瓶颈层。
如果你对上面说的主题不甚熟悉,你可以在这里学习更多有关自编码器的知识: http://ufldl.stanford.edu/tutorial/unsupervised/Autoencoders/。
为了使得图像清晰易读,线性激活函数被证明是最佳的激活函数。对于所有被测试的激活函数,所有样本路径(example path,该术语将会在下一部分中解释)都从图的(0,0)点附近开始。对于非奇对称函数 (ReLU 和 sigmoid) 而言,所有样本路径都在坐标系的第一象限。而对于奇函数而言(例如 tanh 和线性函数),所有路径在所有象限都大致是均匀分布的。但是,tanh 函数将路径压缩到 -1 和 1 附近(这使得图像太过失真),而线性函数没有这个问题。如果你对其他类型激活函数的可视化感兴趣,你可以在 repo 找到代码实现。
在图 2 中,我们展示了 2D 自编码器的架构。3D 自编码器与之几乎完全相同,不过它在第三个 Dense 层中有 3 个神经元。
在每个手势实现的所有单个时间步中,自编码器使用 LSTM 单元的输出激活向量进行训练。然后这些激活向量被打乱,其中一些冗余激活向量会被去除。冗余激活向量指的是从每个手势开始和结束中得到的矢量,其激活基本保持不变。
图 2 自编码器架构
自编码器中的噪声服从均值为 0 标准差为 0.1 的正态分布,这些噪声被添加到输入向量当中。网络使用 Adam 优化器进行训练,来最小化均方误差。
可视化
通过向自编码器输入对应于单个手势的 LSTM 单元激活的序列,我们可以获得瓶颈层上的激活。我们将这个低维瓶颈层激活序列作为一个样本路径。
在一些样本的最后一步附近,我们给出了它所代表的手势符号名称。在图 3 中,我们给出了训练集样本路径的可视化结果。
图 3 LSTM 激活时间演化的可视化
可视化图中的每个点都代表一个时间步、一个样本的自编码器 2D 激活值。图中点的颜色代表每个符号执行的时间步长(从 0 到 90),黑线连接单一样本路径的点。在可视化之前,每个点都由函数 lambda x: numpy.sign(x) * numpy.log1p(numpy.abs(x)) 进行转换。这种转换能够让我们更加仔细地观察每条路径的起始位置。
在图 4 中,我们展示了每个训练样本最后一步的激活。这是输入点到分类层的二维投影情况。
图 4 LSTM 最后一层的激活
令人惊讶的是所有路径看起来都非常平滑并且在空间上能很好地分离,因为实际上在训练自编码器前,每个时间步和样本的所有激活操作都被打乱了。图 4 中的空间结构解释了为什么我们的最后一个分类层在如此小的训练集上(接近 2000 个样本)能达到很高的准确率。
对于那些有兴趣研究这个 2D 空间的读者而言,我们已经在以下地址提供了图 2 的大型版本: https://image.ibb.co/fK867c/lstm2d_BIG.png 。
在图 5 中,我们展示了三维 LSTM 激活的可视化结果。为了清晰起见,我们只标明了一部分点。出于数据分析的目的,我们在本文第二部分只关注 2D 可视化。
图 5 LSTM 激活的 3D 可视化版本
分析
可视化看起来效果非常好,但是其中有没有更有意义的东西呢?如果一些路径距离很近,是否说明这些手势符号更相似?
让我们在考虑右手和双手符号划分(我们并未看到仅用左手的符号)的情况下看看这个空间吧。这种划分是基于手持跟踪器的信号可变性统计而来的,更详细的信息参见 repo。
为了清晰起见,我们在图 6 中绘制了不含点的路径。右手手势符号用青色表示,双手手势符号用洋红色表示。我们可以清楚地看到,这两种符号都占用了空间的互补部分,并且很少彼此混淆。
图 6 按照手的使用对激活路径进行分类
现在让我们先来看看 drink-danger 对。这两者都是「青色」的手势,却占据了图 6 中间偏右侧大部分洋红色的部分。在我们的数据中,这两个手势都是单手的,但来自 Auslan signbank 的视频解释表明 danger 手势显然是双手的。
这可能是由标签错误引起的。请注意,dangerous 肯定是单手的,而且 drink 也类似(至少在手势的第一部分)。因此,我们认为标签 danger 实际上就是 dangerous。我们在图 7 中绘制了这两个手势。
图 7 标签 drink 和 danger 的 LSTM 激活值
在图 8 中,Who 和 soon 手势的情况很类似。手套中只有一个弯曲追踪器,且手指弯曲测量不是很精确。这也就是这两种手势在图 8 中看起来比视频中更类似的原因。
图 8 who 和 soon 标签的 LSTM 激活值
Crazy 和 think 符号的样本路径占据了图 9 中的相同空间区域。然而,think 看起来像是稍长的 crazy 手势的一个主要部分。当我们查看 Auslan signbank 中的视频时,我们发现这种关系是正确的,而且 crazy 符号看起来就像是 think 符号再加上手掌打开的过程。
图 9 think 和 crazy 的 LSTM 激活值
在图 10 中,虽然当我们看 you 这个符号时我们发现这个符号与 crazy、think、sorry(以及其他在这里没有展示出来的手势)相互垂直,但我们在 signbank 中比较它们的视频时,我们并不能发现这些符号和 you 之间的任何相似之处。
图 10 think/crazy/sorry/you 的 LSTM 激活值
我们应该记住,每一个 LSTM 单元的状态会记住它自己之前的状态,它在每一个时间步都由相应的输入序列馈送进来,并且在路径占据相同空间时可能会存在时间演化上的不同。因此,除了我们在分析中考虑的因素,实际上有更多变量会决定路径的形状。这可能解释了为什么在我们无法观察到符号间视觉相似性时,却能发现部分样本路径之间有交叉关系。
从可视化结果得到的部分紧密联系被证明有误。一些联系在自编码器再训练的间隔中(或 LSTM 单元再训�
- 原文作者:知识铺
- 原文链接:https://index.zshipu.com/geek/post/%E4%BA%92%E8%81%94%E7%BD%91/%E6%B7%B1%E5%BA%A6%E5%8F%AF%E8%A7%86%E5%8C%96%E7%BD%91%E7%BB%9C%E6%8E%A2%E7%B4%A2%E8%AE%B0%E5%BF%86%E7%9A%84%E5%BD%A2%E6%88%90/
- 版权声明:本作品采用知识共享署名-非商业性使用-禁止演绎 4.0 国际许可协议进行许可,非商业转载请注明出处(作者,原文链接),商业转载请联系作者获得授权。
- 免责声明:本页面内容均来源于站内编辑发布,部分信息来源互联网,并不意味着本站赞同其观点或者证实其内容的真实性,如涉及版权等问题,请立即联系客服进行更改或删除,保证您的合法权益。转载请注明来源,欢迎对文章中的引用来源进行考证,欢迎指出任何有错误或不够清晰的表达。也可以邮件至 sblig@126.com