让神经网络识别文本模式的数学实际上只是乘法——很多很多很多的乘法。我们说的是数千枚计算机芯片进行持续数月的乘法运算

让神经网络识别文本模式的数学实际上只是乘法——很多很多很多的乘法。我们说的是数千枚计算机芯片进行持续数月的乘法运算。

通常,芯片会将能放入16位存储器的数字相乘。但深度求索将每个数字压缩到只有八位的存储器中,节省了一半的空间。实际上就是在每个数字中删掉了几位小数。

这意味着每次计算的准确性都会降低。但这并不重要。这些计算准确度足以产生一个非常强大的神经网络。这个嘛,他们另外还有一招。

在将每个数字塞进八位存储器后,深度求索在将这些数字相乘时采取了不同的方法。在确定每个乘法问题的答案时——进行有助于决定神经网络将如何运作的关键计算——它将答案扩展到32位存储器中。换句话说,这样就保留了更多的小数,使得答案更为精确。

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注