最近发布的LLM-Numbers令人振奋,这是人们提高计算机算法效率的一项重要突破。这种算法是从阿里巴巴云计算实验室中发现的,我们可以利用这个算法来加速卷积计算,从而提高许多机器学习和深度学习应用的执行速度。
LLM-Numbers是带有局部无关性的算法,这意味着在计算这些算法中的数字时,不需要考虑它们的位置,所以我们可以快速且准确地计算它们。此外,LLM-Numbers与Halide等流行库具有互操作性,因此它们可以在不同的计算环境中使用。
这项技术的实现方式是使用射线投影算法来确定每个数字的权重。对于每个位置,我们可以用同一组权重来计算数字,这意味着我们可以在非常短的时间内计算任意数量的数字。该算法还采用了一种新的数据结构,称为Light Linear Memory(LLM),这是一个紧密压缩的数据结构,可以快速计算卷积中使用的所有数字。
与曾经的算法相比,LLM-Numbers在许多方面都具有优势。它可以更快地计算数据,还可以改进内存使用。此外,该算法与其他库兼容,可以在现有的计算环境中无缝使用。LLM-Numbers的推出将进一步推动机器学习和深度学习的研究和发展。
了解更多有趣的事情:https://blog.ds3783.com/