(题图 via )
据悉,该公司最新的工作重点,就是通过较低功耗的神经网络处理器(NPU),实现设备上的 AI 处理。与传统深度学习模型相比,其通常需要缩小数据的分组。
三星表示,深度学习的数据分组为 32 位,能够反映传统的计算模型。对于芯片制造商来说,这显然需要堆砌更多的晶体管硬件,反之又加大了移动设备的能源消耗。
对于标配大容量电池的移动设备来说,这似乎不是一个大问题。但要让 AI 普及开来,就必须削减不必要的功耗,以减轻对更重要的应用的影响。
最终,三星得出的结论是,通过简单地将数据分组为 4 位、同时保持数据的准确性,以降低深度学习的硬件和功耗要求。
这种“量化间隔学习”的方法,有时甚至能够取得比传输更准确的数据结果。根据该公司的数据,其能够晶体管的数量需求减少到 1/40 至 1/120 。
这意味着在等移动设备上进行 AI 处理将变得更为可行,而无需将负载转移到远程服务器上。其不仅减少了响应延迟,还降低了被窃听的风险。
遗憾的是,目前三星只宣布了 NPU 背后的技术,而不是 NPU 本身。预计新技术会嵌入到今年晚些时候宣布的下一款 Exynos 芯片中。