TensorFlow Lite 现在可以更快地使用移动 GPU
机器之心获悉,TensorFlow Lite 今日发布。由于设备的处理和功率有限,在移动设备上对计算重型机器学习模型进行推断的资源也有限。虽然转换为定点模型是加速的一种途径,但用户要求提供 GPU 支持作为加速原始浮点模型推理的选项,而不会产生潜在的额外量化精度损失。因此,该项发布保证了开发者能利用移动 GPU 来选择型号,同时 TensorFlow Lite 的 GPU 后端开发人员预览版也对应发布支持。TensorFlow 还称,在接下来的几个月中,其将继续添加额外的操作并改进整体 GPU 后端产品。