LiteRT:面向设备端AI的下一代框架,性能提升与NPU支持
Google Developers Blog2026/03/05 00:33机翻/自动摘要/自动分类
3 阅读
内容评分
技术含量
8/10
营销水分
6/10
摘要
LiteRT是TFLite的升级版,专注于设备端AI,提升GPU效率至1.4倍,支持NPU并优化GenAI模型部署。适用于边缘计算场景,增强AI在移动端和嵌入式设备的性能表现。
正文
LiteRT是TensorFlow Lite(TFLite)的升级版本,现已成为设备端AI的通用框架。该框架显著提升了GPU的计算效率,最高可达1.4倍,同时新增了对NPU(神经处理单元)的支持,进一步拓展了在边缘设备上的适用性。此外,LiteRT优化了GenAI模型的部署流程,使其更适用于像Gemma这样的模型。这些改进使得LiteRT在资源受限的设备上能够更高效地运行复杂的AI任务,为开发者提供了更灵活、更强大的工具。