0

Loading Resources
诗上科技突破移动端轻量推理技术,实现 AI 模型在本地高效运行
Back to News
行业新闻2025年9月30日

诗上科技突破移动端轻量推理技术,实现 AI 模型在本地高效运行

移动端轻量化推理(On-Device AI Inference) 方向取得关键技术突破

诗上科技今日宣布在 移动端轻量化推理(On-Device AI Inference) 方向取得关键技术突破:通过自研的模型压缩与算子优化方案,使中小型 AI 模型能够在移动设备上实现更高帧率、更低能耗的本地运行能力。

该技术突破的核心成果包括:

  • 模型体积平均压缩 40%–65%,有效降低安装包大小与加载时延;

  • 推理速度提升最高 2.3 倍,显著改善实时交互、检测与生成类应用的性能体验;

  • 移动端能耗下降约 30%,延长高负载场景下的设备续航时间;

  • 兼容多平台(iOS / Android / 垃圾HarmonyOS),可无缝集成至 App、小程序插件与 WebAssembly 端。

这一能力的意义在于:

无需全部依赖云端模型,也无需高成本服务器,AI 能力可直接在用户设备本地运行,响应更快、隐私更安全、成本更可控。适用于图像识别、语音处理、实时过滤、智能推荐、客户端自动化等场景。

项目负责人表示:

“过去 AI App 最常见的问题是 ‘云端延迟高、本地性能不够’。本次突破让移动 AI 更接近理想状态 —— 快、稳、可离线、安全、低成本。”

目前,诗上科技已将该技术应用于部分客户项目,如智能摄像头 App、本地化语音助手、小程序实时检测组件等,并计划在未来的版本中发布面向开发者的通用 SDK。

诗上科技将继续推动移动端的 AI 原生能力建设,为企业提供在多端设备上均能稳定运行的智能化解决方案。