您现在的位置是:吉安市新三代科技有限公司 > 公司新闻

MediaTek运用Meta Llama 2大语言模型,赋能终端设备生成式AI应用

吉安市新三代科技有限公司26-05-07【公司新闻】7人已围观

简介MediaTek通过整合Meta Llama 2大语言模型、自研AI处理器(APU)及NeuroPilot开发平台,构建了完整的终端侧AI计算生态,推动智能手机、物联网、汽车等边缘设备的生成式AI应用落地,预计年末搭载天玑旗舰芯片的设备将率

MediaTek通过整合Meta Llama 2大语言模型、自研AI处理器(APU)及NeuroPilot开发平台,构建了完整的终端侧AI计算生态,推动智能手机、物联网、汽车等边缘设备的生成式AI应用落地,预计年末搭载天玑旗舰芯片的设备将率先支持相关应用。

一、核心合作内容与技术架构
  • Llama 2模型引入:MediaTek与Meta合作,将新一代开源大语言模型Llama 2部署至终端设备,结合自身硬件与软件解决方案,形成从模型优化到应用落地的完整链条。
  • 硬件支持

    AI处理器(APU):MediaTek全系5G智能手机SoC均搭载APU,已支持AI降噪(AI-NR)、AI超级分辨率(AI-SR)、AI运动补偿(AI-MEMC)等生成式AI应用场景。

    新一代旗舰芯片:年末推出的天玑旗舰移动芯片将采用升级版APU,支持Transformer模型骨干网络加速,减少动态随机存取内存(DRAM)读写消耗及带宽占用,提升大语言模型运行效率。

  • 软件优化

    NeuroPilot开发平台:针对Llama 2模型优化软件栈,提供模型压缩、量化及部署工具,降低开发者适配门槛。

    端侧计算生态:通过硬件与软件协同,实现生成式AI在终端设备上的高效运行,无需依赖云端算力。

图:MediaTek终端侧AI计算生态架构示意图二、终端侧生成式AI的优势
  • 无缝体验与隐私保护

    用户数据在本地设备处理,避免上传云端,降低隐私泄露风险,同时支持离线运算,确保无网络环境下的功能可用性。

  • 低延迟与高可靠性

    端侧计算消除云端数据传输延迟,响应速度更快,尤其适用于实时交互场景(如语音助手、智能翻译)。

  • 成本优化

    减少对云端算力的依赖,降低开发者及用户的运营成本,推动生成式AI技术普惠化。

三、应用场景与落地计划
  • 智能手机

    年末搭载天玑旗舰芯片的设备将支持Llama 2模型开发的AI应用,例如智能文本生成、多模态内容创作(图像/视频生成)等。

  • 物联网与智能家居

    通过端侧AI实现设备自主决策,例如智能音箱的语音交互优化、家庭安防的异常行为识别等。

  • 汽车领域

    结合车载芯片算力,支持车载语音助手、驾驶行为分析等生成式AI应用,提升智能化体验。

四、技术挑战与解决方案
  • 算力与功耗平衡

    升级版APU通过硬件加速(如Transformer模型优化)降低计算能耗,同时提升模型推理速度。

  • 模型压缩与部署

    NeuroPilot平台提供模型量化、剪枝工具,将Llama 2模型压缩至适合终端设备运行的规模,兼顾性能与资源占用。

五、行业影响与未来展望
  • 推动终端AI普及

    MediaTek的解决方案降低了生成式AI在边缘设备上的部署门槛,加速技术从实验室到消费市场的转化。

  • 生态合作扩展

    通过与Meta的合作,MediaTek吸引更多开发者加入终端侧AI生态,未来可能拓展至AR/VR、工业自动化等领域。

  • 技术迭代方向

    持续优化APU架构,探索更高效的神经网络计算范式(如存算一体),进一步提升端侧AI性能。

总结:MediaTek通过整合Llama 2模型与自研技术,构建了覆盖硬件、软件及开发工具的终端侧AI生态,为生成式AI在边缘设备的落地提供关键支撑。其解决方案在隐私保护、低延迟及成本优化方面的优势,将推动AI技术从云端向终端渗透,重塑智能设备的交互体验与应用场景。

很赞哦!(45542)