苹果要在iPhone上运行AI大模型?

近两年,人工智能(AI)技术已经成为各大科技公司的重点研究领域,苹果公司自然也不甘落后。最新消息称,苹果甚至打算在iPhone上直接运行AI大模型...

据苹果AI研究人员表示,他们发明了一种创新的闪存利用技术,这是一项重要的技术突破,可以在iPhone和其他内存有限的Apple设备上部署大型语言模型(LLMs)

当前风靡全球的ChatGPT和Claude都是基于LLMs模型生成的,但这些模型都有一个缺点,就是需要耗费大量的数据和内存。这对于像iPhone这样内存有限的设备来说,想要运行LLMs大模型绝非易事。

为了攻克这一难题,苹果研究人员开发了一种新技术,通过利用闪存(存储应用程序和照片的地方)来存储人工智能模型的数据

研究人员在一篇名为“LLM in a flash: Efficient Large Language Model Inference with Limited Memory”论文中提到,闪存在移动设备中比传统上用于运行LLMs的RAM更丰富。

论文作者指出,他们的方法巧妙地绕过了限制,使用两种关键技术来最大限度地减少数据传输并最大限度地提高闪存吞吐量:

窗口化(Windowing):就像回收再利用一样,AI模型不会每次都加载新数据,而是会重复使用部分已处理的数据。这减少了频繁读取内存的需要,让整个过程更加流畅高效。

行-列捆绑(Row-Column Bundling): 这种技术类似于你读一本书时,不是逐字逐句地阅读,而是成段地阅读。通过更有效地分组数据,可以从闪存中更快地读取数据,从而加速AI理解和生成语言的能力。

根据论文显示,这两种技术结合起来使得AI模型可以运行到iPhone可用内存的两倍大小,这意味着标准处理器(CPU)上可以提高4-5倍速度,在图形处理器(GPU)上可以提高20-25倍速度。“这一突破对于在资源有限的环境中部署先进的LLMs非常重要,极大扩展了它们的可用性和可访问性”,作者写道。

人工智能(AI)技术的突破将让iPhone变得更加智能,比如更先进的Siri功能、实时语言翻译以及摄影和增强现实中复杂的人工智能驱动功能,该技术也为将iPhone上运行复杂AI助手和聊天机器人设备做准备。

早在今年2月份,苹果内部就召开了一个AI峰会,向员工介绍了其大型语言模型工作。

据彭博社报道,苹果正在开发自己的生成式人工智能模型,称为“Ajax”。Ajax旨在与OpenAI的GPT-3和GPT-4等产品相媲美,可在2000亿个参数上运行,这表明在语言理解和生成方面具有高度的复杂性和能力。

Ajax内部被称为“Apple GPT”,旨在统一整个Apple的机器学习开发,将AI技术更深入地整合到苹果生态系统中。

据分析师Jeff Pu表示,苹果将在2024年底左右在iPhone和 iPad上提供某种生成式AI功能,也就是说,这项技术可能会在iOS 18系统更新时发布。

最近更新

  1. TCP协议是安全的吗?

    2024-01-18 07:36:05       18 阅读
  2. 阿里云服务器执行yum,一直下载docker-ce-stable失败

    2024-01-18 07:36:05       19 阅读
  3. 【Python教程】压缩PDF文件大小

    2024-01-18 07:36:05       18 阅读
  4. 通过文章id递归查询所有评论(xml)

    2024-01-18 07:36:05       20 阅读

热门阅读

  1. MyBatis-Plus之内置接口&Service接口&Mapper接口

    2024-01-18 07:36:05       35 阅读
  2. 《设计模式的艺术》笔记 - 桥接模式

    2024-01-18 07:36:05       32 阅读
  3. 浅析GitHub Copilot

    2024-01-18 07:36:05       35 阅读
  4. ARM 1.15

    ARM 1.15

    2024-01-18 07:36:05      29 阅读
  5. Vue 3 中的响应式原理

    2024-01-18 07:36:05       43 阅读
  6. 【Spring之手写一个依赖注入容器】

    2024-01-18 07:36:05       28 阅读