技术创新:苹果在闪存上存储大型语言模型(LLM)引领未来AI发展

科闻社

(本篇文篇章共1135字,阅读时间约1分钟)
    


    
    


    2023年12月22日,据多家媒体报道,苹果正积极探索在闪存上存储大型语言模型(LLM)的技术创新,并计划将其引入iPhone、iPad和Mac等设备,以在资源有限的环境中提高人工智能(AI)的运行效率。这一突破性进展将有望让强大的Siri、实时语言翻译以及融入摄影和增强现实的AI功能成为未来iPhone的独特卖点。
    传统上,大型语言模型需要占用大量CPU和内存资源。为了解决这一问题,苹果的研究人员正在探索在有限内存设备上存储LLM的可能性。在一篇新发表的论文中,苹果详细介绍了他们利用闪存芯片存储AI模型数据的创新技术。由于iPhone和Mac计算机上闪存大量可用,这项技术使用了一种称为“Windowing”的方法,通过重复使用已处理的数据,减少了对连续内存获取的需求,从而提高了整个过程的速度。
    具体而言,两种关键技术被引入,分别是“窗口化(Windowing)”和“行列捆绑(Row-Column Bundling)”。前者实现了数据的有效分组,减少了对内存的频繁读取,而后者更有效地对数据进行捆绑,使得AI模型能够更快地从闪存中读取数据并提高其理解和生成语言的速度。
    根据研究人员的介绍,这两项技术的引入将使AI模型在iPhone可用RAM大小的两倍范围内运行,极大地提高了在标准处理器上的速度,最高可达5倍,在图形处理器上更是可达25倍。
    苹果对AI的重视不断显现,从自家聊天机器人Apple GPT的推出到计划中的iPhone 16系列搭载升级麦克风,以提升语音输入功能。此外,有传言称,iOS 18将在明年正式到来时引入某种形式的生成式AI,进一步将苹果推向人工智能技术的前沿。
    这一技术创新有望为未来iPhone带来更强大的AI功能,包括更智能的Siri、实时语言翻译以及在摄影和增强现实领域的复杂AI驱动功能。苹果的生成式AI模型,代号为“Ajax”,被认为将与OpenAI的GPT-3和GPT-4竞争,具有高度复杂性和强大的语言理解和生成能力,为苹果的生态系统带来更深层次的AI整合。
    


    


    

*免责声明:以上内容整理自网络,仅供交流学习之用。如有内容、版权问题,请留言与我们联系进行删除。