随着苹果发布新AI模型,这表示iPhone 16将成为软硬件都具AI支援的首个产品
【情报来源】
原网址:https://iknow.stpi.narl.org.tw/Post/Read.aspx?PostID=20666
短网址:https://bit.ly/3UBKRHB
【情报/优惠内容】
苹果一直对其生成式AI计画保持沉默,该公司将如何利用AI来改进下一代iPhone 16和
iPhone 16 Pro是2024年的大问题之一。但随着4月24日发布新AI模型,该公司的近期目标
似乎坚定地落在“让AI在苹果装置上运行”领域。
苹果公司研究人员发布的OpenELM(代表“开源高效语言模型”)。这八个OpenELM模型有
两种类型:四种为“准训练”模型(基本上是模型的原始、下一个Token版本),四种为
指令调整模型(针对指令追踪进行了微调,这对于开发AI助里和聊天机器人)。苹果甚至
在Hugging Face模型页面上表示,OpenELM在电子邮件编写等文字相关任务上执行得非常
有效率。这些模型是开源的,可供开发人员使用。
众所皆知,LLM愈大,可用的数据就愈多,这些数据集最初是在云端中建置并作为线上服
务进行存取。随着企业一直在推动创建具有足够小的数据足迹,以让其行动装置上可运行
的LLM,因为这对于PC和智慧型手机非常重要。
可是如果要达到在装置上AI的水准,这需要新的软件技术,但也对硬件有相对的要求,以
实现更有效率的处理。高通、三星和联发科等专注于Android的芯片组制造商提供针对生
成式AI进行最佳化的系统单芯片封装。预计苹果会对下一代Axx芯片采取同样的做法,以
允许更多的AI程式在2024年的iPhone 16系列上而不是在云端进行。
在装置上运行意味着用户资料无需上传,可以在装置处理即可。随着大众愈来愈意识到对
AI隐私的担忧,这将成为一个关键的行销点。
此前,康乃尔大学与苹果研发团队合作发布了另一篇LLM研究论文。本文描述了Ferret-UI
(是一种LLM),有助于理解装置的使用者接口以及萤幕上发生的情况,并提供大量互动
。例如:为视力受损的人,提供使用语音导航,或者描述显示器上显示的内容。
苹果之所以急于2024年iPhone 16推出时,将生成式AI放入其中。主要关键在于2023年10
月谷歌推出了第一款内建AI的智慧型手机Pixel 8和Pixel 8 Pro,标志着厂商急于在行动
装置中使用和推广生成式AI的好处,并期望能够在几年之内,就将AI智慧型手机带入主流
,并兴起一股换机潮。从那时起,苹果就一直处于不利地位,加上2024年第一季iPhone销
售不佳,这更让苹果处于劣势。
尽管苹果正在与谷歌讨论授权Gemini之事宜,又期望在众多基于Android 的AI装置中脱颖
而出,其必须寻求多管道获得执行其生成式AI的计画,如此才不会在iPhone 16推出之后
,面临更为难以克服的成长困境。
【介绍或心得】
苹果推出新AI模型,iPhone 16将是首款全面支援AI的产品。此举彰显苹果致力于AI计画
,未来iPhone 16和iPhone 16 Pro的AI应用令人期待。苹果的OpenELM模型开源,对于文
字相关任务表现出色。此外,苹果将在芯片设计上优化以支援生成式AI,意味着用户资料
可在装置上处理,提升隐私保护。苹果必须在AI技术和市场竞争中取得优势,才能应对来
自Android装置的挑战。