发现商业评论 旗下
洞察商业 启迪未来

苹果揭秘ReALM:新一代智能模型 让Siri在屏幕上“看”得更远

   时间:2024-04-02 10:21 来源:发现者网

【发现者网】4月2日消息,近日,苹果公司在一篇研究论文中展示了其在人工智能领域的最新成果:一种名为ReALM的模型,该模型被认为可以显著提升Siri的智能水平。苹果的人工智能团队声称,在测试中,ReALM的表现甚至超越了OpenAI的知名语言模型GPT-4.0。

据发现者网了解,ReALM模型具有独特的能力,能够同时理解用户屏幕上的内容以及用户当前的操作。这一特点使得Siri在理解用户意图和提供相关信息时更加准确和迅速。此外,ReALM还将信息分为屏幕实体、对话实体和背景实体三类,以便更好地进行实体识别和任务处理。

在与OpenAI的GPT-3.5和GPT-4.0进行性能对比时,苹果团队发现,ReALM在识别不同类型实体方面均取得了显著进步。尤其是在屏幕实体识别上,即使是最小的ReALM模型,其准确率也比原有系统提升了5%以上。更令人惊讶的是,当与GPT-4.0进行比较时,ReALM的最小模型与之性能相当,而更大的模型则展现出了明显的优势。

论文指出,尽管ReALM的参数数量远少于GPT-4,但它在性能上却能与GPT-4相匹敌,甚至在处理特定领域的用户指令时表现更为出色。这一发现使得ReALM成为一种既实用又高效的实体识别系统,有望在设备端运行并为用户提供更优质的服务。

随着WWDC 2024开发者大会的临近,业界对苹果在iOS 18等新系统中展示更多人工智能技术成果充满期待。对于苹果而言,如何在保持性能的同时将ReALM技术成功应用于其设备中,无疑将成为其未来发展的重要看点。

 
 
更多>同类内容
全站最新
热门内容