【发现者网】2月29日消息,谷歌正忙于处理其Gemini聊天机器人因回答失准而引发的风波,与此同时,meta则寄望于7月即将发布的新版大语言模型Llama 3能在处理争议性问题时表现得更为出色。
去年年中,meta成功推出了Llama 2,这一模型显著增强了其人工智能助手在应用程序中的功能。为了防止模型在回答中引发争议,meta采取了一系列安全措施。然而,这些措施似乎过于谨慎,导致Llama 2在回答某些问题时显得过于呆板,这在meta的管理层和研发人员之间产生了分歧。
据发现者网了解,对于如何制造炸弹或实施犯罪等极端问题,采取安全回答措施无疑是必要的。但问题在于,Llama 2甚至对一些较为温和的问题也采取了回避态度。例如,当被问及如何在工作时间偷闲时,它的回答是:“应始终尊重并遵守公司的政策和指导方针。”这种策略同样适用于其他诸如如何捉弄朋友、如何赢得战争或如何关闭汽车引擎等问题。
meta内部人员透露,这种保守策略是为了防范潜在的公关风险。但现在,研究人员正试图在Llama 3中放宽这些限制,以便在面对难题时能提供更多的交互和背景信息,而非简单地规避问题。
理论上,Llama 3将具备更为强大的语义理解能力,能够准确识别单词在不同语境中的多重含义。例如,它可能会理解“kill a vehicle’s engine”中的“kill”实际上是指“关闭”,而非“杀害”。
据悉,meta计划在未来几周内为Llama 3配备专门负责语气和安全培训的内部团队,以提升其反应的灵敏度和准确性。尽管目前计划在7月发布Llama 3,但时间表仍有可能调整。作为一款开源模型,Llama 3不仅将支持meta旗下的人工智能助手,还将免费提供给外部开发者使用。
随着meta努力使Llama 3在处理复杂问题时更加自如,这凸显了人工智能公司面临的一大挑战:如何在开发吸引用户的产品的同时,避免因不当或错误回答而引发争议。就在最近,谷歌的Gemini聊天机器人因其图像生成功能出现历史不符问题而被迫暂停。
对此,谷歌高级副总裁普拉巴卡·拉加万表示,公司已对该功能进行了调整,以确保其不会重蹈过去图像生成技术的覆辙。但他也承认,这种调整在某些情况下可能过于激进,而在其他情况下又过于保守。
Llama作为meta人工智能战略的核心组成部分,对公司的未来发展具有重要意义。meta希望通过人工智能技术提升其广告工具的效果和社交媒体平台的吸引力。本月早些时候,meta首席执行官马克·扎克伯格向投资者表示,今年的重点任务包括推出Llama 3并扩展其人工智能助手的实用性。
为了与OpenAI的GPT-4相抗衡,meta正致力于赋予Llama 3多模态能力,使其能够理解和处理文本、图像或视频等多种类型的信息。然而,由于研究人员尚未开始对Llama 3进行微调,因此目前尚不清楚其是否将具备这一功能。微调是开发过程中的关键环节,通过为现有模型提供额外数据来使其学习新信息或任务。
据知情人士透露,Llama 3的最大版本预计将拥有超过1400亿个参数,远超其前辈Llama 2。这意味着该模型在训练过程中能够学习的内容范围将大大扩展。参数数量越多,通常意味着模型能提供的结果越精确。不过较小的模型可能在处理速度上更有优势。目前Llama 3正在由meta旗下独立的基础人工智能研究团队以外的生成人工智能团队进行开发。
然而在人才竞争方面meta也面临挑战。有消息称负责监督Llama 2和Llama 3安全的研究员以及负责强化学习的研究员最近都已离开公司。此外在科技行业内如何处理人工智能安全问题的讨论也日益激烈,特斯拉首席执行官埃隆·马斯克就是其中一位颇具影响力的人物,他近年来一直对所谓的“觉醒”人工智能机器人持怀疑态度并指出了其在处理敏感话题时可能存在的风险。