在最近的一份研究论文中,题为“ MM1:多模式LLM预培训的方法,分析和见解”,Apple研究人员推出了一种培训大语模型(LLMS)的开创性方法,该方法无缝地整合了文本和视觉信息。预计这项创新将彻底改变AI功能,尤其是在图像字幕,视觉问题回答和自然语言理解等领域。
苹果进入AI的旅程的特点是战略投资,专注于增强用户体验。尽管苹果是LLM场景的后来者,但Apple仍取得了长足的进步,利用其在硬件和软件集成方面的专业知识来创建强大的AI工具。
阅读更多:我有哪种iPhone型号?找到您的iPhone模型
该公司的首席执行官蒂姆·库克(Tim Cook)强调了AI和机器学习在Apple产品生态系统中的重要性。这种战略愿景反映了苹果公司致力于提供尖端技术的承诺,同时优先考虑用户隐私和数据安全。
苹果的新MM1 AI模型可以使Siri更聪明,更有帮助
Apple MM1模型的核心是其结合包括图像扣对,交织的图像文本文档和仅文本数据的各种数据集的能力。这种独特的方法使AI系统可以根据视觉和语言提示的混合来理解和生成语言。通过利用这种多模式训练,Apple的目标是以AI的能力来解释复杂的图像和执行需要细微理解的任务的能力。
苹果的MM1展示了出色的表现,甚至超过了一些既定的竞争对手。该模型最大的配置具有多达300亿个参数,具有出色的内在学习和多图像推理能力。这使MM1能够以最小的示例处理复杂的开放式解决问题的任务,从而使其高效和有效。
尽管苹果没有明确提及特定的产品集成,但人们对MM1对Siri进化的潜在影响的推测倍增。对效率,最小提示和多模式能力的重点与苹果公司为增强其生态系统中用户体验的持续努力保持一致。 MM1的功能可以使Siri能够根据文本和图像来理解和响应查询,从而为用户提供更个性化和直观的互动。
与这些事态发展并联,苹果正在采用多方面的方法来进一步提高其AI功能。这包括正在进行的讨论,以许可Google的双子座模型并探索与OpenAI的合作。
阅读苹果的“ MM1:多模式LLM预训练的方法,分析和见解”,论文这里。