苹果公司推出MLLLM Ferret-UI,开创移动UI界面理解新纪元

2024年4月10日 — 苹果公司近日宣布推出一款名为Ferret-UI的机器学习语言模型(MLLM),旨在大幅提升对移动用户界面(UI)屏幕的理解能力。这一创新技术预示着iOS 18操作系统可能将带来前所未有的交互体验,用户或将能够通过Siri实现对应用界面的自动操作。

  1. Ferret-UI模型:移动UI理解的新突破

Ferret-UI模型是专为移动UI屏幕设计的MLLM,它不仅具备引用、定位和推理能力,还能够处理UI屏幕上的各种复杂任务。该模型的关键创新之一是其独特的“任何分辨率”技术,该技术通过放大细节来解决小型对象的识别问题,显著提高了模型对UI元素的理解精度。

  1. UI屏幕理解的挑战与解决方案

与传统的自然图像相比,UI屏幕通常具有更多的长宽比和更小的元素,这对模型的识别能力提出了更高要求。Ferret-UI模型通过采用“任何分辨率”技术,将屏幕分割成基于原始宽高比的子图像,并对每个子图像进行单独编码,从而在不丢失重要视觉信号的情况下放大细节,实现了对小型对象的准确识别。

  1. 训练样本的收集与任务制定

为了训练Ferret-UI模型,苹果公司收集了从基础到高级的广泛数据样本,并将其格式化为带有区域注释的指令遵循格式。此外,为了提升模型的推理能力,还特别编制了一个包含详细描述、感知/交互对话和功能推断等高级任务的数据集。

  1. 模型架构与数据集的建立

Ferret-UI的架构基于在自然图像引用和定位任务中表现出色的Ferret模型。针对UI屏幕的特点,Ferret-UI进行了架构调整,包括集成“任何分辨率”技术和使用预定义的网格配置来划分全图图像。同时,为了全面评估模型的能力,苹果公司还建立了一个包含所有研究任务的综合测试基准。

  1. 高级任务中的对话能力

Ferret-UI在高级任务中的对话能力尤为突出,模型能够生成与视觉组件相关的详细讨论,并提出以特定目标为导向的行动计划。通过功能推断,Ferret-UI还能够解释屏幕的整体目的,显示出其在理解和生成自然语言指令方面的高级能力。

苹果公司此次推出的Ferret-UI模型,不仅为移动UI界面的理解带来了革命性的突破,也为未来的智能设备交互体验开辟了新的可能性。随着iOS 18操作系统的即将到来,我们有理由相信,Ferret-UI将为用户带来更加智能、便捷的操作体验,开启移动设备交互的新篇章。

相关推荐

  1. SwiftUI革新:Xcode UI开发新纪元

    2024-04-12 16:38:04       23 阅读
  2. 登录界面UI开发 - 登录注册开发入门(1)

    2024-04-12 16:38:04       62 阅读

最近更新

  1. docker php8.1+nginx base 镜像 dockerfile 配置

    2024-04-12 16:38:04       98 阅读
  2. Could not load dynamic library ‘cudart64_100.dll‘

    2024-04-12 16:38:04       106 阅读
  3. 在Django里面运行非项目文件

    2024-04-12 16:38:04       87 阅读
  4. Python语言-面向对象

    2024-04-12 16:38:04       96 阅读

热门阅读

  1. mysql定时任务-事件调度器(Event Scheduler)

    2024-04-12 16:38:04       41 阅读
  2. linux环境openfile限制

    2024-04-12 16:38:04       42 阅读
  3. 数组、数组对象去重

    2024-04-12 16:38:04       38 阅读
  4. python 最简单的网页爬虫

    2024-04-12 16:38:04       32 阅读
  5. Python 大麦抢票脚本

    2024-04-12 16:38:04       43 阅读
  6. AcWing-5:多重背包问题 II

    2024-04-12 16:38:04       37 阅读
  7. C++| QT定时器QTimer

    2024-04-12 16:38:04       35 阅读