用户测试与眼动追踪转向移动端

  • Tobii
  • 10 min 分钟

Woman at a computer using an eye tracker

使用视觉注意数据来指导产品设计是一个十分有价值的工具,许多用户体验研究团队在设计过程的任何阶段都可以受益匪浅,正如我们在早前的文章中已经概述过的。

但是让我们面对现实,将眼动追踪技术融入研究工具的堆栈中并不总是容易的,原因有两个:

  • 大多数眼动跟踪解决方案都是为桌面测试进行优化的,而在移动设备上进行测试则需要具备勇气。然而,移动设备已经占据全球网页流量的大约一半,因此眼动跟踪的用户体验研究必须优先考虑移动设备。
  • 由于对数据及相应分析方法的陌生,视觉注意力研究一直难以融入测试例程中。

Tobii已经解决了这两个问题,我们将在三个使用案例中概述我们的两项新技术如何结合在一起,以简化利用眼动追踪进行用户体验研究,并获得什么样的见解。

1. 使用Tobii眼动仪进行手机测试

UX研究人员可以通过对手机屏幕进行高清视频捕捉来获益,以便观察用户在浏览网站或应用程序时的行为。眼动追踪适用于研究或可用性测试,通过它可以了解人们在移动设备上与用户界面的各个元素互动的方式。

2. 通过Tobii Pro Lab中的辅助映射,节省分析时间。

Tobii Pro Lab已扩展了映射功能;辅助映射现在适用于移动测试,非常适合定向研究和快速转化研究。它适用于试图评估用户如何与界面进行交互、用户看到或没有看到什么、用户如何浏览网站或应用以及消费哪些内容的用户体验研究团队。通过辅助映射,研究人员可以自动获取数据并创建可视化图表,显示典型的刺激视图顺序(轨迹图)和随时间演变的对刺激的视觉注意力聚合(热点图)。分配兴趣区域(AOI)可以基于刺激中的区域或感兴趣对象进行数值和统计分析。诸如首次凝视时间和总凝视持续时间等指标使研究人员能够了解用户发现和参与相关感兴趣区域的速度以及他们深入网站内容时如何参与。这些洞察力随后可以在设计过程的任何阶段使用,以改进用户体验策略。

移动端用户体验研究中的三个眼动追踪示例:

导航

当用户在移动设备上启动浏览器时,他们会在导航到网站的更深层内容之前,接触到各种内容和信息。移动测试辅助工具确保在没有干扰的控制环境中评估网站导航。辅助制图工具可以帮助研究人员准确确定和测量用户路径以及与网站上的其他功能或内容进行互动的机会。凝视图可提供用户路径的可视化示例,而热图可以提供网站上视觉吸引力内容的示例,并提供重新引导视觉注意力的机会。

信息传递

信息传递是向产品用户传达重要信息的最简洁方式。位置和传递方式可以显著影响消息的参与度。在这个例子中,消息的位置位于主页的顶部。尽管用户相对快速地注意到了消息,但与内容的参与度相对较低,大多数用户选择滚动查找其他内容。视频审查可以让研究人员清晰地观察用户行为。通过使用辅助映射工具并将兴趣区(AOI)分配给屏幕截图,研究人员可以准确地衡量网站上消息的关注度(首次注视的时间)、参与度(总注视持续时间)和观看频率(平均访问次数),从而确定用户是否有机会从其互动中受益。这些洞见可以帮助研究人员确定如何最佳优化和引导用户对网站上的消息产生视觉关注(例如,调整位置、位置、颜色、大小、长度、内容等)。

商业应用

眼动追踪可以用来评估或设计最直观、简单的用户界面。功能性特点有很多,可以极大地影响用户对网站、平台、产品或品牌的感知。高可用性的电子商务平台可以通过创建更高效的购买路径来帮助终端用户,从而最终实现对该平台的持续使用。

对于产品列表页(PLP)和产品展示页(PDP),文本与图像的比例可以影响用户对产品的视觉注意和参与度。眼动追踪使研究人员能够直观地确定平衡内容的方式,以吸引用户而不是让他们感到压倒性。对于产品列表页,可以通过使用移动测试配件和专业实验室来评估筛选功能。对于在移动设备上筛选功能会遮挡PLP的情况,研究人员可以确定最常使用的筛选器的最佳位置,评估屏幕下方的选项是否会被使用,并评估搜索结果中产品选择的响应性如何影响筛选器的使用。产品展示页的功能性特点也会影响购买路径。当用户转向产品展示页时,功能性特点继续影响购买路径。在此情况下,研究人员可以利用使用移动测试配件和专业实验室收集的数据来了解对所有用户有效的功能特点,或者评估当前功能特点的直觉性如何。

潜在的应用包括:

  • 在选择特定产品时使用彩色图标和下拉菜单的区别
  • 对产品选项进行自定义时的产品预览响应性
  • 优化图像预览(例如,静态图像点击获取更多选项,移动走马灯等)
  • 用户如何利用屏幕下方的内容来评估或选择产品

用注意力数据为用户体验设计赋能

获取用户体验研究的眼动追踪洞察报告样例。

相关内容

Subscribe to our blog

Subscribe to our stories about how people are using eye tracking and attention computing.