Noticias sobre el mundo del UX, experiencia de usuario. Descubre los proyectos de los alumnos y la actualidad del sector. ¡Síguenos!

05 Junio 2015 | Publicado por Equipo Editorial de UX

M4 a fondo: escogiendo la técnica correcta

Hoy en día, con tanto énfasis en el diseño centrado en el usuario, justificar la importancia de diseñar y mejorar la experiencia del usuario parece casi innecesario. Podríamos decir simplemente: "Es importante porque tiene que ver con las necesidades de nuestros usuarios" – sin más - y todo el mundo probablemente estaría satisfecho con la respuesta.

Así pues, no hay que convencer a nadie de que la clave del éxito de cualquier negocio es conocer directamente la opinión de los consumidores. Sin embargo, esos consumidores que utilizan dichos productos o servicios no siempre tienen la habilidad de verbalizar una respuesta precisa sobre sus necesidades. De hecho, no son los usuarios quienes tienen que ofrecer soluciones concretas, somos nosotros como desarrolladores de ideas los que debemos proponer la solución. Pero lo que sí debemos tener en cuenta es que esos consumidores deben ser nuestra mayor fuente de información a la hora de plantear mejoras y tenemos la obligación de implicarlos en nuestros procesos de creación de soluciones digitales.

Entonces, ¿cómo podemos saber si hemos colocado un botón en el lugar adecuado o hemos diseñado un formulario sencillísimo si no podemos preguntarles directamente? De una única foma: Evaluando. Es decir, poniendo a prueba nuestros sistemas interactivos directamente con nuestros usuarios potenciales y observando cómo actúan cuando se enfrentan a nuestra interfaz cuidadosamente diseñada y estratégicamente pensada.

Y ¿cuál es la mejor manera de llevar a cabo dicho propósito? Saber qué evaluar y cómo, ha sido uno de los mayores retos del Módulo 4 del PUX.

Para poder escoger las técnicas más adecuadas y así poder auditar el estado actual de la web de cliente y, a posteriori, evaluar también el prototipo desarrollado en el módulo anterior con el objetivo de proponer mejoras tanto para web como para su versión móvil, los alumnos del Postgrado de Experiencia de Usuario de La Salle han tenido que conocer en profundidad las diferentes técnicas de evaluación de la UX, tales como los cuestionarios, las entrevistas contextuales, los focus groups, el diseño participativo, los recorridos cognitivos, los card sortings, los tests de tareas, las pruebas A/B, el bipolar laddering, etc.

Después de las pinceladas iniciales y sabiendo qué métodos disponen para someter sus ideas a examen, los alumnos se enfrentan al siguiente paso: realizar un plan de test que justifique la elección de la técnica y que incluya el procedimiento a seguir en base a la estrategia que mejor se adecue a las características del cliente y a las habilidades del equipo.

Una vez trazada la estrategia y escogida la técnica, ahora solo queda la parte más divertida: ejecutar el test con usuarios potenciales reales y llevar a cabo un estudio utilizando una muestra de entre 8 a 12 participantes, para poder defender ante cliente un informe de resultados que incluya las conclusiones sobre las oportunidades de mejora detectadas.

Tal y como dijo Mark Twain, autor de Las Aventuras de Tom Sawyer: "Suponer está bien, pero saber es mejor". En consecuencia, nuestro deber como investigadores UX es valorar la importancia de la observación de los posibles usuarios potenciales, ya que los datos extraídos de dicha observación proporcionan una orientación sobre la forma de mejorar nuestro servicio que, recordemos, será la clave para el éxito del negocio.

Y después del testeo viene el análisis

El día prometido llega y nos encontramos todos en el UserLab, el laboratorio de Comunicación y Experiencia de Usuario de La Salle. Elaborado ya el plan de test, cada grupo del postgrado debe realizar su propio test piloto para detectar si su plan de test ha sido planteado correctamente. Todo está listo en el laboratorio: mixer y altavoces encendidos, cámaras grabando, petacas con baterías cargadas, cortinas corridas y el Eye Tracker a punto para poder llevar a cabo todas las tareas.

Antes de empezar los tests piloto propiamente, repasamos brevemente la historia de los Eye-Trackers: para qué sirven, cómo funcionan y cómo registran todo lo que está mirando el usuario en la escena en todo momento. Los alumnos aprenden rápido: ya saben cómo calibrarlo, qué instrucciones dar a los participantes para no perder la señal de los infrarojos, cómo configurar las tareas en el Tobii Studio y todo lo relativo a la parte más técnica.

Una vez aprendido el manejo esencial, cada alumno se transforma y asume el rol de lo establecido: los moderadores facilitarán los tests en la sala doméstica, los observadores anotarán cuidadosamente los tiempos, los literales y las emociones expresadas por los participantes desde la sala de observación y los controladores técnicos manipularán las cámaras y tendrán el walkie-talkie a mano para poder dar instrucciones si es necesario. Por supuesto, no nos olvidamos de los usuarios. Un alumno de cada grupo hará de usuario participando en el test piloto de otro grupo.

UserLab - Eyetracker

Así pues, las tareas del primer test se van sucediendo una tras otra. Desde la sala de observación no perdemos detalle de las actuaciones de nuestros compañeros y vamos corrigiendo pequeños descuidos: “te has olvidado de mencionar el protocolo de Thinking Aloud”, “acomoda mejor al usuario que hemos perdido la señal del Eye Tracking”, “estáte callado, ¡no le des más pistas!”, etc. Los alumnos toman conciencia de que la labor del equipo de observación es tan importante como la del facilitador o del usuario, puesto que ellos son los encargados de registrar los datos para su posterior análisis.

El segundo test sale más fluído. El alumno-facilitador consigue crear un ambiente relajado y le recuerda al alumno-usuario que el objetivo de la prueba es evaluar la calidad de uso del producto, que nunca se evalúa al usuario. A continuación, le pasa un cuestionario pre-test y percibimos que ha logrado romper el hielo. Durante el transcurso de las tareas, el alumno-facilitador se lanza a fomentar que el alumno-usuario hable en voz alta con frases como: ¿qué opinas?, ¿qué ves ahora?, ¿qué te parece esta nueva pantalla?... Y por último, el tercer test también sale bastante rodado, pero la alumna-usuaria no consigue acabar casi ninguna tarea, así que el plan de test deberá ser retocado y mirar cómo particionar o reestructurar las tareas planteadas.

UserLab - Eyetracker

En este seminario, los alumnos asimilan que los tests de tareas realizados con Eye-Tracking ofrecen información muy valiosa como el número total de fijaciones en un área de interés o el tiempo transcurrido hasta la primera fijación en un punto concreto, pero que también ofrecen información exclusiva visual (gazeplots y heatmaps) que ayudan a comprender el comportamiento y los recorridos visuales de los usuarios cuando se enfrentan a nuestras interfaces.

En el siguiente seminario, aprenderán a qué hacer con la enorme cantidad de datos obtenidos en las pruebas de usabilidad, cómo deben interpretarse esos datos, cómo se relacionan entre sí y, por supuesto, la mejor manera de plasmarlos en un informe. No será fácil analizar los “porqués” que hay detrás de los comportamientos observados en cada test, pero la recopilación de toda la información obtenida durante la evaluación (tiempos dedicados, comentarios, ordenaciones, categorías rechazadas…) y trabajar con los criterios mesurables para definir la usabilidad (efectividad, eficiencia y satisfacción), serán la vía para conseguir una buena interpretación de los mismos que, a su vez, serán la clave para transmitir al cliente los problemas encontrados y las oportunidades de mejora.

Teresa Trepat
Profesora del Módulo 4: Técnicas de evaluación de experiencia de usuario

PUX – User Experience Postgraduate
Postgrado en usabilidad, accesibilidad y experiencia de usuario
Edición 2014-2015
La Salle Campus BCN – Universitat Ramon LLull

индексация в гугле

Share

Añadir nuevo comentario

CAPTCHA
Esta pregunta es para comprobar si usted es un visitante humano y prevenir envíos de spam automatizado.
4 + 6 =
Resuelva este simple problema matemático y escriba la solución; por ejemplo: Para 1+3, escriba 4.