En los últimos meses, la palabra “agente” ha salido del círculo de especialistas y se ha instalado en el vocabulario cotidiano. Ya no hablamos solo de chatbots que contestan. Hablamos de sistemas que hacen cosas por ti: rellenan formularios, comparan productos, reservan, hacen clic, se equivocan, retroceden y lo intentan de nuevo. Apple, con un equipo de investigadores, quiso ordenar una pregunta que en realidad es muy práctica: ¿cómo espera la gente interactuar con un agente de IA que usa un ordenador?
Lo interesante es que no se quedaron en la teoría ni en demos llamativas. Miraron interfaces reales que ya existen (desde herramientas de investigación hasta prototipos de grandes laboratorios) y luego hicieron pruebas con usuarios usando un método que a mí me gusta porque baja el hype a tierra rápido: el Wizard of Oz.
Primera parte: un mapa de las interfaces que ya existen
En la primera fase, los investigadores examinaron distintos agentes “computer-using” en escritorio, móvil y web, y construyeron una taxonomía: una forma de clasificar las decisiones de diseño que se repiten cuando una IA tiene que operar dentro de una interfaz gráfica, igual que lo harías tú con ratón y teclado.
Esa taxonomía gira alrededor de cuatro ideas clave (y ya se nota hacia dónde apunta Apple):
- Cómo formulas la petición: ¿texto libre? ¿comandos más estructurados? ¿prompts cortos o largos?
- Cuánto se explica el agente: ¿te muestra lo que está haciendo? ¿te dice por qué lo hace?
- Cuánto control te deja: ¿puedes interrumpir, corregir, ajustar un paso?
- Qué “modelo mental” te construyes: ¿entiendes lo que puede y no puede hacer, o lo imaginas todopoderoso hasta que se estrella?
Dicho sin jerga: un agente de IA no es solo “bueno” o “malo”. Es, sobre todo, comprensible u opaco. Y esa diferencia decide si confías o si lo abandonas después de dos errores.
Segunda parte: la prueba más honesta posible (Wizard of Oz)
Aquí viene lo mejor. Apple reclutó usuarios con cierta familiaridad con agentes y los puso delante de una interfaz de chat y una interfaz de ejecución para completar tareas como compras online o buscar alojamiento. Pero el “agente” no era realmente una IA: era un investigador que, “entre bambalinas”, ejecutaba las acciones en pantalla simulando la autonomía del sistema.
Esta técnica sirve para una cosa muy concreta: separar “qué tan potente es el modelo” de “cómo debería sentirse la experiencia”. Es un clásico de investigación UX, y funciona porque enseña la verdad sin maquillaje: qué hace una persona cuando cree que está delegando en un agente.
Durante las tareas, el “agente” cometía errores a propósito de vez en cuando: se quedaba en bucles, elegía una opción distinta a la pedida, interpretaba mal un detalle. Los usuarios podían interrumpir en cualquier momento.
Lo que de verdad queremos de los agentes de IA
La idea central es casi poética por lo simple: la gente quiere visibilidad, pero no quiere microgestión. Si tengo que vigilarte paso a paso, lo hago yo y ya está.
Ahora bien, visibilidad no significa un registro infinito o explicaciones técnicas. Significa cosas prácticas:
- Que entienda qué plan estás siguiendo (aunque sea en dos líneas).
- Que me avises cuando vas a hacer algo con consecuencias reales (compras, cambios en cuentas, contactar a terceros).
- Que si hay un punto ambiguo, pares y preguntes en vez de adivinar.
- Que no hagas suposiciones silenciosas: es la forma más rápida de perder confianza.
Otro punto muy realista: las expectativas cambian según el contexto. Si estoy “explorando” (enséñame opciones de hoteles), tolero más flexibilidad e incluso propuestas. Si estoy “ejecutando” (compra este modelo exacto, a este precio, con este envío), quiero precisión, confirmaciones y frenos de seguridad.
Y hay una dinámica que cualquiera que haya probado agentes tipo navegador reconoce: la confianza se rompe rápido cuando el agente se desvía sin avisar. Una IA que usa interfaces gráficas “como un humano” hereda los fallos humanos: clics mal hechos, lecturas equivocadas de la página y errores “tontos” que pueden salir caros.
Por qué esta investigación importa (aunque hoy no uses un agente)
Para mí, este estudio es una señal: la batalla no será solo por quién tiene el agente más inteligente, sino por quién construye la experiencia más clara, controlable y tranquila. Y sí, Apple juega fuerte aquí. Históricamente, Apple se obsesiona con la sensación de control, el feedback y los guardarraíles.
Si mañana los agentes se popularizan en iPhone, iPad y Mac, esto no se quedará en un paper. Acabará convertido en reglas de interfaz, comportamientos por defecto y guías de diseño.
Preguntas frecuentes
¿Un “agente de IA” es solo un chatbot más potente?
No exactamente. Un agente no solo responde: realiza acciones en un entorno (navegador, apps, escritorio) para lograr un objetivo.
¿Qué es el método Wizard of Oz?
Es una prueba donde el usuario cree que interactúa con un sistema autónomo, pero en realidad una persona simula la IA detrás de escena. Sirve para evaluar la experiencia antes (o independientemente) de la tecnología final.
¿Qué quieren realmente los usuarios, según Apple?
Transparencia sobre lo que está pasando, capacidad de intervenir y pausas/confirmaciones cuando hay consecuencias reales (dinero, cuentas, comunicaciones).
¿Por qué es tan importante la transparencia?
Porque los errores no son solo errores: son rompedores de confianza. Cuando un agente decide de forma opaca, la gente deja de delegar.
¿Esto tiene que ver con Siri?
El estudio habla de agentes que “usan el ordenador” en general, pero es difícil no ver el subtexto: si Siri (o cualquier asistente) se vuelve realmente “agentico”, tendrá que encajar con estas expectativas.
Consideraciones finales
Mi lectura es esta: la era de los agentes no va a fracasar por falta de inteligencia, sino por falta de buenos modales. Los agentes que “lo hacen todo” sin decir qué están haciendo convierten la automatización en ansiedad. Apple, al centrarse en control, claridad y expectativas humanas, lanza un mensaje casi a contracorriente del hype: el futuro no es un agente invisible que hace magia, es un agente que trabaja bien y se deja entender. Y, sinceramente, es la única versión que veo escalando más allá de los primeros entusiastas.



