Retrato de Manuel Armayones, catedrático en diseño del comportamiento y profesor universitario, experto en salud digital, frente a una estantería con libros.

Entrevista a Manuel Armayones - Catedrático en Diseño del comportamiento UOC

15 Jan 2026

¿Qué es el diseño del comportamiento?


El diseño del comportamiento es básicamente un conjunto de herramientas, técnicas, modelos teóricos y una manera de pensar que nos sirve para diseñar aplicaciones, y no solo aplicaciones online, sino también intervenciones que nos ayuden a entender por qué la gente hace lo que hace (hoy sabemos que en el ámbito de la salud las personas no hacen lo que deberían hacer) o por qué no lo hace.

Si los usuarios no realizan las acciones que esperamos que hagan, necesitamos comprender cuáles son las barreras, los mecanismos y los facilitadores que se producen para que no alcancen el objetivo que les hemos marcado.


Una vez comprendemos todas las razones, diseñaremos técnicas, como son las de cambio de comportamiento y estrategias de cambio de contexto, para lograr que las personas realicen aquellos comportamientos que:

  1. sean los que quieran hacer y se comprometan con su propia adherencia.

  2. y que se sientan bien haciéndolos.


El segundo punto (sentirse bien haciendo lo que hacen) es importante porque existe otra parte dentro del diseño del comportamiento, situado en el ámbito de la tecnología pura y dura, que sería la persuasión tecnológica.

La persuasión tecnológica no intenta que la gente se adhiera a una estrategia, por ejemplo, para dejar de fumar o controlar su diabetes, sino que intentan todo lo contrario, que te enganches a algo.

En ambos casos existe diseño de comportamiento, pero hay que distinguir muy bien lo que llamaríamos white hat de lo que sería black hat.

Una aproximación white hat sería conseguir que la gente tenga una mejor adherencia al ejercicio, o que sea más solidaria en una causa concreta, y otra cosa, black hat, que sería enganchar a las personas.


En el primer caso intentamos que la gente haga lo que quiere hacer y se sienta bien, y en el segundo caso lo que intentas es que la gente haga lo que tú quieras y ganes tú como empresa.

Por esta razón a nosotros, como grupo de investigación, nos interesa mucho aprender cuáles son esas técnicas, eso que llamaríamos patrones oscuros, para después transformarlos y utilizarlos en aplicaciones con una base ética.


Nosotros trabajamos siempre sometidos a un código deontológico y a comisiones de ética que nos tienen que aprobar los estudios, mientras que otras organizaciones, como grandes multinacionales del sector tecnológico hacen lo que les da la gana y no dan cuentas a nadie.


En resumen, el diseño del comportamiento pretende establecer diferentes técnicas de cambio, como pueden ser ofrecer refuerzos, establecer recordatorios (reminders), explicarles qué efecto tiene lo que hacen, para que de alguna manera alguien concluya que tiene sentido seguir utilizando esa aplicación.



Para los que no somos entendidos en la materia, ¿podrías poner un ejemplo de white hat y otro de black hat?


Sí, por supuesto. Un ejemplo de white hat sería conseguir que las personas caminen cada día según lo que les ha dicho su médico. Para lograrlo, yo utilizo un sistema de recordatorios, señales, notificaciones para explicarles los efectos de que caminen y de que no caminen.


También puedo inculcarles una cierta presión social, diciéndoles, por ejemplo, que “el 70% del grupo ya ha conseguido hoy sus objetivos. Solo quedas tú para lograrlo. Ayúdanos a que el 100% del grupo suba de nivel”. Estas son pequeñas estrategias que utilizamos los diseñadores del comportamiento para facilitar que las personas realicen acciones que son buenas para ellos.


Después, las técnicas de black hat son lo que hacen por ejemplo empresas del sector turismo cuando te dicen que “solamente quedan dos plazas en este hotel y mientras hay 25 personas mirando la misma oferta”. Son maneras de presionar al usuario, utilizando el principio de la escasez y el de sentirte culpable si no aprovechas la oferta aquí y ahora.


En definitiva, las prácticas black hat son aquellas que facilitan que los adolescentes se enganchen a realizar scroll infinito en sus redes sociales durante diez horas al día sin un objetivo claro.



¿Cómo afecta la comunicación al diseño del comportamiento?


El diseño del comportamiento y la persuasión tecnológica tienen un componente de comunicación muy importante. Nosotros podemos saber qué tipo de palancas hay que tocar, pero los que trabajáis en comunicación sabéis qué mensaje dar, o cómo transmitirlo.


Hoy sabemos que la relación entre la comunicación y el diseño del comportamiento es imprescindible. Yo siempre recomiendo ver el video de Robert West, catedrático y profesor de Psicología de la Salud en el University College of London (UCL), que en 2024 realizó una conferencia en Lisboa sobre diseño del comportamiento y la importancia de saber transmitir y comunicar bien.


Una de las principales premisas del diseño del comportamiento es que la información por sí sola no provoca cambio de comportamiento. Es más, si buscas en internet la Guía del Secretario General de las Ciencias del Comportamiento de las Naciones Unidas, verás que existe un consenso común: sin diseño del comportamiento no habrá Objetivos de Desarrollo Sostenible (ODS) que valgan.


¿Por qué? Pues porque en los ODS de lo que se trata es de que las personas realicen acciones, como por ejemplo: poner más contenedores, bajar el precio de los alimentos frescos, etc. Todas ellas son comportamiento, y desde nuestra especialidad hemos aprendido a tocar las palancas adecuadas para que se produzcan acciones de white hat.


En España existe la Unidad de Comportamientos en Salud, un grupo de especialistas en Diseño del Comportamiento que está intentando también impulsar políticas de salud públicas.



¿Qué avances crees que habrá en el futuro relacionados con el diseño del comportamiento?


Yo creo que los principales avances relacionados con el Diseño del Comportamiento están muy ligados a otro ámbito que también trabajo, que es la parte más conceptual, no tecnológica, de la inteligencia artificial (IA).


Con la IA vamos a poder realizar persuasión de precisión: es decir, ahora los mensajes que lanzamos desde las administraciones públicas diferentes agentes democráticos no son tan potentes como los de aquellas corporaciones que impulsan fake news y teorías conspiranoicas.

De hecho, algunas organizaciones tienen la capacidad de tocar palancas psicológicas muy precisas que mueven a las personas, en función de los datos que tienen (el color de un jersey, el fondo que se ve en una videoconferencia, el tono de tus mensajes, etc).


Con la información disponible, estas empresas o entidades son capaces de decidir qué mensajes te van a transmitir para que te toquen la fibra sensible, porque primero te han realizado un perfilado de tu personalidad. Esto es lo que llamamos persuasión de precisión.


Para mi el diseño del comportamiento va a llevar asociado que se puedan hacer las campañas mucho más dirigidas y teniendo mucha más información de las personas.

Sin embargo, el gran gap o vacío que tenemos aquí es que las Big Tech pueden hacer cosas que los investigadores de a pie no podemos.


Yo para preguntarte por la edad, orientación sexual o religión, tengo que pedir varios permisos, un consentimiento informado y pasar un comité de ética. Me parece lógico, justo y razonable, pero las grandes corporaciones no lo hacen.

Ellas, en función de cómo me comporto yo en una red social ya infieren, y lo infieren bastante bien, toda esta información que te comentaba antes.


Así, los que trabajamos en el ámbito de salud desde proyectos locales o pequeñas empresas estamos más limitados que el uso que puedan hacer del diseño del comportamiento o de la persuasión tecnológica esas grandes corporaciones, que solo se deben a un grupo de accionistas porque están cotizando en Bolsa.


Digamos que “yo no te odio, pero necesito toda la información que te pueda sacar para venderte cosas y que estés enganchado a lo mío”.



Siempre estáis en desventaja.


Siempre. Vamos lastrados justamente porque trabajamos con ética, consentimiento informado y con un montón de requisitos que las grandes empresas no tienen.


Obviamente no se trata de quitarnos el lastre a nosotros, sino de ponérselo a ellos, para jugar todos en igualdad de condiciones.


¿Te imaginas qué pasaría si las grandes tecnológicas como Meta o Google pusieran los datos de forma anónima al servicio de la salud pública y de la sociedad?

Esa información podría ayudarnos a comprender mejor cómo es la salud de la población, qué recursos sanitarios hacen falta, donde, etc. Esta es la gran asignatura pendiente: no hay manera de acceder a todos los datos de forma anónima.


¿Qué ha pasado? Antes los investigadores se descargaban los tweets y tenían acceso a toda la información. Podías realizar estudios y análisis de forma libre, porque los datos se consideraban un bien común. Ahora la cosa ha cambiado. Todo está capado y por lo tanto es más difícil publicar artículos científicos, porque nuestra herramienta de trabajo, los datos, no son públicos.



¿Qué proyectos estáis llevando a cabo en vuestra unidad?

Algunos de los proyectos que estamos llevando a cabo son, por ejemplo, contribuir con el diseño del comportamiento a la reducción de la prescripción de benzodiacepinas en asistencia primaria. Cabe recordar que el consumo de ansiolíticos y antidepresivos en Catalunya es de los más elevados de Europa.


Buscamos propuestas que sean fáciles de llevar a cabo y que los médicos puedan adoptar sin dificultad en su día a día. Hablamos de profesionales sanitarios que gestionan hasta 60 visitas al día, un hecho estresante y agotador. Debemos ser capaces de adaptarnos a esta realidad y ofrecer a los médicos técnicas intuitivas que no les generen más trabajo. Este proyecto, por ejemplo, lo estamos realizando con la Agència de Qualitat i Avaluació Sanitàries (AQuAS), y está financiado por el Ministerio de Ciencia, Innovación y Universidades.



Hace unas semanas, en el programa Col·lapse, de 3Cat, realizaron un debate precisamente sobre el inmenso consumo de estos medicamentos, hasta el punto de convertirse en un problema de salud pública.


Yo te diría que, aunque somos sanitarios, no es un problema estrictamente sanitario. Es un problema con determinantes sociales.

Es decir: ¿qué pasaría si los jóvenes tuvieran piso?, ¿si las condiciones de trabajo fueran mejores?, ¿hubiera menos estrés o mejor conciliación? Todas estas cuestiones inciden directamente en la salud de las personas.


Los profesionales sanitarios siempre decimos que mata más el código postal que el código genético. Es un problema social que cada vez haya más personas pidiendo, casi exigiendo, más benzodiacepinas a los médicos.



Explícame otro proyecto en el que estéis trabajando.


Actualmente estamos trabajando en un proyecto para ayudar a las organizaciones a identificar y ofrecer una intervención específica en función del perfil de los trabajadores de las empresas, para que no caigan o caigan menos en temas de ciberseguridad. Para que caigan menos en phishing y en otras trampas.


Aquí la información por sí sola no basta. Dar una charla no basta. Estamos estableciendo una serie de arquetipos de personas frente a los intentos de ciberataque en las organizaciones.


Un investigador pre-doctoral de nuestro grupo está trabajando en este tema, con la idea casi de ofrecer vacunas cognitivas a medida en las organizaciones. La idea es trabajar directamente con los empleados de las empresas para aumentar su resiliencia frente a los ataques.


Otro proyecto en el que estamos trabajando es uno centrado en la alfabetización para la salud mental de los adolescentes a través de las redes sociales, también financiado por el Ministerio de Ciencia, Innovación y Universidades. Por ejemplo, ¿cómo buscan los jóvenes en las redes información sobre salud mental cuando tienen un problema?


Muchas veces las campañas que realizan las administraciones no coinciden con lo que buscan los jóvenes y acaban encontrando un influencer sin formación sanitaria de ningún tipo, que les dice cualquier barbaridad



¿Existe alguno más que quieras destacar?


Otro proyecto muy bonito es el de incorporar técnicas de diseño persuasivo a aplicaciones para mejorar la adherencia de mujeres con cáncer de mama al tratamiento que realizamos con la Fundación iSYS en colaboración con el Hospital Clínic de Barcelona.


La filosofía sería la de intentar convertir algunas de las estrategias de enganche black hat en white hat, por ejemplo, personalizando y gamificando la intervención, ver qué tipo de estrategia hay que utilizar con cada mujer.


Te explico un ejemplo muy sencillo. No es lo mismo una señora recién diagnosticada, que buscará un tipo de información muy concreta, que una superviviente o una mujer que se encuentra en plena metástasis. No buscan ni la misma información ni tienen el mismo enfoque de la enfermedad.

Las supervivientes, por ejemplo, dejan de utilizar la aplicación porque no quieren que les recuerden constantemente que han tenido cáncer. Somos algo más que un cáncer de mama. Somos personas que tienen cáncer de mama.


Un aspecto muy interesante de este proyecto es que trabajamos con las propias mujeres que tienen cáncer de mama. La mejor manera de satisfacer las necesidades de las personas en cualquier tipo de desarrollo es preguntarles qué necesitan. Cada vez tenemos más en cuenta la participación de los pacientes, porque sin ellos las aplicaciones no tienen sentido: desarrollamos para ellos, no para nosotros.


El lema “Nada sobre nosotros sin nosotros” nació con el movimiento a favor de la vida independiente de las personas con discapacidad, y hoy lo aplicamos al diseño del comportamiento para poner de relieve que las aplicaciones necesitan contar con la opinión de los pacientes para ser realmente útiles.



¿Por qué fallan tantos proyectos digitales en la adherencia del usuario?


Porque no han tenido en cuenta las necesidades reales del usuario, que la información por sí misma no es suficiente. Porque a lo mejor sí que han analizado la usabilidad de la aplicación, pero desde el punto de vista del diseño del comportamiento la usabilidad de una aplicación es condición necesaria pero no suficiente para que las personas la sigan utilizando.

Si las personas no encuentran el valor de satisfacer una necesidad que tienen, no la van a utilizar. Por ejemplo, usamos WhatsApp porque nos aporta valor instantáneo, pero muchas aplicaciones no prosperan porque no aportan valor real.


Todas las aplicaciones tienen una parte que es excipiente y otra parte que es principio activo. El principio activo de las apps de móvil deberían ser siempre las técnicas de diseño del comportamiento, las conocidas como BCT (Behavioral change techniques) de sus siglas en inglés, que deberían estar incorporadas para enganchar a la gente.


Un gran ejemplo al respecto es Duolingo, que está 100% diseñada para enganchar a la gente. Si la aplicación te engancha, es que está bien diseñada.



¿Crees que en los proyectos actuales de experiencia de usuario el modelo actual de co creación está funcionando?


Yo creo que está funcionando en muchos proyectos, pero creo que es bastante mejorable. En la mayoría de ideas se permite participar al usuario cuando ya está decidido qué hay que hacer.


Deberíamos incorporar a los pacientes o a los usuarios en cualquier aplicación, incluso cuando estamos pensando en qué hacer, antes de que exista el formato, y no cuando ya hemos decidido que será una aplicación. A lo mejor lo que necesitamos es una buena web o a lo mejor lo que necesitamos es un buen podcast.

Si les presentas a los usuarios el desarrollo ya hecho, seguramente te darán una opinión, pero no te será útil, porque no se adapta a su necesidad real. Hay que pensar en el momento que estás conceptualizando.


Esta aproximación hacia co creación real es mucho más limitada. Además, piensa que a menudo las personas no saben lo que quieren. Ofrecerles varias opciones, pero realmente darles la posibilidad a que te digan que “no, ninguna de las opciones que me presentas me sirve, quiero esta otra”.


Esta sería una co creación más cara, más pesada, pero en definitiva sería la que realmente interesaría más a los usuarios. Esta propuesta choca a veces directamente con el ego de las personas que investigan, porque creen que lo hacen bien desde el primer momento, pero si investigas con usuarios reales tienes que aceptar que tal vez puedas estar equivocado en enfoque o forma.


Mira, en el proyecto de las benzodiacepinas intentamos bajar de la máxima evidencia científica que requiere un estudio de estas características para intentar ofrecer a cada centro de salud una solución muy personalizada.

No es lo mismo un centro de salud en Pedralbes, que en un centro de la salud en La Mina. Las necesidades de unos y de otros son distintas y las causas por las que toman benzodiacepinas en un sitio u otro también. Entonces, ¿por qué les damos a todos la misma receta?


Con las aplicaciones ocurre lo mismo, deberían tener en cuenta esta diversidad. Si en cuanto a usabilidad las apps no están preparadas para que las use un chaval de 15 años que, por ejemplo espera ver una propuesta más parecida a TikTok, o un señor de 65, que espera ver otra cosa, mal vamos.



¿Qué estamos haciendo mal desde el diseño?


Primero, dar por hecho que funciona todo lo que creemos que funciona sin testearlo. Creo que hay que realizar más experimentos. No dar las cosas por hechas porque se han hecho de una determinada manera.


Las grandes plataformas, que a mi me gusta llamar Dark Tech, hacen muchos experimentos. Tenemos que ser más valientes a la hora de hacer experimentos antes de tomar decisiones.


Nos falta realizar una mayor reflexión. Pararnos, mirar, pensar e investigar. Existe una distancia muy grande entre la investigación científica y lo que se hace en las empresas.


Las universidades deberíamos mirar más a lo que está funcionando en las empresas, y las empresas deberían mirar más a lo que se está generando en las universidades.



¿Cuál ha sido la mayor sorpresa o un resultado inesperado en estudios de diseño del comportamiento?


En general, y no me refiero solamente a mis proyectos, uno de los resultados más inesperados es que la gente hace lo que le da la gana. Nosotros somos los que tenemos que seguir y prestar atención a cómo los usuarios utilizan las apps. Tú puedes desarrollar una gran aplicación, pero después resulta que las personas la utilizan para un fin completamente distinto al que tú te habías imaginado.


Una persona puede usar la aplicación, pero después no realiza el comportamiento que tú querías. En estos casos no se produce una traducción entre la utilización de la aplicación y el cambio de comportamiento. Esto provoca que en ocasiones las métricas que se utilizan para medir el uso o el éxito de una aplicación son erróneas. Las métricas no suelen medir la conversión del comportamiento, y esa es una de las grandes sorpresas que te puedes encontrar.



¿Qué tendencias crees que dominarán la salud digital en los próximos años?


Básicamente, la integración con la inteligencia artificial. Deberemos superar temas éticos, sobre usos y protección de datos. La IA ha llegado para quedarse y podremos personalizar las apps a un nivel hasta ahora desconocido.


¿Sabes estos bots de réplica que te hablan y te hacen de psicólogo? Hoy se realiza un mal uso, pero si se utilizan correctamente y son gestionados y controlados por los profesionales sanitarios, podrían ser muy útiles como coterapeutas.



¿Crees que la IA se puede convertir en un diario de emociones?


Sí, totalmente. La IA ya es un diario de emociones para mucha gente. Tengo la sensación de que vamos a ir a verticales: es decir, vamos a necesitar una serie de herramientas solamente disponibles en el trabajo cotidiano de profesionales especializados que necesitará una traducción con una IA a medida.


Los abogados tendrán su propia IA para trabajar, los psicólogos también tendrán sus asistentes de IA súper especializados y así con muchas profesiones.


El gran reto aquí es conseguir que toda esa información sea imposible de hackear y que los entornos del trabajo diario elaborados y gestionados por cada IA sean 100% seguros para todos los profesionales, pacientes, usuarios, etc.


¿Te imaginas las consecuencias que tendría que un hacker pudiera acceder a las conversaciones de los famosos con su psicólogo?




Si tienes una idea y quieres convertirla en realidad, contacta con nosotros sin compromiso. Y si deseas seguir conociendo Qualud, te invitamos a navegar por nuestro blog o seguirnos en nuestras redes sociales en LinkedIn y Twitter.

Together,
we are innovation

Contact

Rambla del Celler 133, 1st
Sant Cugat del Vallès, 08172

Barcelona

©

2026

Qualud. All rights reserved.

Together,
we are innovation

Contact

Rambla del Celler 133, 1st
Sant Cugat del Vallès, 08172

Barcelona

©

2026

Qualud. All rights reserved.

Together,
we are innovation

Contact

Rambla del Celler 133, 1st
Sant Cugat del Vallès, 08172

Barcelona

©

2026

Qualud. All rights reserved.

Together,
we are innovation

Contact

Rambla del Celler 133, 1st
Sant Cugat del Vallès, 08172

Barcelona

©

2026

Qualud. All rights reserved.