Cómo la IA capta emociones
Una mirada a cómo la IA interpreta emociones humanas y cómo diseñar con ella sin perder empatía ni criterio.
La inteligencia artificial ya decide qué vemos, escuchamos y compramos, pero la gran pregunta es: ¿puede detectar señales de cómo lo estamos viviendo? En esta charla abordaremos sistemas que interpretan pistas multimodales — ritmo de voz, intereses, señales faciales, cadencia de uso y patrones de interacción— para inferir estados como frustración, confusión o carga cognitiva, y adaptar experiencias.
Veremos casos prácticos: interfaces que ajustan su tono o simplifican pasos cuando detectan fricción, asistentes que adaptan el ritmo de entrega de información según señales de saturación, espacios interactivos que modulan luz y sonido en función del nivel de energía e interacción del público, y productos que personalizan mensajes, notificaciones y microinteracciones para reducir fricción y aumentar satisfacción.
Discutiremos cómo integrar estas capacidades en el diseño de marcas, servicios y entornos físico-digitales, desde la definición de objetivos hasta el prototipado, la instrumentación y la medición de impacto.
Y también el reverso. ¿Qué ocurre cuando un algoritmo interpreta mal una señal? ¿Hasta dónde es deseable que una interfaz nos “lea” emocionalmente? Hablaremos de consentimiento, privacidad, sesgos y transparencia; de minimización de datos y opciones de control (opt-out); y de cómo diseñar con IA sin perder empatía, criterio humano ni responsabilidad. Un marco claro para innovar con cabeza y con cuidado.
Una mirada a cómo la IA interpreta emociones humanas y cómo diseñar con ella sin perder empatía ni criterio.
La inteligencia artificial ya decide qué vemos, escuchamos y compramos, pero la gran pregunta es: ¿puede detectar señales de cómo lo estamos viviendo? En esta charla abordaremos sistemas que interpretan pistas multimodales — ritmo de voz, intereses, señales faciales, cadencia de uso y patrones de interacción— para inferir estados como frustración, confusión o carga cognitiva, y adaptar experiencias.
Veremos casos prácticos: interfaces que ajustan su tono o simplifican pasos cuando detectan fricción, asistentes que adaptan el ritmo de entrega de información según señales de saturación, espacios interactivos que modulan luz y sonido en función del nivel de energía e interacción del público, y productos que personalizan mensajes, notificaciones y microinteracciones para reducir fricción y aumentar satisfacción.
Discutiremos cómo integrar estas capacidades en el diseño de marcas, servicios y entornos físico-digitales, desde la definición de objetivos hasta el prototipado, la instrumentación y la medición de impacto.
Y también el reverso. ¿Qué ocurre cuando un algoritmo interpreta mal una señal? ¿Hasta dónde es deseable que una interfaz nos “lea” emocionalmente? Hablaremos de consentimiento, privacidad, sesgos y transparencia; de minimización de datos y opciones de control (opt-out); y de cómo diseñar con IA sin perder empatía, criterio humano ni responsabilidad. Un marco claro para innovar con cabeza y con cuidado.
Elenco
Antonio Jimenez
Información útil
Puntos destacados
- 1 hora 30 minutos
- En persona
Ubicación
Doers Digital Factory
20 Calle de Cronos
28037 Madrid
¿Cómo quieres llegar?
