IA, metodologías y emoción: Lo que está en juego en la investigación de mercados

Una pregunta que nos interpela
¿Es la aplicación de la inteligencia artificial lo que más puede modificar las metodologías de investigación en estos momentos? Y si es así, ¿hacia dónde nos lleva esta transformación que estamos viviendo de manera tan acelerada?
Esta pregunta trasciende lo meramente técnico. Nos sitúa frente a un dilema metodológico, pero también ético y epistemológico: ¿queremos conocer personas o simplemente procesar datos? ¿Estamos, como investigadores, preparados para sostener esa diferencia cuando los límites se desdibujan de manera tan sutil que a veces resulta imperceptible?
La respuesta no es sencilla, porque nos obliga a cuestionar no solo nuestras herramientas, sino también nuestros propósitos. Nos interpela sobre qué tipo de conocimiento queremos producir y con qué fines, especialmente cuando la promesa de la automatización parece ofrecer respuestas inmediatas a preguntas que históricamente han requerido tiempo, reflexión y profundidad interpretativa.

La promesa de la IA en lo cuantitativo: velocidad, escala y sombras
No hay duda de que en el terreno cuantitativo, la inteligencia artificial ha traído enormes ventajas. La automatización de encuestas, el procesamiento en tiempo real de grandes volúmenes de datos y el análisis estadístico automatizado han reducido costes y acelerado procesos de forma inédita. En este sentido, la eficiencia operativa ha ganado un protagonismo inusitado, permitiendo ejecutar estudios que antes habrían sido impensables por razones logísticas o presupuestarias.
Sin embargo, estas virtudes técnicas conviven con riesgos que no pueden ignorarse. Uno de los más preocupantes es la proliferación de bots en paneles online, capaces de contestar cuestionarios de manera engañosa, generando datos espurios que erosionan la validez muestral. Como advierte ThinkNow (2023), los bots pueden representar varias amenazas para la integridad y confiabilidad de los paneles de investigación de mercado, llegando a responder encuestas rápidamente con respuestas que no representan las opiniones de la población objetivo.
Este fenómeno plantea interrogantes metodológicos y éticos fundamentales: ¿cómo asegurar que los datos provienen de humanos reales y no de réplicas automatizadas? Muchas marcas ya están respondiendo con controles más estrictos, pero el problema subraya un punto clave: no todo lo que se automatiza, se comprende. La velocidad y la escala pueden ser seductoras, pero sin criterios de validación humana, corremos el riesgo de construir conocimiento sobre fundamentos frágiles.

Cualificar lo cuantitativo: ¿profundidad o confusión metodológica?
Una tendencia creciente es intentar dotar de "profundidad emocional" a las encuestas cuantitativas, incorporando preguntas abiertas o utilizando IA para analizar sentimientos. Esto podría parecer un avance, especialmente desde una lógica narrativa que busca humanizar los datos. Pero esta hibridación metodológica plantea una serie de interrogantes fundamentales que no podemos obviar:
¿Es natural introducir preguntas cualitativas en un formato diseñado para estandarizar respuestas? ¿No se desdibuja la esencia de la encuesta, que es justamente preguntar lo mismo a todos en condiciones equivalentes? ¿Cómo se valora la calidad de estas respuestas sin una interpretación humana experta que pueda contextualizar el tono, la ironía o el estado anímico real del encuestado?
La inteligencia artificial puede identificar estados de ánimo, pero carece de la capacidad para entender el contexto simbólico de una reacción emocional. Como señala Barrett (2019), los sistemas de "emotional AI" no detectan emociones como tales, sino señales físicas asociadas a ellas: una sonrisa puede indicar alegría genuina, nerviosismo o simplemente cortesía, dependiendo del contexto cultural y personal. Sin una mirada interpretativa experta, ese gesto carece de sentido profundo.
Esta limitación se vuelve particularmente evidente en contextos publicitarios. Imagínemos un pretest donde se muestra un anuncio y la IA detecta una expresión de alegría en el rostro del participante. El algoritmo puede clasificar esa reacción como "positiva", pero ¿sabemos si esa alegría está evocada por un recuerdo personal, por una asociación cultural específica o por una simple reacción fisiológica? La causa y el significado de esa emoción quedan fuera del alcance de la máquina, precisamente donde radica el valor estratégico de la información.

El peligro de confundir información con insights
A menudo se escucha que el objetivo de las investigaciones es "encontrar insights". Pero esta expresión puede resultar equívoca si se trivializa su significado. Un insight no se encuentra por azar ni por algoritmo; se construye a partir de una interpretación informada, contextual y crítica del discurso y la conducta. Y esto requiere una combinación de metodología, teoría y experiencia humana que trasciende la capacidad de procesamiento automatizado.
Cuando se agrega una repregunta automática o una respuesta abierta a una encuesta, no se está haciendo investigación cualitativa. Se está, en el mejor de los casos, adornando el dato cuantitativo, pero sin garantizar profundidad ni comprensión auténtica. Un insight no es una frase bonita ni una anécdota emocional capturada por un algoritmo: es una comprensión estructural de lo que mueve a las personas, de sus motivaciones profundas y de los significados simbólicos que construyen en torno a las marcas y productos.
Esta distinción es crucial porque si las marcas no construyen sus propios insights, ajustados a su esencia y contexto específico, todas las marcas terminarían siendo iguales o muy parecidas. Los insights genuinos emergen de la capacidad de interpretar lo particular dentro de lo universal,de encontrar esa chispa única que conecta con las emociones y necesidades específicas de cada audiencia.
Lo espontáneo no es automático: el mito de la naturalidad cuantitativa
Otro concepto que suele usarse de forma cuestionable en estos contextos es el de "espontaneidad". Se afirma que ciertos diseños cuantitativos permiten captar respuestas espontáneas, pero cabe preguntarse: ¿puede hablarse realmente de espontaneidad en un entorno de laboratorio con preguntas predefinidas y condiciones estandarizadas?
La espontaneidad, como bien sabemos desde la investigación cualitativa, no surge por casualidad: se construye mediante un clima de confianza, una guía flexible y una escucha activa. El investigador cualitativo interviene constantemente en la creación de ese entorno propicio. Sabe cuándo hacer silencio, cuándo repreguntar, cuándo permitir que un discurso se despliegue aunque no siga la lógica lineal esperada.
En cambio, un entorno estructurado, por más sofisticado que sea tecnológicamente, limita esa apertura natural. Por tanto, hablar de espontaneidad cuantitativa sin matices es, como mínimo, impreciso. La verdadera espontaneidad requiere de esa alquimia relacional que solo se logra cuando un ser humano entrenado crea las condiciones para que otro ser humano se exprese con libertad.

IA, emoción y psicología: la vieja pregunta sigue vigente
William James ya se preguntaba en 1884: "¿Huimos porque tenemos miedo o tenemos miedo porque huimos?" Esta duda fundacional de la psicología de la emoción sigue resonando hoy cuando analizamos reacciones a anuncios o productos con herramientas de inteligencia artificial.
Detectar una expresión de alegría no nos dice si está evocando un recuerdo feliz, una asociación cultural específica o una simple reacción fisiológica. La causa y el significado siguen estando fuera del alcance de la máquina. Esto es especialmente relevante en contextos publicitarios o experienciales, donde el estímulo puede activar múltiples capas emocionales simultáneamente.
La emoción, en este sentido profundo, no es un dato observable que puede clasificarse automáticamente, sino una construcción simbólica compleja que requiere interpretación contextual. Un algoritmo puede reconocer que la voz de un encuestado tiembla —señal tradicionalmente asociada al miedo—, pero no puede determinar si tiembla de miedo, de frío, de emoción contenida o de nerviosismo por estar siendo observado.
Como advierten los estudios recientes, los algoritmos de emoción suelen captar solo lo evidente o mayoritario, perdiendo matices importantes que pueden ser cruciales para la toma de decisiones estratégicas. Un enfoque híbrido, donde la IA sirve como primera herramienta combinada con interpretación humana experta, se presenta como la alternativa más sensata para lograr mayor precisión y profundidad.

No es la tecnología, es el uso que hacemos de ella
El problema no radica en la tecnología en sí, sino en el modo en que el ser humano se relaciona con ella. En lugar de integrar la IA con criterio y formación adecuada, muchos se dejan llevar por su aparente omnipotencia. Y en ese camino, se están generando herramientas que prometen más de lo que pueden ofrecer sin una guía experta que las contextualice y las limite.
Esta reflexión no surge de una mera especulación teórica, sino de años de experiencia trabajando con IA desde sus primeras versiones. Mi trabajo con herramientas de generación de imágenes como Midjourney me ha enseñado una lección valiosa: la IA puede crear resultados técnicamente impecables, pero no necesariamente lo que realmente necesitas. Desde un prompt sencillo, estas herramientas pueden generar imágenes bellísimas, pero rara vez coinciden exactamente con la visión que tenías en mente. Cuando desarrollé el artículo "Inside the Qualitative Jungle: 10 Roles You'll Meet", tenía clara la esencia del contenido gracias a años de experiencia formando investigadores junior, pero crear las imágenes que acompañaran el texto requirió horas de trabajo iterativo hasta lograr resultados que realmente transmitieran lo que buscaba.
Esta misma lógica se aplica a la IA conversacional en el análisis de datos. Una respuesta puede ser perfecta en términos de redacción y gramática, pero si trabajamos con información compleja y queremos generar análisis profundo, el trabajo sigue siendo arduo y requiere criterio experto. La IA no elimina la necesidad de especialización; la hace más evidente.
La interpretación cualitativa sigue siendo una tarea artesanal. Exige sensibilidad cultural, conocimiento del contexto sociocultural, capacidad de lectura entre líneas. Requiere reconocer los silencios significativos, captar contradicciones reveladoras, entender la lógica del deseo que se esconde detrás de las palabras explícitas.
Y eso, al menos por ahora, sigue siendo patrimonio de lo humano. La IA puede ayudar a ordenar, clasificar, sugerir patrones iniciales, pero no puede sustituir la mirada experta que hace sentido de lo complejo, que conecta lo aparentemente inconexo, que encuentra significado en lo que parece casual.
Existe además un riesgo de sesgo cultural en los algoritmos emocionales. Como advierte Harvard Business Review, la IA emocional es especialmente propensa al sesgo debido a la naturaleza subjetiva de las emociones, llegando a asignar emociones más negativas a personas de ciertas etnias que a otras. Los algoritmos actuales no son lo suficientemente sofisticados para entender diferencias culturales en cómo se expresan las emociones: una sonrisa puede significar una cosa en Alemania y otra completamente distinta en Japón.
Hacia un equilibrio reflexivo: tecnología con criterio humano
La pregunta que nos interpela como profesionales de la investigación no es si debemos usar o rechazar la inteligencia artificial, sino cómo integrarla inteligentemente en nuestras metodologías sin perder la esencia humana del conocimiento que producimos.
La evidencia sugiere que los enfoques híbridos son los más prometedores: aprovechar la eficiencia de la IA para tareas mecánicas —transcripción, organización inicial de datos, detección de patrones preliminares— mientras mantenemos la interpretación final en manos de profesionales formados en ciencias humanas.
Esto implica aceptar que la caja de herramientas para analizar la emoción humana no es un dashboard sofisticado, sino una disciplina. Requiere formación en teorías psicológicas, dominio metodológico riguroso y, sobre todo, experiencia en la lectura empática del comportamiento humano.

La disciplina como brújula en tiempos de cambio
Nos encontramos en un momento fascinante y desafiante para nuestra profesión. La inteligencia artificial nos ofrece posibilidades técnicas extraordinarias, pero también nos enfrenta a la responsabilidad de usarlas con criterio, rigor metodológico y sensibilidad humana.
El verdadero valor de nuestra disciplina no radica en procesar datos más rápido, sino en comprender personas con mayor profundidad. La IA puede ser una aliada poderosa en esta tarea, pero solo si mantenemos claro que las emociones humanas, en toda su complejidad simbólica y cultural, requieren de una mirada experta que sepa leer más allá de lo evidente.
En el fondo, lo que está en juego no es solo la eficiencia de nuestros métodos, sino la calidad y la profundidad del conocimiento que generamos. Y esa calidad seguirá dependiendo, al menos en el futuro previsible, de nuestra capacidad para mantener la mirada humana experta como eje central de cualquier investigación que pretenda comprender comportamientos y emociones.
Para escribir este artículo, utilicé la inteligencia artificial como una aliada reflexiva, no como una solución automática. Partí de mis propias hipótesis y observaciones del campo, redacté el texto inicial desde mi perspectiva y luego solicité a la IA que buscara fuentes académicas que reforzaran los argumentos. Fue un proceso de varias horas que incluyó revisión crítica de cada fuente, validación de su aplicabilidad y reescritura del texto respetando mi propio estilo. Lo menciono porque forma parte del mensaje de este artículo: la IA no es un grifo que se abre y ya. Su valor depende de cómo la integremos con criterio, reflexión y responsabilidad profesional.
Referencias
Barrett, L. F. (2019). Emotional expressions reconsidered. Scientific American Mind, 27(3). https://www.scientificamerican.com
Finet, A., Larsen, M. E., & Christensen, H. (2025). The limits of AI in understanding emotions: Challenges in bridging human experience and machine perception. University of Mons. [Preprint] https://www.researchgate.net
James, W. (1884). What is an emotion? Mind, 9(34), 188-205. https://www.psiquiatria.com
Purdy, M., Daugherty, P., & Wilson, H. J. (2019). The risks of using AI to interpret human emotions. Harvard Business Review. https://www.cybersecurityintelligence.com
ThinkNow. (2023). Bots en los paneles de investigación de mercado, una preocupación creciente. Blog ThinkNow. https://www.thinknow.com
Universidad de Málaga. (s.f.). La investigación cualitativa. RIUMA. https://riuma.uma.es
Gracias por llegar hasta aquí,
si quieres seguir la conversación, vamos a 📎 LinkedIn
Alejandra Borcel