Incrementalidad o espejismo
Una campaña puede terminar con muchas conversiones, un ROAS positivo, un coste por adquisición aparentemente eficiente y unos datos de interacción que invitan al optimismo. Sobre el papel, todo parece funcionar. El informe muestra crecimiento, los gráficos suben y la inversión parece estar justificada. Sin embargo, hay una pregunta incómoda que cada vez resulta más difícil evitar: ¿cuánto de ese resultado ha sido realmente creado por la campaña?
En marketing digital nos hemos acostumbrado a medir casi todo. Sabemos cuántas personas han visto un anuncio, cuántas han hecho clic, cuántas han llegado a una página, cuántas han añadido un producto al carrito y cuántas han comprado. Pero medir muchas cosas no siempre significa entender mejor el impacto real. A veces, una campaña no genera nueva demanda, sino que simplemente aparece en el camino de usuarios que ya estaban predispuestos a comprar.
Ahí empieza el problema. Si una marca atribuye a una campaña ventas que habrían ocurrido igualmente, puede acabar tomando decisiones equivocadas: aumentar presupuesto donde no hay verdadero crecimiento, reducir inversión en canales que sí construyen demanda o celebrar resultados que solo reflejan una captura eficiente de intención previa. Lo que parece rendimiento puede ser, en realidad, un espejismo bien presentado en un dashboard.
Por eso, la conversación sobre medición está cambiando. Ya no basta con preguntar cuántas ventas se han atribuido a una campaña. La pregunta relevante es otra: ¿la campaña ha generado ventas adicionales o simplemente ha capturado una demanda que ya existía? Esa diferencia es la base de la incrementalidad y marca el paso de un marketing que reclama resultados a un marketing que intenta demostrar impacto real.
Qué es la incrementalidad y por qué importa
La incrementalidad mide el impacto adicional que una campaña genera frente a lo que habría ocurrido si esa campaña no se hubiera activado. Dicho de forma sencilla, no se trata solo de saber cuántas ventas se han producido durante una acción de marketing, sino de identificar cuántas de esas ventas existen gracias a esa acción.
Esta distinción es importante porque en marketing no todo resultado visible es necesariamente un resultado creado. Una marca puede lanzar una campaña, ver un aumento de ventas y concluir rápidamente que la campaña ha funcionado. Pero ese incremento puede estar influido por muchos otros factores: clientes fieles que ya iban a comprar, una promoción activa en el mismo periodo, una subida de demanda estacional, la notoriedad acumulada de la marca o incluso el efecto de otros canales que no aparecen en el informe principal.
Pensemos, por ejemplo, en una tienda online que lanza una campaña de remarketing dirigida a personas que ya habían visitado un producto varias veces. Si muchas de ellas acaban comprando, el dashboard puede atribuir esas conversiones a la campaña. Pero quizá una parte importante de esos usuarios ya tenía una intención de compra alta antes de ver el anuncio. En ese caso, la campaña puede haber ayudado, recordado o acelerado la decisión, pero no necesariamente ha creado todo el valor que se le atribuye.
Lo mismo ocurre en periodos de alta demanda, como rebajas, Black Friday o Navidad. Una campaña puede mostrar resultados muy buenos porque coincide con un momento en el que los consumidores ya están más predispuestos a comprar. Si no se compara ese rendimiento con lo que habría pasado sin la campaña, es fácil confundir contexto favorable con impacto incremental.
Por eso, la idea clave es sencilla pero exigente: no todo lo atribuido es incremental. La atribución puede decirnos qué anuncio, canal o plataforma aparece asociado a una conversión. La incrementalidad intenta responder a una pregunta más profunda: qué parte de ese resultado no habría ocurrido sin la campaña. Y esa diferencia cambia por completo la forma de evaluar el rendimiento, defender la inversión y tomar decisiones de crecimiento.
El espejismo de las métricas tradicionales
Durante años, muchas decisiones de marketing digital se han apoyado en métricas que parecen ofrecer una lectura clara del rendimiento: ROAS, CPA, CTR, conversiones atribuidas, impresiones, clics, engagement o ventas totales durante el periodo de campaña. Son datos útiles, fáciles de comparar y muy presentes en cualquier informe. El problema aparece cuando se interpretan como prueba definitiva de valor.
Un ROAS positivo puede indicar que una campaña ha generado ingresos superiores a la inversión, pero no necesariamente demuestra que esos ingresos sean nuevos. Un CPA bajo puede parecer eficiente, pero quizá se ha conseguido impactando a usuarios que ya estaban cerca de comprar. Un CTR elevado puede mostrar que el mensaje ha despertado interés, pero no siempre significa que ese interés se traduzca en crecimiento real. Incluso un aumento de ventas durante una campaña puede tener más relación con la estacionalidad, la promoción o la demanda existente que con la propia acción publicitaria.
Esto no significa que estas métricas no sirvan. Al contrario, siguen siendo necesarias para gestionar campañas, detectar problemas, comparar creatividades, optimizar presupuestos y entender comportamientos dentro de cada canal. Ayudan a responder preguntas operativas importantes: qué anuncio consigue más clics, qué audiencia convierte mejor, qué formato tiene menor coste o qué plataforma está generando más actividad.
Pero cuando la conversación pasa del rendimiento operativo al impacto de negocio, estas métricas necesitan contexto. Por sí solas no responden a la pregunta más estratégica: ¿qué habría pasado si no hubiéramos invertido? Sin esa comparación, el marketing corre el riesgo de confundir actividad con eficacia, eficiencia aparente con crecimiento real y atribución con causalidad.
El espejismo surge precisamente ahí: en dashboards que muestran resultados positivos, pero no explican si esos resultados son consecuencia directa de la inversión o si la campaña simplemente ha estado presente en un recorrido que ya iba a terminar en compra. Por eso, la medición moderna no puede limitarse a acumular indicadores. Necesita combinar métricas de plataforma con modelos, experimentos y preguntas más exigentes sobre el verdadero impacto de cada decisión.
Atribuir no es demostrar impacto
Uno de los grandes retos de la medición actual es diferenciar entre asignar mérito y demostrar impacto. La atribución intenta repartir el crédito de una conversión entre canales, campañas o puntos de contacto. Puede indicar qué anuncio recibió el último clic, qué plataforma participó en el recorrido o qué combinación de impactos aparece antes de una compra. Es una herramienta útil para ordenar la información, pero no siempre permite saber si la campaña fue la causa real del resultado.
La incrementalidad, en cambio, parte de una pregunta distinta. No se conforma con saber qué canal estuvo presente antes de la conversión, sino que intenta medir qué habría pasado si ese canal no hubiera intervenido. En otras palabras, busca acercarse a la causalidad. Quiere identificar si la campaña generó un efecto adicional o si simplemente se llevó el mérito de una venta que probablemente habría ocurrido igualmente.
Esta diferencia es especialmente importante en entornos donde las plataformas publicitarias tienen una visión parcial del recorrido del usuario y, al mismo tiempo, incentivos para demostrar que su inversión funciona. Una plataforma puede atribuir ventas a una campaña porque detecta que un usuario expuesto terminó comprando. Pero esa lectura no prueba, por sí sola, que la exposición haya creado la venta. Quizá el usuario ya conocía la marca, había comparado precios, estaba esperando una promoción o tenía una intención de compra muy alta antes de recibir el impacto publicitario.
Por eso, una conversión atribuida no debe interpretarse automáticamente como una conversión incremental. La atribución mira el camino que siguió una conversión; la incrementalidad pregunta si esa conversión habría existido sin la campaña. Esta distinción cambia la forma de analizar el rendimiento, porque desplaza la conversación desde “qué canal aparece en el informe” hacia “qué inversión ha generado un cambio real en el comportamiento del mercado”.
Cuando las marcas no hacen esta separación, pueden acabar sobrevalorando canales que capturan demanda ya existente e infravalorando acciones que construyen demanda a medio plazo. También pueden optimizar sus campañas hacia los usuarios más fáciles de convertir, aunque esos usuarios no representen verdadero crecimiento. En ese escenario, el marketing parece más eficiente, pero puede estar reduciendo su capacidad de generar valor nuevo.
Medir impacto exige, por tanto, ir más allá de la lógica de reparto de crédito. La atribución ayuda a entender recorridos; la incrementalidad ayuda a cuestionar cuánto valor adicional se ha creado. Ambas perspectivas pueden convivir, pero no deberían confundirse. Porque una campaña puede estar muy bien atribuida y, aun así, aportar menos crecimiento de lo que parece.
Cómo se mide la incrementalidad en la práctica
Medir la incrementalidad no significa convertir cada campaña en un proyecto estadístico complejo, pero sí exige cambiar la forma de plantear la medición. La pregunta ya no es solo cuántas conversiones se han registrado, sino qué diferencia existe entre un escenario con campaña y un escenario comparable sin campaña. Esa comparación es la base para acercarse al impacto real.
Una de las formas más habituales de hacerlo es trabajar con grupos de test y control. El grupo de test recibe el impacto publicitario y el grupo de control no lo recibe, o lo recibe en condiciones distintas. Si ambos grupos son comparables, la diferencia de comportamiento entre ellos puede ayudar a estimar qué parte del resultado se debe realmente a la campaña. No se trata de observar únicamente quién compra, sino de comparar cuánto cambia la probabilidad de compra cuando existe exposición publicitaria.
También pueden utilizarse experimentos con audiencias expuestas y no expuestas. Por ejemplo, una marca puede reservar una parte de su audiencia para no impactarla durante un periodo concreto y comparar su evolución con la de quienes sí han visto la campaña. Este tipo de prueba ayuda a detectar si la publicidad está generando una diferencia significativa o si simplemente está alcanzando a personas que ya tenían intención de comprar.
Otra opción es el geo-testing, especialmente útil cuando la empresa opera en distintos mercados, ciudades o regiones. En este caso, la campaña se activa en unas zonas y se limita o se excluye en otras. Después se compara la evolución de los resultados teniendo en cuenta factores como el histórico de ventas, la estacionalidad, la inversión previa o las diferencias de comportamiento entre territorios. No es un método perfecto, pero puede ser muy útil cuando no es fácil separar audiencias a nivel individual.
Los holdout groups funcionan con una lógica similar: se reserva una parte del público objetivo fuera de la campaña para poder medir qué ocurre sin exposición. Aunque a veces puede parecer una decisión incómoda, porque implica no impactar a usuarios potencialmente valiosos, ese pequeño sacrificio puede aportar una lectura mucho más clara sobre el efecto real de la inversión.
En contextos más avanzados, también se pueden utilizar modelos contrafactuales, que intentan estimar qué habría pasado sin la campaña a partir de datos históricos, patrones de comportamiento y variables externas. De forma complementaria, el marketing mix modeling puede ayudar a entender el efecto de diferentes canales sobre las ventas agregadas, especialmente cuando se calibra con experimentos reales y no se utiliza como una caja negra desconectada de la práctica.
Lo importante es entender que no todas las empresas necesitan empezar con el método más sofisticado. Una organización puede dar sus primeros pasos con tests sencillos, comparaciones bien diseñadas y mejores hipótesis de partida. Lo esencial es dejar de medir únicamente lo que la plataforma atribuye y empezar a construir preguntas más rigurosas: qué queremos demostrar, con qué grupo lo vamos a comparar, durante cuánto tiempo vamos a medirlo y qué decisión tomaremos según el resultado.
La incrementalidad no elimina toda la incertidumbre, pero obliga a medir con más disciplina. Y ese cambio ya supone un avance importante: pasar de aceptar los resultados tal como aparecen en el dashboard a preguntarse qué parte de esos resultados representa verdadero crecimiento.
Hacia una cultura de testing más rigurosa
Introducir la incrementalidad en marketing no significa que cada decisión deba convertirse en un experimento complejo, lento o inaccesible. La clave no está en llenar la organización de modelos estadísticos, sino en construir una disciplina de aprendizaje más rigurosa. Es decir, pasar de medir campañas solo para justificar resultados a medirlas también para entender qué funciona, en qué condiciones y por qué.
El primer paso es definir hipótesis antes de activar una campaña. No basta con decir que se quiere vender más, generar más leads o mejorar el ROAS. Conviene concretar qué se espera que ocurra: captar nuevos clientes, aumentar la frecuencia de compra, recuperar usuarios inactivos, impulsar una categoría concreta o mejorar la conversión en un segmento determinado. Cuanto más clara sea la hipótesis, más fácil será decidir después si la campaña ha aportado valor real o solo ha producido actividad medible.
También es importante acordar desde el principio qué se quiere demostrar. Muchas veces, los problemas de medición aparecen porque el objetivo se redefine una vez vistos los resultados. Si una campaña no mejora las ventas, se destacan los clics. Si no mejora el ROAS, se habla de notoriedad. Si no genera nuevos clientes, se insiste en el engagement. Todas esas métricas pueden tener valor, pero no deberían utilizarse para cambiar el criterio de éxito a posteriori. Una cultura de testing exige honestidad antes, durante y después de la campaña.
Para ello, resulta útil separar las métricas de diagnóstico de las métricas de negocio. Las primeras ayudan a entender si la campaña se ha ejecutado correctamente: alcance, frecuencia, CTR, visualizaciones, coste por clic o interacción. Las segundas permiten evaluar si la acción ha contribuido a un objetivo más relevante: ventas incrementales, nuevos clientes, margen, valor de vida del cliente, cuota de mercado o crecimiento de una categoría. Confundir ambos niveles puede llevar a celebrar campañas muy activas, pero poco transformadoras.
Otra práctica esencial es documentar los aprendizajes. Un test aislado puede aportar información, pero su verdadero valor aparece cuando la organización acumula conocimiento. Qué audiencias respondieron mejor, qué mensajes generaron más impacto, qué canales aportaron crecimiento incremental, qué promociones distorsionaron los resultados o qué periodos no fueron adecuados para comparar. Sin documentación, cada campaña empieza casi desde cero. Con documentación, la medición se convierte en memoria estratégica.
Comparar resultados entre campañas también ayuda a evitar interpretaciones precipitadas. Un único experimento puede estar condicionado por el contexto, la estacionalidad, la presión promocional o el comportamiento de la competencia. Pero cuando se observan patrones a lo largo del tiempo, las decisiones empiezan a apoyarse en evidencias más consistentes. La cultura de testing no busca una verdad absoluta en cada prueba, sino una mejora progresiva de la calidad de las decisiones.
Por eso, el enfoque “test and learn” resulta cada vez más relevante. No se trata solo de comprobar si una campaña ha funcionado, sino de aprender qué condiciones hacen que funcione mejor. Este aprendizaje puede convivir con modelos de atribución, marketing mix modeling e incrementality testing, siempre que cada herramienta se utilice para responder a la pregunta adecuada. La atribución ayuda a entender recorridos, el MMM aporta una visión agregada del efecto de los canales y los experimentos permiten acercarse mejor a la causalidad.
El objetivo final no es medir por medir, ni usar los tests para confirmar decisiones que ya estaban tomadas. Una cultura de testing rigurosa ayuda a decidir mejor: dónde invertir, qué dejar de hacer, qué escalar, qué revisar y qué aprendizajes incorporar a la siguiente campaña. En ese sentido, la incrementalidad no es solo una técnica de medición. Es una forma de exigir al marketing una relación más honesta con sus propios resultados.
Conclusión
La incrementalidad no elimina la incertidumbre del marketing. Ningún método lo hace por completo. Siempre habrá variables externas, comportamientos difíciles de aislar, efectos de marca a largo plazo y decisiones de compra que no se explican únicamente desde un dashboard. Pero sí introduce una forma más honesta de mirar los resultados: no preguntarse solo qué puede reclamar una campaña, sino qué ha creado realmente.
Ese cambio es importante porque obliga a ir más allá de la apariencia de rendimiento. Una campaña puede acumular clics, conversiones atribuidas, ROAS positivo y buenas gráficas sin generar necesariamente crecimiento nuevo. También puede tener un efecto relevante que no aparece de forma clara en una lectura inmediata de plataforma. Por eso, medir mejor no consiste solo en añadir más indicadores, sino en formular mejores preguntas.
La pregunta central no es si una campaña aparece asociada a una venta, sino si esa venta habría ocurrido sin la campaña. A partir de ahí, el marketing deja de apoyarse únicamente en métricas de superficie y empieza a construir una relación más seria con la causalidad, el aprendizaje y la toma de decisiones basada en evidencia.
En ese sentido, la incrementalidad no debe entenderse como una métrica aislada ni como una moda metodológica. Es una señal de madurez. Ayuda a distinguir entre capturar demanda existente y generar valor adicional, entre justificar inversión y aprender de ella, entre optimizar campañas y construir crecimiento real.
El siguiente paso es aceptar que ninguna herramienta de medición resuelve este reto por sí sola. La atribución, el marketing mix modeling y los experimentos tienen fortalezas y límites. La clave está en saber cómo combinarlos en un ecosistema imperfecto, donde medir bien no significa tener una respuesta única, sino construir una visión más completa del impacto. Ahí empieza la siguiente conversación: cómo convivir con modelos diferentes sin perder de vista la pregunta esencial del negocio.
¿Cuántas de tus decisiones de inversión seguirían siendo las mismas si tuvieras que demostrar impacto incremental?
Fuentes: