Cómo medir sin autoengañarse
En marketing, medimos para entender, aunque demasiadas veces lo hacemos para confirmar lo que ya queremos creer.
La necesidad de atribuir resultados a canales o campañas concretas ha convertido la medición en un ejercicio de autoafirmación: si algo funciona, lo declaramos “eficiente”; si no, lo damos por muerto. En ese proceso, perdemos de vista lo esencial: la causalidad real y la verdadera incrementalidad de nuestras acciones.
El espejismo de la atribución perfecta
Durante años, los modelos de atribución prometieron algo que suena maravilloso: saber exactamente qué canal “convenció” al cliente.
«El ‘last-click’ fue el primer culpable: asignar todo el mérito al último punto de contacto es tan cómodo como engañoso.»
Luego vinieron los modelos basados en tiempo, en posición o en algoritmos. Más sofisticados, sí, pero igual de ilusorios si no entendemos que la atribución no mide el impacto real, sino el recorrido observable.
El problema es que el recorrido visible no siempre es el verdadero. Las decisiones humanas son difusas, influenciadas por estímulos previos, percepciones acumuladas y contextos difíciles de trazar.
Pretender reducir todo eso a un modelo lineal de “canales que empujan” es una simplificación peligrosa.
La incrementalidad como verdad incómoda
Frente a la atribución, surge la incrementalidad: ¿qué habría pasado si no hubiéramos hecho nada?
La pregunta es tan simple como impactantes pueden ser sus consecuencias una vez obtenida la respuesta. Obliga a aceptar que parte de nuestras conversiones habrían ocurrido igualmente. Y eso, para muchos equipos de marketing o agencias (especialmente estas últimas), es casi una blasfemia.
Medir incrementalidad implica comparar escenarios reales y contrafactuales —con test A/B o modelos econométricos— para entender qué parte del resultado realmente generamos y cuál solo acompañamos. Es menos glamuroso que presumir de ROAS, pero mucho más honesto.
Rendimiento no es rentabilidad
Otra confusión frecuente es equiparar rendimiento con rentabilidad. Un canal puede parecer muy “performante” —porque convierte más rápido o más barato— y, sin embargo, erosionar el margen o canibalizar ventas orgánicas.
La eficiencia mal entendida puede terminar por distorsionar las decisiones: optimizamos lo visible, ignorando lo valioso.
«A veces, el mejor rendimiento puede provenir de invertir menos en lo que ya funciona por inercia y más en lo que abre nuevo terreno.»
Pero eso requiere una mirada menos cortoplacista y más orientada a valor incremental, no solo a métricas operativas.
Cuando los números confirman sesgos
El «peligro claro y presente» (parafraseando a Tom Clancy) no está en medir, sino en cómo interpretamos lo medido. Cuando los datos se usan para validar decisiones tomadas de antemano, los dashboards se llenan de KPIs que tranquilizan al equipo pero dicen poco sobre el negocio real.
Un CTR alto o un coste por lead bajo no son victorias si no entendemos qué tipo de lead estamos generando, qué impacto tienen en la recurrencia o si aportan margen neto. El dato sin contexto es solo un número.
El reto de medir sin perder perspectiva
Medir es una cuestión de criterio. Los modelos de atribución ayudan -los test de incrementalidad también- pero ninguno sustituye al pensamiento crítico. No se trata de encontrar el modelo perfecto —no existe—, sino de entender qué queremos aprender y para qué.
Y, por cierto, conviene recordarlo: hay muchas empresas que llamaríamos “grandes” y nos sorprendería ver cómo manejan determinadas cosas. Desde cargar excels manualmente para enviar un emailing, hasta trabajar con modelos de medición con deficiencias notorias.
La sofisticación tecnológica no garantiza madurez analítica ni resuelve problemas estructurales de un día para otro…
La pregunta más importante no es “¿qué canal convierte más?”, sino “¿qué canal genera valor que no existiría sin él?”.
Medir la incrementalidad
Identificar la incrementalidad —esa parte de la facturación que no habríamos conseguido manteniendo las cosas igual— es uno de los grandes retos del marketing moderno. Para hacerlo con rigor, conviene combinar análisis experimental y observacional.
- Los test de exclusión o holdout tests son el punto de partida: crear grupos de control que no reciben la acción (por ejemplo, una campaña de paid o un emailing) y comparar resultados frente a grupos expuestos permite aislar el efecto real.
- Complementariamente, los modelos econométricos o de marketing mix modeling (MMM) ayudan a estimar la contribución marginal de cada canal en contextos donde no es viable experimentar, integrando datos históricos, estacionalidad y variables externas.
- Por último, los modelos de propensión o uplift modeling permiten estimar la probabilidad de conversión con y sin estímulo, ofreciendo una visión más granular del impacto.
En conjunto, estas metodologías no buscan demostrar que todo funciona, sino revelar qué parte realmente mueve la aguja del negocio. En cualquier caso, conviene remarcar que alcanzar la máxima precisión no está garantizado.
En resumen
Durante años aceptamos métricas de rendimiento —especialmente el ROAS— como verdades absolutas. Con el tiempo hemos comprobado que muchos de esos resultados carecían, como mínimo, de precisión, y que debían haberse puesto en solfa.
Medir retorno no es lo mismo que entender impacto, y buena parte de algunas decisiones se tomaron sobre datos que hoy reinterpretaríamos con más escepticismo.
Hace muchos años que la atribución y la contribución están más que asimiladas. A su vez, siempre tuvimos la inquietud acerca de la incrementalidad, ese “algo” que estaba ahí. Igual que en medicina, el primer paso siempre es diagnosticar y asumir la dolencia, no pasar de largo sobre ella.



