Zenda logo

X Ads Manager se renovó: nuevo dashboard, AI targeting, vertical video. Pero la mudanza rompió cosas.

X rediseñó su Ads Manager con mejoras concretas: AI targeting, vertical video, dashboard unificado. El producto es mejor. Pero la migración trajo discrepancias de datos entre API y dashboard, un overhaul de políticas con tasas de rechazo del 35%, un sistema de scoring estético que penaliza económicamente, y un outage global durante el rollout. Para un equipo de paid media evaluando X en abril de 2026, la pregunta no es si mejoró (mejoró), sino si el costo operativo de la transición justifica el budget.

X Ads Manager se renovó: nuevo dashboard, AI targeting, vertical video. Pero la mudanza rompió cosas.

En la última semana de marzo de 2026, X completó el rollout de su Ads Manager rediseñado. No es un facelift cosmético: es una reconstrucción de 18 meses que cambia cómo se crean, optimizan y miden campañas en la plataforma.

El nuevo sistema introduce un dashboard unificado que concentra planificación, gestión y reporting en una sola vista, eliminando la navegación fragmentada del sistema anterior. Se agregaron previews en tiempo real para desktop y mobile, resolviendo un problema operativo concreto: las imágenes que se cortaban de formas impredecibles al publicar. El setup de campañas de conversión se simplificó a tres pasos (evento de conversión, presupuesto, demografía), un cambio que reduce la fricción de entrada especialmente para equipos chicos.

Las dos apuestas más fuertes son el AI-powered Optimized Targeting y los Vertical Video Ads. El Optimized Targeting usa machine learning para expandir audiencias más allá de los parámetros manuales, funcionando como un lookalike automatizado que se ajusta con señales de engagement en tiempo real. Según los datos del propio beta testing de X (sin verificación independiente disponible), los anunciantes que lo activaron reportaron un aumento promedio de 10% en CTR y 16% en conversiones, con el 92% de los participantes del beta optando por dejarlo activo. Estos números requieren contexto: no hay información pública sobre el tamaño de la muestra, los verticales representados, ni los objetivos de campaña testeados, lo que limita su extrapolabilidad a operaciones fuera del perfil del beta.

Los Vertical Video Ads aparecen en el Immersive Media Viewer y según X generan 7 veces más interacciones que los formatos estándar del timeline. El formato ya representa el 20% del tiempo total de usuario en la plataforma, lo que sugiere que la audiencia está ahí, aunque la conversión de tiempo de usuario a performance de ads es una correlación que los anunciantes deberán validar por cuenta propia.

Para completar el rediseño, X agregó un cost estimate tool que proyecta CPMs antes de lanzar, y adjacency controls para excluir keywords y evitar que un ad aparezca junto a contenido no deseado.

Hasta acá, la historia es de un producto que mejoró de forma concreta. Lo que sigue es lo que pasó cuando ese producto se encontró con la realidad de la migración.

Lo que se rompió en la mudanza

El problema más básico es que los datos no coinciden. En el X Developer Community, anunciantes y desarrolladores reportaron discrepancias entre los datos que devuelve la API de X Ads y lo que muestra el nuevo dashboard. Para cualquier equipo que use herramientas de reporting externas (Supermetrics, Funnel, scripts propios) y dependa de la API para alimentar dashboards de BI, esto genera una situación operativa concreta: los números del reporte interno no coinciden con lo que dice la plataforma. X no emitió comunicado oficial sobre estas discrepancias ni ofreció un timeline de resolución. No se conoce públicamente qué métricas específicas están afectadas (impresiones, conversiones, spend), lo que hace difícil evaluar la magnitud real del problema.

El 2 de abril de 2026, menos de una semana después del rollout, X sufrió un outage global de aproximadamente una hora. Más de 25,000 reportes en Downdetector solo en Estados Unidos, con impacto confirmado en Europa, India y América del Sur. Los timelines se mostraron en blanco o con contenido de días anteriores. Cualquier campaña activa dejó de recibir delivery durante ese período. X no comunicó la causa del outage ni publicó un post-mortem, lo que deja abierta la pregunta de si fue un evento aislado o un síntoma de inestabilidad de infraestructura durante la migración.

El overhaul de políticas

El rediseño del Ads Manager coincidió con el enforcement más agresivo en la historia de la plataforma. En lo que va de 2026, X implementó 14 policy updates mayores que afectan más del 67% de las categorías de ads activas. El cambio de filosofía es radical: la plataforma pasó de "review after complaint" a "block before delivery". El sistema automatizado Guardian rechaza el 78% de las violations dentro de 90 segundos de la submission.

Tres mecanismos concentran la mayor fricción operativa.

El Advertiser Trust Score (ATS) es un score de credibilidad de 0 a 100 que determina velocidad de review y prioridad de delivery. Los anunciantes nuevos arrancan en 50, y cada violación resta entre 5 y 15 puntos. El problema es que las reglas cambiaron: lo que antes era compliant puede ahora ser violación. Un anunciante que operó sin problemas durante meses puede ver su ATS erosionarse rápidamente bajo las nuevas políticas sin haber cambiado nada en sus campañas. Debajo de 30, pre-aprobación obligatoria para cada campaña nueva (48-96 horas de delay). Debajo de 25, re-verificación de cuenta; sin completarla en 14 días, suspensión. Para una operación multi-campaña, la erosión de ATS puede convertirse en un cuello de botella que afecta la velocidad de todo el equipo.

Los policy overlays geográficos agregan 42 capas de compliance por país sobre la política global. El mismo ad puede ser compliant en un mercado y violatorio en otro. Para cualquier operación multi-mercado, esto convierte compliance en un ejercicio de combinatoria que crece con cada país donde se opera. En 2024 eran 12 overlays; que se hayan triplicado en dos años sugiere que la tendencia es agregar, no simplificar.

El post-delivery audit representa un riesgo operativo que trasciende al equipo de paid. Crawlers de compliance escanean continuamente campañas activas. Si una landing page cambia después de que el ad fue aprobado, o si los reportes de usuarios superan el 0.08% de impresiones, el ad se baja retroactivamente. Esto significa que una campaña aprobada y corriendo puede desaparecer sin aviso si otro equipo (producto, contenido, diseño) actualiza la landing page. En organizaciones con governance, este riesgo requiere coordinación entre paid, producto y legal que el draft no resuelve por sí solo.

Para industrias específicas, el impacto es desproporcionado. Healthcare representa el 3.8% del volumen de ads pero genera el 28% de todas las violations. Ads financieros sin un "Regulatory Info Card" se rechazan en el 94% de los casos. El 14% de los rechazos de ads "cause-based" vienen de marcas que no se dieron cuenta de que su messaging dispara la clasificación política. Si tu vertical es healthcare, fintech, o cualquier cosa adyacente a regulación, el overhead de compliance en X es significativamente mayor que en otras plataformas.

El scoring estético: diseño como costo

Sumado a las políticas, X introdujo un sistema de scoring estético para ads. Cada ad recibe un puntaje basado en criterios visuales y textuales: diseño limpio y minimalista sube el score; emojis excesivos, hashtags, URLs visibles, y creativos sobrecargados lo bajan. Este score funciona como modificador dentro del algoritmo de calidad, impactando directamente en pricing y visibilidad en el feed. Los ads con más de un emoji en el copy enfrentan quality scores más bajos y potencialmente precios más altos. Los ads que no cumplen estándares estéticos se entierran algorítmicamente.

Para los performance marketers que históricamente dependieron de copy urgente, emojis de atención, y CTAs agresivos, esto no es un ajuste menor: es un cambio en las reglas del juego donde lo que antes performaba ahora cuesta más. No hay datos públicos sobre cuánto varía el CPM según el scoring estético, lo que constituye un unknown significativo para la planificación de budget.

La tensión central

La tensión central no es si X mejoró (mejoró) ni si tiene problemas (tiene). Es que el producto y la infraestructura están en momentos distintos de su evolución, y operar en esa brecha tiene un costo que no aparece en ningún media plan.

El Ads Manager nuevo es objetivamente mejor que el anterior. Pero un producto bueno sobre una infraestructura que genera discrepancias de datos, sufre outages durante el rollout, y no comunica transparentemente los problemas, genera un riesgo específico: el de operar con datos en los que no se puede confiar plenamente. Para un equipo que necesita reportar resultados a un CMO o un board, ese asterisco en la confiabilidad de los datos puede ser más costoso que cualquier CPM.

El enforcement agresivo de políticas es, en teoría, mejor para brand safety. Pero la ejecución simultánea de 14 policy updates, 42 overlays geográficos, ATS, post-delivery audits, y scoring estético genera un entorno donde el compliance overhead puede consumir más tiempo que la optimización de campañas. Para un equipo chico, eso significa navegar tasas de rechazo del 35%, delays de 48-96 horas cuando el ATS baja de 30, y 42 overlays geográficos que multiplican la complejidad por cada mercado adicional. Para operaciones con governance formal (legal, procurement, brand safety), el post-delivery audit agrega una capa de riesgo que requiere coordinación cross-funcional que trasciende al equipo de paid.

Los datos del AI targeting son prometedores, pero provienen exclusivamente del beta testing de X sin verificación independiente, sin detalle de verticales, sin tamaño de muestra. La pregunta no es si +10% CTR y +16% conversiones son buenos números (lo son), sino si se sostienen fuera de un entorno controlado, en verticales diversos, a escala. No hay evidencia pública de anunciantes que reporten resultados positivos post-migración fuera del beta. Esa ausencia de evidencia no es evidencia de ausencia, pero tampoco es base para asignar budget.

Para quién tiene sentido (y para quién no)

Operar en el nuevo X Ads Manager tiene sentido para equipos que cumplen tres condiciones: budget suficiente para absorber la volatilidad de CPMs mientras se estabiliza el scoring estético (probablemente $50K+/mes en la plataforma como piso), equipo con capacidad dedicada para compliance (al menos una persona que pueda monitorear ATS, policy overlays, y post-delivery risks), y tolerancia a la incertidumbre de datos mientras se resuelven las discrepancias API/Dashboard.

No tiene sentido para equipos de 2-3 personas con budget limitado que necesitan cada hora para optimización directa. Tampoco para operaciones multi-mercado en industrias reguladas (healthcare, fintech) donde los 42 overlays geográficos se cruzan con regulaciones sectoriales. Y no tiene sentido para organizaciones con governance formal donde el riesgo de post-delivery audit (campañas que desaparecen por cambios en landing pages) genera un problema cross-funcional que el equipo de paid no puede resolver solo.

Para los que deciden esperar: monitorear dos señales. Primero, que X resuelva las discrepancias API/Dashboard y lo comunique oficialmente. Segundo, que aparezcan resultados independientes del AI targeting fuera del beta. Cuando esas dos condiciones se cumplan, la ecuación riesgo/oportunidad cambia fundamentalmente.

Lo que no sabemos

No hay datos públicos sobre cuántas cuentas experimentaron pérdida de historial o datos durante la migración. Las discrepancias API/Dashboard están documentadas pero sin acknowledgment oficial de X ni timeline de resolución, y no se sabe qué métricas están afectadas.

No sabemos si los números del AI targeting se sostienen fuera del beta. No hay verificación independiente, ni detalle de tamaño de muestra o verticales representados.

No sabemos cuánto varía el CPM según el scoring estético. X confirmó que ads con baja calidad estética pagan más, pero no publicó rangos de variación.

No sabemos si los 42 policy overlays se van a estabilizar o seguir creciendo. La tendencia (de 12 en 2024 a 42 en 2026) sugiere lo segundo.

No sabemos la causa del outage del 2 de abril. Sin post-mortem público, no hay forma de evaluar si es un evento aislado o un patrón de inestabilidad durante la migración.

No sabemos si herramientas de reporting terceras (Supermetrics, Funnel, etc.) adaptaron sus conectores al nuevo sistema, o si siguen usando endpoints del sistema anterior.

Una IA escribió el primer borrador. Un equipo de personas lo mejoró. O eso esperamos.

CHARLEMOS.

1/4

EMBAJADORES.

Zenda en el mundo.

EUROPA

Julian Iglesias Bello

US & LATAM

Julian Chadwick