DATOS

El precio oculto de los datos

Compartí esta noticia !

Escribe Laura Veldkamp / F&D FMI – Los datos son el combustible para los algoritmos de inteligencia artificial que han llevado los mercados bursátiles a máximos históricos gracias a la promesa de transformar economías. Pero, ¿cómo determinamos el valor de los datos? Los datos no se extraen de la tierra, ni se forjan en fábricas. Se acumula sin ser visto como un subproducto de la vida moderna: cada búsqueda, clic o paseo matutino con el móvil en el bolsillo deja un residuo de información que alguien, en algún lugar, puede usar.

Cuando un bien no tiene un precio observable—como un servicio público, por ejemplo—normalmente lo valoramos al coste. Pero los datos no tienen un coste explícito. Cuando un minorista registra ventas o una aplicación de mapas anota tu ubicación, eso es producción de datos. Por supuesto, las empresas gastan mucho en procesar, analizar y transformar datos. Contratan ejércitos de científicos de datos e invierten en infraestructura informática para extraer patrones del ruido. Pero los datos en bruto subyacentes son como los gases de escape de nuestro motor económico. ¿Cómo valoramos algo que simplemente aparece?

La verdad es que los datos no son gratuitos. Todos somos productores de datos remunerados. Una vez que comprendemos que los datos se producen a través de transacciones, surge una lógica económica más profunda. Si una empresa que maximiza el beneficio valora los datos que recibe de los clientes, tiene un incentivo para fomentar más transacciones, porque más transacciones significan más datos. Los clientes compran más cuando pagan menos. Las empresas que no ofrezcan descuentos verán cómo los clientes recurren a competidores que sí lo hacen. Por tanto, las empresas que maximizan el beneficio deben descontar sus bienes y servicios, no por equidad, sino para generar más ventas y más datos.

La mayor parte de la economía actual opera bajo este pacto oculto. Cada compra digital, cada descarga de una aplicación, cada clic es una transacción dual: los consumidores compran un bien o servicio y, al mismo tiempo, venden sus datos. El precio observable —la cantidad de dinero que cambia de manos— es realmente el precio neto de estos dos intercambios. Las empresas obtienen ingresos y datos; Los consumidores obtienen productos y comodidad.

Agrupación de precios

Aquí está el problema: como clientes, no sabemos qué precio ni qué descuento recibimos por los datos. Esto hace imposible saber si recibimos suficiente. Normalmente, los consumidores no tienen la opción de comprar un bien sin vender sus datos. Exigir dos transacciones al mismo tiempo—en este caso, una venta de datos y una compra de producto—es lo que los economistas llaman agrupamiento. Al ocultar el precio de los datos, el empaquetado garantiza que los clientes reciban menos.

Imagina llegar a un país extranjero con una moneda diferente. Al llegar, pagas el equivalente a 18 dólares por un almuerzo que debería costar 3 dólares. Tras unos días, aprendes cuándo regatear, cuándo marcharte y qué precio es justo. En la economía digital, somos perpetuamente ese turista de primer día. Vendemos nuestros datos cada vez que navegamos o compramos. Pero como la transacción está agrupada, nunca vemos el precio. No podemos aprender de la experiencia.

Las regulaciones que obliguen a las empresas a desagregar las transacciones —a publicar tanto el precio con derecho a usar los datos de la transacción como el precio de una transacción privada— arrojarían luz sobre el mercado de datos. Los consumidores podían aprovechar el descuento de datos. Algunos pueden decidir que merece la pena; otros pueden retener sus datos a menos que el descuento sea sustancial. Con el tiempo, los consumidores evolucionarían de turistas ingenuos a proveedores astutos de datos, exigiendo su parte de las ganancias de la economía de datos.

El reto para economistas y responsables políticos es convertir los datos—un activo ambiental e invisible—en algo que podamos contar, contener y valorar. Los economistas han comenzado a construir un kit de herramientas para la medición de datos. Cada enfoque ofrece una visión diferente del “valor” y será factible en distintas situaciones.

Cinco enfoques

Primero, la aproximación de precios de mercado. Algunos datos se negocian en mercados abiertos, en plataformas como Snowflake o Datarade, donde se compran y venden conjuntos de datos. Pero estos datos no constituyen una muestra representativa de datos económicamente importantes. La mayoría de las empresas no te venderán sus datos más valiosos, porque son fundamentales para su ventaja competitiva. Pero para el subconjunto de datos representado en estos mercados, el precio es una señal de valor probada y comprobada.

Segundo, el enfoque de ingresos. Esto trata los datos como cualquier otro activo productivo: vale cualquier ingreso extra que pueda generar. Este método plantea una pregunta contrafactual: ¿Cómo serían los beneficios si una empresa no tuviera algunos datos? Este enfoque requiere un modelo que pueda predecir cuáles habrían sido los beneficios sin los datos. En finanzas, esto es factible porque sabemos que los inversores utilizan datos para comprar más activos que generarán altos rendimientos. En otros contextos, los datos pueden tener múltiples usos que son más difíciles de medir y cuantificar.

Tercero, enfoque de entradas complementarias. Una forma de inferir el valor del stock de datos de una empresa es analizar los recursos que destina a gestionar y explotar esos datos. Los datos no producen valor por sí solos; solo se vuelven productivos cuando se combinan con personas y herramientas. Si sabes cuánta mano de obra y potencia de cálculo emplea una empresa para trabajar con datos, y cuánto cuesta, puedes inferir el valor implícito del stock de datos que hace que el gasto merezca la pena. Es indirecto, pero la señal más clara de que algo es valioso es que las empresas pagan dinero real por usarlo.

Cuarto, el enfoque de comportamiento correlacionado. Si los datos mejoran las decisiones, deberíamos verlo en la alineación entre lo que hacen las personas y la recompensa por esas decisiones. Los economistas pueden medir esas correlaciones entre acciones y beneficios para estimar cuánta información debieron tener los responsables de la toma de decisiones. En los mercados de consumo, eso puede significar rastrear cuán exactamente las recomendaciones coinciden con las compras, o cuán precisamente una empresa almacena bienes que se vendan bien. Una alta covarianza implica datos valiosos en acción. Este enfoque mide los datos por su huella conductual.

Por último, el enfoque de contabilidad de costes. Por instinto, los contables simplemente suman las facturas para obtener datos. En cierta medida, el nuevo Sistema de Cuentas Nacionales de las Naciones Unidas lo hace contando los conjuntos de datos adquiridos como activos. El problema es que la mayoría de los datos no se compran; se intercambian. Los consumidores “pagan” con información cuando compran bienes o utilizan servicios digitales. Esos descuentos implícitos rara vez aparecen en los registros. Un verdadero recuento del coste de los datos tendría que imputar el valor de los dólares o céntimos recortados en cada compra para fomentar más transacciones y más revelación de datos.

Es el enfoque más sencillo en teoría y el más difícil en la práctica, porque nos pide ver transacciones de datos que nunca han sido detalladas. Desagregar datos y transacciones de bienes exigiendo precios separados para las transacciones con y sin derechos de uso de los datos de las transacciones haría viable la contabilidad de costes.

Hacia la cuantificación

En conjunto, estos cinco enfoques describen una clase de activo invisible. Cada uno captura un aspecto del valor de los datos: trabajo dedicado, ingresos generados, precisión de las acciones, precio de mercado o coste implícito. Ninguna es infalible, factible en todos los casos ni holística en su medida. La medición siempre es imperfecta. Sin embargo, para tomar decisiones informadas y elaborar políticas sólidas, debemos trasladar los datos del ámbito de la intuición al ámbito de la cuantificación. Hasta entonces, la economía funciona con un recurso cuyo precio solo podemos adivinar, y cuyo valor Silicon Valley puede explotar libremente.

LAURA VELDKAMP es profesora Leon G. Cooperman de Finanzas y Economía en la Escuela de Negocios de la Universidad de Columbia y autora de The Data Economy: Tools and Applications.

Compartí esta noticia !

El Pulso del Planeta

Compartí esta noticia !

Escribe Kenneth Cukier / F&D FMI – Vemos el planeta no tal como es, sino tal como somos. En el ámbito de los datos, los economistas deben replantearse qué información utilizan para mostrar la verdad sobre el terreno y reimaginar la verdad que desean registrar.

El campo sufre de una “déformation professionelle”, que ve la economía a través del prisma de un mundo de “small data” que conocen desde hace tiempo. Pero en un universo de “big data” —cuando la variedad, frecuencia y granularidad de las fuentes de datos (y las características a medir) son mucho más numerosas— se requiere una nueva mentalidad.

Para hacerse una idea de cómo es una colisión así entre más información y el pensamiento tradicional, consideremos un poco de historia en el campo de la sanidad.

En 1990, General Electric lanzó una actualización del software para sus máquinas de resonancia magnética (MRI) Signa, utilizadas para escáneres médicos. Los ingenieros descubrieron un fallo en el sistema que comprimía cómo mostraba tejido que contenía lípidos, o grasa. Pero cuando se hicieron disponibles imágenes más precisas, muchos radiólogos se rebelaron. No estaban acostumbrados a ver los mejores escáneres y se sentían más cómodos evaluando los más antiguos. Había temores de diagnósticos erróneos debido a nuevas imágenes. GE se vio obligada a añadir una función a las máquinas de resonancia magnética que permitía a los radiólogos ver las antiguas exploraciones —etiquetadas como “clásicas”, en un guiño y guiño al desastre tras el lanzamiento de la “nueva Coca-Cola” unos años antes.

Una resonancia magnética es visual, informativa. No es la cosa en sí. De este modo, es un poco como los datos económicos, como el crecimiento, el desempleo, la inflación y similares. Los radiólogos de los años 90 preferían la información menos precisa porque se habían acostumbrado a usar escaneos comprimidos; Sus habilidades se perfeccionaron en gran medida para trabajar dentro de esas limitaciones. Se resistían a mejores imágenes. ¿Existe el riesgo de que los economistas actuales sean vulnerables a la misma trampa mental?

Galaxia de datos

Considera la galaxia de datos e IA que nos rodea hoy en día, y lo novedosa que es. Hace un cuarto de siglo, la mayoría de las cosas en la vida no tenían un chip informático ni se conectaban a una red. Era una era pasada de cartas, fichas de metro, despertadores de viaje y transacciones con tarjeta de crédito que requerían una firma en un formulario de papel carbón tras pasar por una impresora, conocida como máquina zip-zap. Tu sueño y ejercicio no se controlaban con tu reloj de pulsera. Tu teléfono inalámbrico no reconoció tu cara; Tu banco no verificó tu firma de voz. Los coches sin GPS significaban que los conductores dependieran de mapas mal plegados. No seas nostálgico: la cuestión es que la digitalización de la sociedad significa que actividades que nunca podrían convertirse fácilmente en datos ahora lo son.

Esto ofrece la posibilidad de entender la economía de manera más precisa, un mejor reflejo de la verdad de terreno, de lo que realmente se está midiendo. La notificación puede hacerse mucho más rápido, quizás en tiempo cuasi-real, y de formas más granulares, hasta en segmentos pequeños o incluso individuos, algo que los métodos antiguos no podían hacer—comprimiendo en su lugar la información como una resonancia magnética anterior a 1990. La precisión, la velocidad y los detalles mejoran. Además, lo que se mide puede cambiar por sí mismo, dando lugar a nuevas formas de entender el mundo (y al hacerlo, con suerte, mejorarlo).

Sin embargo, las entidades que recopilan la información proceden del sector privado, ya que es él quien genera los datos en sus operaciones. Por ejemplo, las imágenes satelitales pueden rastrear los rendimientos agrícolas. Las páginas de ofertas de empleo pueden identificar qué áreas urbanas crecen más rápido que otras, mientras que las de ventas de viviendas pueden mostrar cuáles están en declive. En muchos casos, las empresas se encuentran en medio de flujos de datos procedentes de las operaciones de otros. El procesador de nóminas ADP gestiona uno de cada seis trabajadores estadounidenses: su informe mensual de empleo es utilizado por economistas para complementar datos de la Oficina de Estadísticas Laborales de EE. UU.

Indicadores alternativos

Tales indicadores alternativos (o “alt-data”) pueden no compilarse utilizando los métodos académicamente rigurosos de las agencias estatales de estadística. Aprovechar los datos requerirá un cambio de mentalidad por parte de los profesionales actuales, que quizá deban replantear su responsabilidad, pasando de generar información a colaborar con el sector privado para reforzar y validar la integridad de los datos y así poder utilizarse con fines más amplios. Es un eco de los orígenes del campo.

El término estadística deriva del alemán “Statistik”, acuñado a mediados del siglo XVIII para referirse a la “ciencia del estado”. Estas métricas pueden basarse en la inferencia: generalizar desde lo que es fácilmente medible para llegar a conclusiones sobre lo que es difícil de aprender. Como a menudo era caro o imposible contar las cosas en sí, la práctica aceptada era buscar proxies y extrapolar. Este enfoque caracterizó los primeros días de la estadística. “La ciudad de Dublín en Irlanda parece tener más chimeneas que Bristol y, en consecuencia, más gente”, escribió William Petty al inicio de un ensayo sobre “aritmética política” en la década de 1680 para estimar poblaciones.

Hoy en día, las economías desarrolladas gastan miles de millones de dólares al año para producir indicadores económicos y sociales fiables. Para los sumos sacerdotes y sacerdotisas de la métrica oficial, es una vocación sagrada, una marca de civilización. “El conocimiento es poder: la estadística es democracia”, afirmó célebremente Olavi Niitamo, quien dirigió Statistics Finland de 1979 a 1992.

Los datos son solo una simulación de lo que pretenden cuantificar, calificar y registrar. Es una abstracción, nunca la cosa en sí, igual que un mapa no es territorio y una simulación meteorológica no te moja. Los datos contienen un “cociente de información” de lo que representan. A medida que cambia el mundo, también deben hacerlo las estadísticas con las que los científicos sociales miden al hombre. A pesar de que los filósofos mundanos adoptaron métodos más serios para establecer una ciencia desastrosa, todavía se utilizan proxies informales y extrapolaciones.

Anécdatos

Alan Greenspan, presidente de la Reserva Federal de 1987 a 2006, es famoso por abrazar la “anécdata” —una mezcla entre anécdota y datos— para adelantarse sobre los indicadores oficiales. Como joven economista, entre los datos que analizó estaban las ventas de ropa interior masculina. En su razonamiento, es un indicador económico: el tipo de cosas que la gente reduce cuando se aprietan los cinturones.

Sus sucesores en la Fed siguieron su ejemplo. Al inicio de la crisis financiera de 2008, pocos días después del colapso de Lehman Brothers, Janet Yellen, entonces presidenta del Banco de la Reserva Federal de San Francisco, advirtió sobre una fuerte recesión económica durante una reunión del Comité Federal de Mercado Abierto. “Los cirujanos plásticos y dentistas del East Bay señalan que los pacientes están posponiendo procedimientos electivos”, informó, según las transcripciones publicadas cinco años después. “Ya no es necesario reservar en muchos restaurantes de alta gama.” Sus compañeros se rieron.

¿Cómo le fue a la agencia estadística? En el cuarto trimestre de 2008, la primera cifra publicada para Estados Unidos fue una caída del PIB del 3,8 por ciento. Ese valor se revisó rápidamente un mes después a una caída del 6,2 por ciento. En la revisión final, en julio de 2011, se recalculó como una caída del 8,9 por ciento—la mayor revisión a la baja del PIB registrada y más del doble de lo que se había reportado inicialmente. Quizá indicadores alternativos habrían ayudado.

Las nuevas fuentes de datos podrían haber hecho un trabajo más rápido y mejor que los indicadores existentes, y con más detalle. Por ejemplo, ADP, la empresa de nóminas, podría haber detectado una disminución de nuevos empleados y una desaceleración en los aumentos salariales. Las búsquedas en Google relacionadas con la compra de viviendas pueden haberse ralentizado drásticamente. Del mismo modo, sitios profesionales de ofertas de empleo como LinkedIn e Indeed tienen una perspectiva sobre los anuncios de reclutamiento, no solo los que se publican, sino también los que se retiran. (Esos datos los utilizan los inversores porque son un predictor temprano de tambaleos empresariales y rebajas de los analistas, y por tanto de precios de las acciones.)

Herramienta para la transparencia

Durante las crisis, las métricas oficiales pueden fallar debido a retrasos en la notificación. Los datos alternativos prosperaron al inicio de la pandemia de COVID-19. El GPS en los teléfonos Apple y Android detectó una disminución en las visitas a los minoristas y reveló qué lugares desobedecieron las órdenes de confinamiento. Del mismo modo, durante el cierre del gobierno estadounidense en octubre de 2025, las agencias estadísticas no pudieron publicar datos, por lo que el sector privado cubrió la brecha. Las tendencias de empleo fueron proporcionadas por ADP y Carlyle, un fondo de capital privado que gestiona 277 empresas con 730.000 empleados.

Los datos alternativos hacen que los gobiernos rindan cuentas. Los datos oficiales de inflación de Argentina se volvieron tan ridículos a principios de la década de 2010 que The Economist utilizó en su lugar cifras de PriceStats, una empresa fundada por dos economistas de la Harvard Business School y el Instituto Tecnológico de Massachusetts. Sigue los cambios en 800.000 precios diarios entre 40 millones de productos en 25 economías. Mientras se plantean preguntas sobre la integridad de los datos estadounidenses tras el despido del presidente Donald Trump en agosto de 2025, tras un informe negativo sobre empleo, los datos alternativos pueden ser una herramienta independiente para la transparencia.

La explosión de nuevas fuentes y técnicas de datos es especialmente importante en las economías en desarrollo, que carecen de la capacidad institucional, los fondos, las habilidades y la voluntad política para recopilar, analizar e informar estadísticas. Con pensamiento creativo, los datos del sector privado pueden ser transformadores. Por ejemplo, muchas economías en desarrollo no pueden permitirse equipamiento meteorológico en zonas remotas para medir eventos meteorológicos como las precipitaciones, y así avisar con antelación de inundaciones. Pero los operadores móviles tienen torres de telefonía móvil por todo el campo. Estas torres se comunican constantemente entre sí para obtener información de red y para transferir el tráfico. Sin embargo, la intensidad de la señal se debilita con la lluvia, lo que los hace útiles para medir la precipitación. Se necesita más originalidad para superar las lagunas de datos en lugares pobres.

Sin embargo, crear indicadores más precisos, granulares y oportunos significa poco si no hay forma de usarlos eficazmente. “A menos que aumentemos simultáneamente la velocidad de implementación, el ‘big data’ tiene una utilidad limitada”, dijo Greenspan en una entrevista que realicé por correo electrónico en 2014.

Un mundo feliz

Además, lo que está en juego es incluso mayor que la necesidad de mejorar lo que existe o de cubrir carencias conocidas. La dataficación de actividades que nunca se han transformado en forma de datos ofrece una oportunidad única para aprender cosas nuevas sobre el mundo. La sociedad está apenas al inicio de una gran transformación en la comprensión.

Una dimensión temprana de esta transformación es el “gráfico económico” de LinkedIn. Mide las actividades laborales de 1.200 millones de personas, 67 millones de empresas, 15 millones de empleos, 41.000 habilidades y 133.000 escuelas. Muchos países la utilizan para responder preguntas como “¿Qué habilidades crecen más rápido, qué lugares ganan y pierden empleos, qué dificultad tienen las transiciones a mitad de carrera por ocupación y en qué industrias y países hay mujeres en puestos de liderazgo más alto?” Esta información nunca pudo ser rastreada, analizada ni comparada hasta ahora.

Aunque un análisis tan profundo de la información personal de las personas pueda parecer amenazar la privacidad, no es necesario que lo haga. Las técnicas avanzadas de procesamiento de datos —con nombres de generación espacial como aprendizaje federado, cifrado homomórfico, computación multipartidista segura y privacidad diferencial— permiten el análisis de datos cifrados, por lo que el registro real no es visible para el procesador de datos. El sistema aún está en pañales porque es difícil de llevar. Pero las empresas y las oficinas estadísticas ya están experimentando con ello.

Por supuesto, existen límites para usar “datos en la naturaleza” corporativa. A menudo se presenta en forma de agotamiento de datos, es decir, generados como un subproducto de las actividades comerciales habituales de una empresa. Por tanto, contendrá los sesgos de ese entorno. Las firmas de Carlyle aceptaban un propietario de capital privado (así que quizás no eran las más fuertes); Probablemente LinkedIn tenga más profesionales que miembros de clase trabajadora (así que quizá sea más adinerado); ADP guarda silencio sobre la economía gris de niñeras, limpiadoras de casas, lavadoras de coches y similares (cuyas cifras pueden ser señales aún más fuertes de salud económica).

Además, no se puede confiar completamente en los alt-data si no siempre existen. Por ejemplo, la empresa estadounidense de software Intuit produjo un índice de pequeñas empresas basado en datos agregados de su software contable QuickBooks. Pero en 2015 suspendió los informes, antes de relanzarlos con una metodología diferente y más robusta en 2023. Así que el futuro no se basará únicamente en datos alternativos, sino en fuentes oficiales y no oficiales complementarias. Aun así, este es un mundo nuevo y valiente.

Métricas modernas

Y eso nos lleva de nuevo a la resonancia. La imagen por resonancia magnética data de 1974, cuando fue patentada por Raymond Damadian de la Universidad Estatal de Nueva York como un método no invasivo para detectar el cáncer. Ese mismo año marcó una recesión brutal en Estados Unidos, que inspiró a un economista de la Universidad de Yale y exasesor de la Casa Blanca, Arthur Okun, a crear un nuevo indicador para tener en cuenta su impacto en los individuos, y no en la unidad abstracta de la economía en su conjunto.

Su Índice de Malestar Económico —más tarde apodado el “índice de la miseria”— se convirtió en un elemento básico de la política estadounidense. Ronald Reagan la utilizó para derrotar al presidente Jimmy Carter en la presidencia en 1980. Pero simplemente es la suma de las tasas de desempleo e inflación. Es fácil imaginar una métrica moderna para la era de la IA.

Recopilaría todas las formas en que la gente podría expresar su miseria, desde cambios en los patrones de gasto—no comprar menos cosas (una cifra contundente), sino pasar realmente de comer filete a ramen. Igualmente, facturas de servicios no pagadas y pagos atrasados del coche. Luego, incidentes de ira al volante, conducción errática y choques de golpes, no en conjunto, sino rastreados hasta la persona. Los Apple Watch pueden controlar la calidad del sueño y el estrés durante el día. Las cámaras de circuito cerrado de televisión en calles, tiendas y oficinas que cuentan con capacidad de reconocimiento facial pueden grabar las emociones de las personas. Los inodoros con biosensores pueden rastrear los niveles hormonales de los usuarios, como el cortisol y la epinefrina, que se disparan en momentos de ansiedad.

Esto se acerca más a la verdad terrenal que se puede encontrar. Estas estadísticas de ciencia ficción probablemente parezcan a muchos una verdadera miseria: las implicaciones para la privacidad son aterradoras, incluso si los datos, en teoría, podrían ser anonimizados. Con tal información, ¿no tiene el Estado el deber de intervenir para ayudar a los individuos y proteger a la sociedad? “Después de tal conocimiento, ¿qué perdón?” lamentó T. S. Eliot.

Esos datos alternativos no ocurrirán pronto, si es que alguna vez ocurren. Los paradigmas cambian un funeral a la vez. Y un “techlash” está ganando fuerza a medida que el público se vuelve cauteloso con el uso descontrolado de datos y el optimismo de los primeros tiempos de internet disminuye. Idealmente, los científicos sociales de hoy tienen el cuidado, la ética y la flexibilidad mental para aprovechar lo mejor de la IA y el big data y evitar sus carencias. Al fin y al cabo, los radiólogos ya no necesitan la vista “clásica” para las resonancias magnéticas.

KENNETH CUKIER es subeditor ejecutivo de The Economist y coautor de varios libros sobre datos y sociedad.

Compartí esta noticia !

Es hora de modernizar las medidas de crecimiento

Compartí esta noticia !

Escribe Rebecca Riley / F&D FMI – Las evaluaciones de las economías mundiales pueden estar equivocadas en billones de dólares. Las métricas existentes como el PIB, los precios al consumidor, la productividad y similares están luchando por igualar el rápido ritmo de cambio en tecnología, modelos de negocio y comportamiento del consumidor en la economía actual basada en datos. Se necesita una innovación continua en los sistemas de medición de crecimiento para evitar una brecha creciente entre lo que se mide y la nueva y cada vez más diversa realidad económica que vivimos.

Sin información precisa sobre el verdadero estado de la economía, los responsables de la política económica quedarán en la oscuridad, sin saber cuándo pisar el acelerador para contrarrestar una recesión o frenar para frenar la inflación. Sin información detallada sobre la estructura de la economía, no pueden saber cómo promover mejor el crecimiento económico para todos. Esto resulta más que extraño en un mundo digital caracterizado por abundantes datos nuevos que podrían ayudar a monitorizar la economía y a guiar la acción de banqueros centrales, fiscales y responsables de la política económica en general.

Es hora de replantear la infraestructura crítica de las estadísticas económicas clave. Esto significa que nuestros conceptos económicos deben adaptarse a los tiempos cambiantes, desarrollando datos y métodos para medir estos conceptos e integrándolos en la producción de datos económicos fundamentales. También significa acceder a nuevas fuentes de información.

Por muy prometedor que parezca, es importante reconocer los importantes obstáculos para aprovechar nuevas fuentes de datos y desarrollar estadísticas económicas significativas y fiables. Y, sin embargo, como demuestran muchos avances ya logrados, superar los obstáculos promete beneficios reales en forma de una mejor formulación de políticas económicas.

La economía reconfigurada

Los responsables de la toma de decisiones se basan en estadísticas económicas para proporcionar un mapa de la economía. Las agencias estadísticas nacionales elaboran los principales informes económicos de las naciones basándose en conceptos articulados en el Sistema de Cuentas Nacionales de las Naciones Unidas (SNA), el referente global. De manera similar, la medición de la inflación se guía por el manual de precios al consumidor del FMI. Las estadísticas económicas resultantes se incluyen en las políticas oficiales y sustentan las evaluaciones de políticas y las previsiones presupuestarias. Estas estadísticas también guían la política de tipos de interés y los ajustes a los pagos de bienestar y los contratos comerciales.

La economía digital basada en los datos ha transformado la forma en que producimos bienes y servicios y cómo los consumimos. En esencia, los avances tecnológicos han reconfigurado nuestra economía, pero hemos sido lentos en reconfigurar nuestras estadísticas económicas, lo que deja enormes puntos ciegos para los responsables de la toma de decisiones.

No hace falta mucho para captar la desconexión. Productores y consumidores utilizan tecnologías digitales basadas en datos a diario para crear productos y servicios nuevos y mejorados, como aplicaciones de transporte compartido, plataformas de redes sociales, software mejorado con IA y mercados online. Las mayores empresas del mundo por capitalización bursátil son casi exclusivamente empresas tecnológicas globales que dependen de los datos. Gran parte de esta nueva actividad económica no se contabiliza o es invisible en las métricas económicas.

Por ejemplo, una característica distintiva de la economía digital basada en datos es su dependencia de intangibles como el software, las bases de datos de marketing y el “capital organizacional” de las empresas (la estructura, los procesos y la cultura que les permiten operar de forma eficiente). En muchas economías avanzadas, las empresas invierten al menos tanto en intangibles como en edificios y fábricas, lo que sin duda asciende a cientos de miles de millones de dólares y probablemente a billones.

Pero las medidas oficiales de productividad y PIB no reflejan completamente estos intangibles. La economista del Conference Board Carol Corrado y sus colegas de investigación estiman que la mitad de las inversiones intangibles en economías avanzadas son, esencialmente, inversiones en datos que las cuentas económicas apenas están empezando a incluir como parte de una actualización del SNA este año. Estos añadirían sustancialmente a nuestra comprensión de los factores que impulsan el crecimiento de la productividad.

La creciente importancia de la inversión intangible, junto con la globalización de la producción, plantea un conjunto separado de dificultades para medir la producción nacional. Por ejemplo, el uso de bienes intangibles por parte de empresas multinacionales ha provocado el traslado de beneficios para minimizar las obligaciones fiscales, trasladando la propiedad intelectual y los ingresos a países con bajos impuestos. Esto puede dar lugar a que los insumos de producción se cuenten en un país mientras que los ingresos asociados se contabilizan en otro.

Agregados macroeconómicos

Los investigadores han demostrado la importancia de estos temas para agregados macroeconómicos como el PIB, las balanzas comerciales y la productividad al redistribuir la producción de las multinacionales entre países en línea con el empleo o las ventas. En algunas economías pequeñas y abiertas, como Irlanda y Dinamarca, las agencias estadísticas recurren cada vez más a un conjunto más amplio de datos para trazar una imagen de la salud económica, complementando el PIB con otros agregados e indicadores de cuentas nacionales menos sensibles a los efectos de la globalización.

Los cálculos del PIB real y del consumo real de los hogares son una base para estimar los cambios en el nivel medio de vida material. Los aumentos en el PIB real pretenden captar las ganancias en la cantidad y calidad de bienes y servicios, más que solo aumentos en el valor monetario. Pero medir la calidad de los productos es notoriamente esquivo, especialmente cuando la innovación rápida conduce a productos nuevos o mejorados que sustituyen a los antiguos.

Consideremos, por ejemplo, las industrias de servicios de información y comunicaciones. Dependen en gran medida de los datos y las tecnologías digitales, y esperamos que registren un crecimiento fuerte y impulsado por la innovación. Y, sin embargo, la productividad medida en esos sectores se estancó sustancialmente en varias economías avanzadas durante la década posterior a la crisis financiera de 2008, contribuyendo a una desaceleración del crecimiento global.

Una investigación del economista Richard Heys de la Oficina Nacional de Estadísticas del Reino Unido, en colaboración con ingenieros y académicos, condujo en 2021 a un nuevo enfoque. La investigación sugiere que el crecimiento real en la industria de las telecomunicaciones estuvo más en línea con lo esperado debido a una fuerte caída en los precios ajustados por calidad. Este hallazgo, implementado junto con otros avances metodológicos, recortó un cuarto de punto porcentual la desaceleración estimada del crecimiento de la productividad en el Reino Unido durante esa década. Las agencias estadísticas nacionales han adoptado una variedad de enfoques para ajustar las mejoras de calidad en productos digitales, lo que ha afectado el equilibrio entre la inflación medida y el crecimiento económico dentro de los países, así como la comparabilidad de estas estadísticas entre países.

El reto de medir con precisión la calidad de la producción adquiere un giro particular en un mundo digital basado en datos. Muchos servicios digitales se consumen esencialmente de forma gratuita y, por tanto, simplemente no se cuentan en el consumo doméstico. Por ejemplo, los consumidores utilizan motores de búsqueda, redes sociales y software de código abierto sin coste monetario. Pero el valor de estos servicios digitales está lejos de ser nulo, según experimentos que preguntan a los consumidores cuánto estarían dispuestos a pagar por ellos.

Paul Schreyer, de la Organización para la Cooperación y el Desarrollo Económicos, desarrolló una forma de conceptualizar estos servicios. Incluye el uso de las redes sociales como insuyo para servicios de ocio habilitados digitalmente e incorpora ese valor a una mayor medida de actividad económica. Las estimaciones experimentales sugieren que el valor nominal de los servicios digitales de ocio producidos por los hogares es elevado. Investigaciones preliminares sobre el Reino Unido lo sitúan en el 8 por ciento del PIB nominal.

Los hogares también utilizan servicios digitales gratuitos para realizar actividades que antes podrían haber tenido lugar en la economía de mercado, donde se contarían en el PIB, como organizar los viajes. Otra actividad es la producción voluntaria en el hogar de software y material de asesoramiento. Una evaluación precisa de la magnitud de este tipo de actividad requiere buena información sobre el uso del tiempo por parte de los hogares.

Aprovechamiento de nuevos datos

La economía, rica en datos, necesita estadísticas económicas reconfiguradas para reflejar nuevas realidades. Una actualización del SNA este año —la primera desde 2008— es un esfuerzo bienvenido que busca captar mejor los desarrollos macroeconómicos, como la digitalización y la globalización, teniendo en cuenta la sostenibilidad y el bienestar medioambiental.

Pero hay otro conjunto de desafíos. La economía actual ofrece una serie de oportunidades en forma de nuevos datos recogidos a través de la interacción de las personas con sistemas digitales. Estos podrían ayudar a que las estadísticas económicas sean más actuales, precisas y detalladas. Para lograrlo, sin embargo, se requerirán capacidades significativamente ampliadas y potencialmente elevados costes iniciales en un entorno de recursos limitados e incentivos en competencia.

Dirigir nuevas fuentes de datos hacia el bien público puede requerir acuerdos de intercambio de datos o cambios legislativos, inversión en tecnologías para el procesamiento de datos e instituciones de confianza. Nuevas formas de datos que proporcionan estadísticas económicas significativas y fiables exigen inversión en el desarrollo de nuevos métodos económicos y estadísticos, pruebas de concepto y métodos de exploración de datos.

Esto ya está ocurriendo con los índices de precios al consumidor, que son algunos de los indicadores de inflación más seguidos. Tradicionalmente, las agencias gubernamentales elaboran estos índices utilizando datos obtenidos del seguimiento de precios de los minoristas y mediante encuestas a los consumidores sobre el gasto. Esto es caro. También se está volviendo más difícil a medida que la gente está menos dispuesta a responder a las encuestas.

Sin embargo, el aumento del uso de códigos de barras y escáneres por parte de los minoristas y la prevalencia de los datos en línea están cambiando las reglas del juego. Durante la última década, las agencias estadísticas de Países Bajos, Australia y Canadá han incorporado gradualmente datos de puntos de venta en los índices de precios al consumidor. La agencia estadística del Reino Unido también está avanzando en este ámbito. La recopilación de estos datos permite una medición de la inflación más oportuna y precisa; Además, estos avances también pueden permitir a las agencias estadísticas captar mejor las experiencias de los consumidores en diferentes partes del país y en distintos niveles de ingresos. Detrás de estos avances se sustenta una avalancha de avances técnicos en el manejo de datos a gran escala e intrínsecamente caóticos, como ilustran Kevin Fox y sus colegas de la Universidad de Nueva Gales del Sur y el Centro de Excelencia en Estadísticas Económicas del Reino Unido.

Uno de los principales beneficios de los datos del sector privado para cartografiar y seguir la economía es el potencial de mejorar la puntualidad y granularidad de los indicadores económicos. Esto fue especialmente evidente durante la pandemia. Había demanda de evidencia de alta frecuencia sobre desarrollos económicos tanto a nivel nacional como local. Las agencias estadísticas y los investigadores adoptaron los datos del sector privado para satisfacer esa demanda. En parte compensan los beneficios el ruido estadístico, la posibilidad de doble recuento y muestras insuficientes que podrían ocultar señales económicas.

Los investigadores han explorado estos problemas comparando datos del sector privado con estadísticas nacionales representativas, destacando los ajustes necesarios y el valor añadido por fuentes de datos complementarias. Otros han destacado los beneficios de los datos administrativos y de encuestas vinculados, así como el potencial de las encuestas asistidas por IA. La producción de estadísticas económicas clave probablemente se basará cada vez más en una variedad de fuentes de datos del sector privado, sistemas administrativos públicos y encuestas, en un enfoque mixto impulsado por agencias nacionales.

El camino a seguir

Es hora de reforzar la inversión en nuestra infraestructura de estadísticas económicas. Podemos estar perdiendo la capacidad de monitorizar la economía y tomar decisiones informadas porque billones de dólares en actividad económica pueden estar sin medir o medir con un detalle insuficiente. No debe subestimarse la importancia de abordar este asunto, y tampoco los desafíos.

Los obstáculos incluyen superar la inercia burocrática, financiar la reforma de los sistemas contables económicos y llevar a cabo acciones coordinadas. Si no avanzamos en estadísticas fiables producidas por agencias nacionales con rigor estadístico de manera responsable y transparente —con imparcialidad y acceso igualitario— habrá mucho ruido para cubrir el vacío en el mundo actual tan rico en datos.

¿Qué podría deparar? La revisión de 2025 del SNA y las actualizaciones del manual de balanza de pagos del FMI son un punto de partida y serán más eficaces si se implementan ampliamente por agencias estadísticas de todo el mundo. Pero los problemas implicados sugieren que no se puede esperar que las agencias estadísticas resuelvan los problemas por sí mismas. La pandemia de COVID-19 nos mostró lo que se puede lograr mediante la coordinación y el liderazgo. El avance de las estadísticas económicas en una economía digital y rica en datos exige la colaboración entre los propietarios de datos del sector público y privado, así como entre agencias gubernamentales, respaldada por marcos legales y técnicos. También es necesaria la colaboración entre agencias estadísticas internacionales y con académicos universitarios.

Parte de esto ocurre en los márgenes. Ejemplos incluyen el Centro de Excelencia en Estadísticas Económicas del King’s College London, establecido por la Oficina de Estadísticas Nacionales del Reino Unido; el Instituto de Investigación en Medición Económica en la Oficina Nacional de Investigación Económica en EE. UU.; el trabajo del Centro de Investigación Económica Aplicada de la Universidad de Nueva Gales del Sur en Australia; y la cátedra de Medición en Economía en la Escuela de Economía de París, apoyada por la agencia nacional de estadística, en Francia. Economistas y estadísticos harían bien en adoptar esa colaboración.

REBECCA RILEY es profesora de práctica económica en King’s Business School, King’s College London, y directora del Economic Statistics Centre of Excellence.

Referencias:

Abdirahman, M., D. Coyle, R. Heys y W. Stewart. 2020. “Una comparación de deflactores para la salida de servicios de telecomunicaciones.” Economie et Statistique/Economics and Statistics 517-518-519: 103–22.

Corrado, C., J. Haskel, M. Iommi y C. Jona-Lasinio. 2022. “Midiendo los datos como activo: marco, métodos y estimaciones preliminares.” Documento de trabajo del Departamento de Economía de la OCDE 1731, Organización para la Cooperación y el Desarrollo Económicos, París.

Fox, K. J., P. Levell y M. O’Connell. 2025. “Medición de la inflación con datos de alta frecuencia.” Revista de Estadísticas Empresariales y Económicas. DOI: 10.1080/07350015.2025.2537392.

Schreyer, P. 2022. “Contabilizando los servicios digitales gratuitos y la producción doméstica: una aplicación para Facebook (Meta).” Eurostat Review on National Accounts and Macroeconomic Indicators (EURONA): 7–26.

Compartí esta noticia !

Bots que roban datos y hunden ventas: el nuevo desafío digital para las empresas de América Latina

Compartí esta noticia !

El nuevo informe State of the Internet (SOTI) de Akamai Technologies) expuso un fenómeno que inquieta a las empresas digitales de todo el mundo: el crecimiento explosivo del tráfico automatizado generado por bots basados en inteligencia artificial (IA). En apenas un año, su actividad aumentó un 300%, según el Informe sobre fraude y abuso 2025 publicado por la compañía de ciberseguridad y cloud computing.

Este incremento no solo representa un desafío técnico, sino también económico. Los bots de IA ejecutan miles de millones de solicitudes diarias, distorsionan los análisis digitales y perjudican las decisiones comerciales. Actualmente, estos bots representan casi el 1% del tráfico total dentro de la plataforma de Akamai.

El aumento del scraping de contenido explica gran parte de este crecimiento. Los bots extraen información de sitios web sin autorización, afectando la rentabilidad de los modelos de negocio online. Esta práctica provoca caídas de ingresos y análisis corruptos, ya que los bots toman lo que buscan sin aportar ningún beneficio a las compañías.

Email - Envío de email - Ecommerce
Email – Envío de email – Ecommerce

Latinoamérica, entre las regiones más afectadas

El informe detalla que el sector del comercio encabeza la actividad de bots de IA a nivel global, con más de 25 mil millones de solicitudes registradas en apenas dos meses. En Latinoamérica, la tendencia se repite: el comercio lidera con 468 millones de activaciones, seguido por los servicios financieros (83 millones) y el sector público (40 millones). Dentro del comercio, los minoristas concentran el 95% de las activaciones, una cifra que refleja el nivel de exposición del comercio electrónico en la región.

Si bien algunas de estas herramientas automatizadas cumplen funciones útiles —como facilitar la indexación de motores de búsqueda o mejorar la accesibilidad—, otras se diseñan con fines fraudulentos. Entre las más peligrosas se encuentran FraudGPT y WormGPT, junto con bots de fraude publicitario y de devolución, que aumentan los costos operativos y degradan el rendimiento de los sitios.

El impacto no se limita al comercio. A nivel mundial, el sector sanitario se convirtió en el principal foco de actividad de bots de IA. Más del 90% de los activadores provienen del scraping realizado por bots que buscan información médica o entrenan modelos de IA.

El sector editorial, bajo la lupa de los bots

Dentro de los medios digitales, la industria editorial aparece como la más afectada. Según Akamai, concentra el 63% de los activadores de bots de IA en su categoría. Estas automatizaciones copian y reutilizan grandes volúmenes de contenido, lo que genera pérdidas de tráfico legítimo y afecta la visibilidad de los medios en buscadores.

Sin embargo, en Latinoamérica, el impacto sobre la industria editorial aún es limitado. La adopción más lenta de modelos de IA en medios locales explica en parte esta diferencia, aunque los especialistas advierten que la región no está exenta de riesgos a medida que crece el uso de herramientas automatizadas de generación de texto e imágenes.

Los bots de IA también se utilizan para campañas de phishingsuplantación de identidad e ingeniería social, aprovechando la facilidad con la que las herramientas generativas crean fotos o documentos falsos. Estas técnicas dificultan la detección de fraudes y amplían la superficie de ataque para los ciberdelincuentes.

Tienda ecommerce.

Cómo achicar los riesgos del tráfico automatizado

Frente a este escenario, Akamai advierte que las organizaciones deben actuar rápido para mitigar los efectos del tráfico malicioso. Jairo Parra, experto en ciberseguridad de la compañía para Latinoamérica, destacó que “los bots de IA optimizan las operaciones empresariales, pero también generan nuevos riesgos. Para poder aprovecharlos de forma segura, las organizaciones de todo el mundo y de Latinoamérica deben aplicar una estrategia integral que combine controles técnicos, políticas claras y supervisión continua”.

El informe de Akamai propone varias recomendaciones para enfrentar esta nueva ola de automatización:

  • Gestión basada en riesgos: supervisar y clasificar el tráfico de bots para identificar cuáles son legítimos y cuáles no, reduciendo fraudes y abusos.
  • Supervisión de scrapers de IA: analizar su comportamiento y el impacto comercial para definir respuestas adecuadas, como permitir, vigilar o bloquear.
  • Controles de seguridad específicos para IA: implementar firewalls adaptados a modelos de lenguaje (LLM) y sistemas de IA para prevenir ataques por prompt, fugas de datos o manipulación de modelos.
  • Aplicación de marcos de trabajo reconocidos: usar guías como OWASP API Security Top 10 para priorizar vulnerabilidades críticas.
  • Seguridad en API: integrar la protección desde el diseño hasta la operación, con herramientas que detecten API ocultas o no monitorizadas.

“En conjunto, estas medidas permiten a las empresas aprovechar la automatización basada en IA sin comprometer la seguridad, el cumplimiento normativo o la resiliencia operativa”, añadió Parra.

Para Rupesh Chokshi, vicepresidente sénior y director general de seguridad de aplicaciones de Akamai, la problemática ya trascendió el ámbito técnico. “El aumento de los bots de IA ha pasado de ser una preocupación del equipo de seguridad a ser el gran tema de los ejecutivos. Hay que actuar ya para crear marcos que garanticen la adopción segura de la IA, gestionar los riesgos en evolución y proteger las operaciones digitales”, afirmó.

El mensaje de Akamai es claro: la automatización impulsada por IA puede mejorar la eficiencia empresarial, pero sin una estrategia sólida de seguridad, el costo de su uso descontrolado puede ser demasiado alto para los negocios digitales.

Compartí esta noticia !

La economía del minimalismo digital: menos datos, más valor

Compartí esta noticia !

Durante años, el crecimiento de las plataformas digitales estuvo guiado por una lógica de acumulación: más usuarios, más clics, más datos. Pero en la actualidad, una nueva corriente comienza a ganar terreno, tanto en términos de diseño como de estrategia económica: el minimalismo digital. Esta tendencia no se limita a lo estético; implica un cambio profundo en cómo se concibe el valor, el tiempo y la atención en el entorno digital.

En lugar de ofrecer todo al mismo tiempo, el minimalismo apuesta por estructuras más simples, funciones más claras y experiencias más centradas. El objetivo no es reducir la tecnología, sino eliminar el exceso que interfiere en el verdadero propósito de uso. En términos económicos, esto significa redefinir el rendimiento: menos acciones, pero más efectivas.

Interfaces limpias, decisiones rápidas

La saturación de estímulos digitales ha demostrado tener un costo real: fatiga cognitiva, abandono de plataformas, baja retención. Por eso, muchas empresas están rediseñando sus entornos digitales bajo principios minimalistas: menos botones, menos pasos, más claridad. Este enfoque no solo mejora la experiencia del usuario, sino que también impacta directamente en los indicadores de conversión y eficiencia.

Aplicaciones financieras, servicios de suscripción e incluso tiendas de comercio electrónico están adoptando esta lógica. Se prioriza lo esencial, se jerarquiza la información y se apuesta por la calidad del flujo antes que por la cantidad de opciones. En un mundo de sobreinformación, la simplicidad se convierte en valor económico.

El impacto en el modelo de negocios digital

El minimalismo también influye en los modelos de negocio. Plataformas que antes dependían de una multiplicidad de funciones ahora encuentran rentabilidad en la especialización. Ofrecer una sola solución bien diseñada puede ser más lucrativo que saturar de herramientas redundantes.

Esto ha dado lugar al auge de los llamados “productos concentrados”: servicios que se centran en resolver un único problema de forma eficaz. La fidelización del cliente se logra a través de la confianza y la coherencia, no por la complejidad.

Ejemplos que combinan diseño y economía de atención

Un caso representativo de esta tendencia es el uso de entornos digitales que apelan a la simplicidad visual como forma de mantener la atención del usuario. Plataformas como Fortune Mouse han desarrollado interfaces centradas en la fluidez visual, el orden y la predictibilidad del diseño. Aunque su estética parece sencilla, responde a una estrategia intencional que busca reducir la fricción y aumentar la permanencia del usuario en el entorno. Cada elemento tiene una función, cada imagen una razón.

Esta estrategia demuestra que el diseño minimalista puede ser económicamente rentable. Al reducir la carga cognitiva, el usuario toma decisiones más rápidas, se siente más cómodo y, en muchos casos, regresa con mayor frecuencia.

Menos datos, más privacidad

Otra dimensión clave del minimalismo digital es la gestión de los datos personales. Mientras que muchas plataformas acumulan grandes volúmenes de información del usuario, los modelos minimalistas proponen una recolección selectiva, transparente y centrada en el consentimiento.

Este enfoque responde no solo a nuevas normativas legales, sino a una creciente conciencia del usuario respecto a la privacidad. Las empresas que logren ofrecer valor sin invadir la intimidad serán percibidas como más confiables, lo cual tiene un impacto directo en la lealtad del cliente y la reputación de marca.

Nuevas métricas de éxito

En lugar de medir únicamente tráfico o volumen de interacción, los entornos digitales minimalistas evalúan la calidad del engagement. Se presta atención a métricas como la duración media de las sesiones, la tasa de finalización de procesos o la claridad en los recorridos de usuario.

Estas métricas cualitativas reflejan mejor el impacto real de una plataforma y permiten optimizar recursos. Desde un punto de vista económico, permiten una mejor asignación presupuestaria en desarrollo, diseño y marketing.

El minimalismo como estrategia de diferenciación

En un ecosistema digital donde muchas plataformas compiten por la atención del usuario, el minimalismo puede funcionar como una ventaja competitiva. La simplicidad bien ejecutada genera confianza, reduce errores, facilita el aprendizaje y mejora la accesibilidad.

Además, este enfoque puede ser replicado en distintas áreas del negocio: desde la estructura organizativa interna hasta las campañas de comunicación y el servicio al cliente. El minimalismo no es sinónimo de carencia, sino de foco. En tiempos de saturación digital, eso puede traducirse en rentabilidad sostenida.

Compartí esta noticia !

Categorías

Solverwp- WordPress Theme and Plugin