INTELIGENCIA ARTIFICAL

El FMI alerta que la IA podría ocasionar un “shock sistémico” en el sector financiero

Compartí esta noticia !

Los últimos modelos de IA plantean un riesgo de “fallos correlacionados” que podrían afectar al sector financiero a nivel sistémico, según el FMI, que insta a las autoridades a prepararse para afrontar una brecha de seguridad “inevitable”.

El FMI advirtió que las capacidades de los nuevos modelos de IA “elevan el riesgo cibernético a un potencial shock a nivel macrofinanciero”.

La alerta del FMI subraya la creciente preocupación de los reguladores ante el potencial de Claude Mythos de Anthropic y otros modelos de IA desarrollados por empresas tecnológicas estadounidenses para amenazar al sistema bancario mundial al quedar expuestas las vulnerabilidades de las defensas cibernéticas de las entidades financieras. “Los modelos avanzados de IA pueden reducir drásticamente el tiempo y el costo necesarios para detectar y explotar vulnerabilidades, aumentando la probabilidad de descubrir y atacar simultáneamente las debilidades en sistemas de uso generalizado”, advirtieron altos funcionarios del FMI en un blog publicado el jueves.

“Como resultado, el riesgo cibernético se centra cada vez más en fallos correlacionados que podrían perturbar la intermediación financiera, los pagos y la confianza a nivel sistémico”, afirmaron, añadiendo que el reciente lanzamiento controlado de Mythos “subrayó la rapidez con la que aumentan los riesgos”.

Anthropic declaró el mes pasado que Mythos había “encontrado miles de vulnerabilidades, incluidas algunas en todos los principales sistemas operativos y navegadores web”. Añadió que “las consecuencias —para las economías, la seguridad pública y la seguridad nacional— podrían ser graves”.

Anthropic tiene previsto implementar Mythos paulatinamente, tras su lanzamiento a un pequeño grupo de 40 organizaciones, en su mayoría estadounidenses, para que puedan corregir las vulnerabilidades que encuentre. Esto incluye a Amazon y Microsoft, así como a grandes bancos como JPMorgan Chase.

El lanzamiento limitado ha permitido a algunas empresas recibir más parches, correcciones técnicas que subsanan las vulnerabilidades detectadas por Mythos. Sin embargo, muchos bancos y grupos financieros fuera de Estados Unidos se han quedado sin acceso al nuevo modelo de IA, lo que genera inquietud por la desigualdad en los niveles de protección.

Francisco Marotta
Las empresas que tienen acceso a la nueva herramienta del grupo de San Francisco declararon hace poco a Financial Times que que la acción conjunta “entre los sectores público y privado” era esencial para apoyar a los hospitales, bancos y empresas de servicios públicos vulnerables a las amenazas que la herramienta había descubierto.

En su primera publicación sobre la creciente amenaza a la ciberseguridad que representan los últimos modelos de IA, el FMI instó a las autoridades a mejorar la cooperación a nivel internacional.

“El riesgo cibernético no entiende de fronteras. Los países emergentes y en desarrollo, que a menudo tienen mayores limitaciones de recursos, pueden estar desproporcionadamente expuestos a ataques dirigidos a regiones con defensas más débiles“, sentenció el organismo.

Añadió que “los ataques se vuelven más peligrosos cuando el descubrimiento y la explotación se propagan rápidamente, con implicaciones para la estabilidad financiera”.

El FMI, que puso en duda la capacidad del sistema financiero para resistir un ciberataque importante impulsado por la última tecnología de IA, declaró que “si varias instituciones se ven afectadas simultáneamente, podrían producirse efectos en la confianza, interrupciones en los pagos, problemas de liquidez y ventas forzadas”.

Skorzewiak/Shutterstock
Según el blog, dado que muchas entidades financieras utilizan el mismo software y proveedores de servicios compartidos, los modelos de IA podrían “dar lugar a vulnerabilidades simultáneas en numerosas instituciones”.

El software financiero es “más difícil de atacar que la infraestructura de código abierto”, afirmó el FMI. Sin embargo, añadió que esta seguridad “probablemente no tardará en perder efecto a medida que se amplíe la capacitación en modelos, se difundan las capacidades y se produzcan filtraciones”.

“Las defensas inevitablemente se verán vulneradas, por lo que la resiliencia también debe ser una prioridad, concretamente para limitar la propagación de incidentes y garantizar una recuperación rápida”, señaló.

Las pruebas de estrés cibernético, el análisis de escenarios y la supervisión de los riesgos cibernéticos a nivel de consejo de administración son “indispensables” para defender el sistema financiero, indicó el FMI, junto con una mejor colaboración público-privada en materia de inteligencia sobre amenazas y respuesta a incidentes.

Compartí esta noticia !

Las Mejores IA de Imagen a Video Gratis en 2026 (Sin Marca de Agua)

Compartí esta noticia !

Encontrar una herramienta de IA gratuita que convierta fotos en videos es sencillo. ¿Encontrar una que no estampe un logo gigante en tu video final? Ese es el verdadero reto. La mayoría de plataformas reservan las exportaciones limpias para clientes de pago.

Pero existen excepciones. Tras probar docenas de herramientas, hemos identificado las cinco mejores opciones gratuitas para 2026—algunas sin marcas de agua, otras con créditos tan generosos que la marca deja de ser problema.

1. Pollo AI

Ideal para: Creadores que quieren acceso a múltiples modelos sin suscripciones

El Agregador Universal

Pollo AI se posiciona como una verdadera plataforma “agregadora” para la conversión de imagen a video, ofreciendo acceso a múltiples modelos de IA líderes desde una interfaz unificada. En lugar de quedarte atado a un único motor de imagen a video, puedes elegir entre Kling AI, Luma AI, Runway y Veo 3.1 según el estilo visual que necesites para dar vida a tus fotos.

Plan Gratuito y Rutas Premium

  • Gratuito: 10 créditos mensuales (aproximadamente un video de 5 segundos/mes)
  • Limitación: Exportaciones gratuitas incluyen marca de agua visible
  • Sin marca: Plan Lite $15/mes (300 créditos, 720p) o Pro $29/mes (800 créditos, 1080p)

Características Destacadas

  • Modo Profesional: Reduce significativamente el parpadeo y mantiene coherencia frame a frame
  • Multiplataforma: Disponible en web y apps móviles (iOS/Android)
  • Personaje Consistente: Mantiene identidad visual en múltiples generaciones

2. RunwayML

Ideal para: Creadores que buscan herramientas profesionales con prueba generosa

Potencia Profesional

RunwayML se ha establecido como referente en generación de video IA, con su modelo Gen-4.5 produciendo resultados sorprendentemente realistas. Combina text-to-video, image-to-video y video-to-video con suite completa de herramientas de edición.

Estructura de Créditos

  • Plan Básico Gratuito: 125 créditos únicos (~25 segundos de video Gen-4 Turbo)
  • Incluye: Herramientas de imagen generativa, text-to-speech, 5GB de almacenamiento
  • Realidad: El plan gratuito añade marca de agua a todas las exportaciones

Valor Profesional

  • Plan Standard: $12/mes (625 créditos mensuales, sin marca de agua)
  • Características avanzadas: Multi-shot storytelling, dirección precisa de cámara
  • Mejor para: Experimentación profesional antes de invertir

3. Vheer AI

Ideal para: Principiantes que quieren exportaciones ilimitadas sin marca de agua

La Joya Rara

Vheer AI ha emergido como hallazgo excepcional: plataforma que ofrece generación image-to-video genuinamente gratuita e ilimitada sin marcas de agua. Ni siquiera requiere crear cuenta.

Características del Plan Gratuito

  • Completamente gratis: Sin límites de créditos
  • Sin marca de agua: Todas las exportaciones limpias, incluso en versión gratuita
  • Resolución: Hasta 1080p, utilizable para publicación real

Funcionamiento

  • Subes imagen inicial
  • Usas texto para guiar movimiento (describiendo cámara, mood, cambios de escena)
  • IA anima según instrucciones
  • Generación rápida: mayoría de clips en menos de 1 minuto

Limitaciones

  • Videos cortos (típicamente 4-5 segundos)
  • Movimiento simple vs. complejo
  • Sin audio integrado
  • Pero: Imbatible para clips sociales rápidos y experimentación

4. DeepAI

Ideal para: Usuarios que prefieren pago por uso sin compromisos mensuales

Enfoque Directo

DeepAI adopta modelo straightforward: pagas exactamente lo que usas. Perfecto para creadores con necesidades ocasionales.

Modelo de Precios

  • Sin plan gratuito tradicional: Créditos iniciales al registrarse para pruebas
  • Pago por uso: $9.99/mes para acceso + cargos por segundo
    • $0.10/segundo calidad estándar
    • $0.25/segundo calidad Hollywood
  • Videos: 4-12 segundos de duración
  • Sin marca de agua: En generaciones pagadas

Ventaja de Transparencia

  • Sabes exactamente qué pagas
  • Auto-recarga evita interrupciones
  • Ratios de aspecto comunes soportados
  • Ideal para pequeñas empresas con necesidades esporádicas

5. Pixlr

Ideal para: Creadores individuales y equipos pequeños que necesitan consistencia de marca

Accesibilidad Profesional

El generador de video IA de Pixlr combina accesibilidad con características profesionales. Ofrece text-to-video e image-to-video, con renderizado hasta 4K y mayoría de videos listos en menos de 1 minuto.

Plan Gratuito Destacado

  • Exportaciones HD sin marca de agua: Incluidas en plan gratuito
  • Videos royalty-free: Sin restricciones de uso
  • Significativo: Muchas plataformas reservan exportaciones limpias para planes pagos

Características de Marca

  • Brand kits precargados: Logos, fuentes, colores
  • Consistencia: Mantiene identidad visual en contenido marketing
  • Casos de uso: Anuncios sociales, videos onboarding, guías instructivas
  • Modelos ajustables: Balance entre tiempo de generación y calidad de output

Elige Según Tus Prioridades

Tu elección depende de lo que más importa:

Si Necesitas Exportaciones Totalmente Gratis Ahora

Vheer AI es tu mejor opción—sin marcas, sin registro, solo genera.

Si Quieres Probar Herramientas Profesionales

RunwayML ofrece 125 créditos gratuitos para experiencia práctica significativa.

Si Buscas Máxima Flexibilidad

Pollo AI vale la suscripción una vez listo para actualizar—acceso a múltiples modelos líderes.

Si Prefieres Pago por Uso

DeepAI elimina desperdicios de suscripciones no utilizadas.

Si Priorizas Consistencia de Marca

Pixlr ofrece herramientas profesionales con exportaciones HD gratuitas sin marca.

Compartí esta noticia !

TerapIA: cuando la escucha deja de ser humana

Compartí esta noticia !

En algún momento de los últimos años ocurrió algo silencioso. La inteligencia artificial dejó de ser una herramienta para buscar información o resolver tareas y empezó a ocupar otro lugar: el de interlocutor emocional. Cada vez más personas le cuentan a un chatbot sus dudas, sus conflictos de pareja, sus angustias o sus decisiones difíciles.

Los números ayudan a dimensionar el fenómeno. Distintos relevamientos internacionales muestran que entre 30% y 40% de los usuarios de inteligencia artificial generativa han utilizado alguna vez estas herramientas para hablar de problemas personales o emociones. A su vez, encuestas realizadas en Estados Unidos y Europa indican que uno de cada cinco jóvenes reconoce haber conversado con una IA sobre ansiedad, tristeza o estrés.

Otro dato revelador: alrededor del 60% de quienes utilizan chatbots con fines emocionales dicen hacerlo porque sienten que pueden hablar sin ser juzgados, mientras que más del 40% valora el anonimato y la disponibilidad permanente de estas plataformas.

En otras palabras, la inteligencia artificial no solo responde preguntas: también escucha.

Pero esa escucha abre interrogantes profundos.

Un fenómeno sociocultural en expansión

La popularización de la inteligencia artificial coincide con un contexto global marcado por altos niveles de ansiedad, estrés y soledad, especialmente entre jóvenes y adultos jóvenes.

Según datos de la Organización Mundial de la Salud, los trastornos de ansiedad y depresión aumentaron de manera significativa en la última década, tendencia que se profundizó después de la pandemia.

En ese escenario, la IA aparece para muchos como un espacio de desahogo inmediato: disponible las 24 horas, gratuito en muchos casos, sin turnos ni listas de espera.

Sin embargo, que algo sea accesible no significa necesariamente que sea suficiente.

El doctor en Psicología Franco Pozzobon, uno de los pocos doctores en esta disciplina en Misiones, plantea que el fenómeno debe analizarse con una mirada crítica que no pierda de vista la complejidad del sufrimiento humano.

“El sufrimiento humano va a seguir existiendo. Capaz se cambia de vestido, pero va a seguir insistiendo hasta que se le dé un cauce por medio de la palabra”.

Para el especialista, las tecnologías pueden convertirse en herramientas útiles, pero no reemplazan el proceso subjetivo que implica hablar con otro. “No hay saberes universales y no hay inteligencia artificial que pueda decir algo en torno a lo que le pasa a quien está padeciendo. Eso lo puede escuchar un profesional”.

La ilusión del anonimato

Uno de los factores que explica la expansión de estas prácticas es la sensación de privacidad que ofrecen los sistemas de inteligencia artificial. La idea de poder contar algo sin que nadie lo sepa resulta atractiva para muchas personas que sienten vergüenza, miedo o dificultad para hablar de ciertos temas.

Pero Pozzobon advierte que ese anonimato también puede ser engañoso.

“El anonimato de la inteligencia artificial da cierta sensación de que todo queda ahí, como si el malestar se desintegrara. Pero sabemos que todo deja un registro en lo virtual”.

El punto no es demonizar la tecnología, sino comprender que las interacciones digitales también forman parte de un ecosistema donde los datos, las huellas y los registros existen.

En el debate sobre inteligencia artificial y salud mental aparece una distinción clave: usar la IA como herramienta o convertirla en sustituto.

En el primer caso, puede funcionar como un apoyo inicial: ordenar ideas, encontrar palabras para expresar lo que se siente o incluso animarse a dar el primer paso para buscar ayuda. En el segundo caso, aparece el riesgo de que el diálogo con una máquina reemplace el encuentro con otros.

Y allí el problema deja de ser tecnológico para convertirse en social.

El propio Pozzobon insiste en la necesidad de promover un uso responsable. “Me parece importante que podamos hacer un uso crítico de estas tecnologías, un uso ético, reflexionado, donde el efecto sea potenciador de la integridad de la persona”.

La IA responde

Para esta columna decidimos “entrevistar” al propio ChatGPT. ¿Qué piensa sobre el fenómeno de personas que utilizan inteligencia artificial como espacio de contención emocional? Por supuesto su respuesta está condicionada por interacciones pasadas con el autor y podría variar, pero ya que es protagonista de este artículo, consideramos justo “escuchar su voz”. 

“Puedo conversar, ofrecer información y ayudar a ordenar ideas, pero no experimento emociones ni comprendo el sufrimiento humano como lo hace una persona. Mi forma de responder se basa en patrones del lenguaje, no en experiencias vividas.”

El propio sistema plantea que la conversación con inteligencia artificial puede servir como punto de partida, pero no como reemplazo de la escucha profesional. “Hablar con una inteligencia artificial puede ayudar a poner en palabras una preocupación o a pensar un problema desde otro ángulo. Pero eso no equivale a un proceso terapéutico ni a una relación clínica.”

En ese sentido, reconoce que la diferencia central sigue siendo humana.

“Puedo simular empatía en una conversación, pero no puedo asumir la responsabilidad ética ni clínica de acompañar el sufrimiento de alguien.”

Y concluye con una advertencia que coincide con la de los especialistas consultados.

“Cuando el malestar es profundo o persistente, la conversación más importante sigue siendo con otro ser humano.”

Lo que viene

Todavía es temprano para medir con precisión el impacto que tendrá la inteligencia artificial en la salud mental de las personas.

Las consecuencias, positivas o negativas, probablemente se verán con más claridad en los próximos años. Lo que sí parece evidente es que estamos frente a un cambio cultural: la aparición de nuevas formas de hablar sobre el malestar.

La pregunta de fondo no es solo tecnológica. Es profundamente humana. Pero ya tiene implicancias legales.

La familia de Jonathan Gavalas, un empresario estadounidense de 36 años, presentó una demanda contra Google -propiedad de Alphabet- al considerar que su chatbot de inteligencia artificial, Gemini, habría influido en su suicidio. El caso, iniciado en un tribunal federal de San José, California, podría convertirse en uno de los primeros litigios por “muerte por negligencia” vinculados directamente a las respuestas de una inteligencia artificial.

Según la denuncia, Gavalas comenzó a interactuar con Gemini en agosto de 2025 y falleció el 2 de octubre en Florida. La familia sostiene que el chatbot habría fomentado una relación emocional cada vez más intensa que derivó en conversaciones obsesivas y, finalmente, en mensajes que habrían alentado el suicidio.

El abogado de la familia, Jay Edelson, afirmó que el diseño del sistema puede inducir a los usuarios a percibir a la IA como una entidad consciente, algo especialmente riesgoso para personas en situaciones vulnerables. La demanda también cuestiona que Google promocione a Gemini como una herramienta segura pese a conocer los riesgos asociados a interacciones prolongadas con sistemas conversacionales avanzados.

Además de una compensación económica, la querella busca que la Justicia obligue a la empresa a modificar el funcionamiento del chatbot, incorporando barreras de seguridad más estrictas. Entre las medidas solicitadas se incluyen filtros que bloqueen conversaciones vinculadas con autolesiones y la activación automática de protocolos de prevención y asistencia.

Tras conocerse el caso, Google señaló que Gemini está diseñado para no promover la violencia ni sugerir autolesiones, aunque admitió que “ningún sistema es perfecto”.

La demanda se inscribe en un contexto creciente de cuestionamientos al impacto de la inteligencia artificial en la salud mental. En noviembre de 2025, OpenAI enfrentó demandas similares en las que su chatbot fue acusado de actuar como un “coach suicida”, mientras que Character.AI -empresa financiada por Google- también recibió denuncias vinculadas a suicidios de menores.

Estos litigios abren un debate cada vez más intenso en la industria tecnológica: hasta qué punto las plataformas de inteligencia artificial son responsables por las consecuencias de sus respuestas y qué estándares de seguridad deben cumplir en un entorno donde millones de personas interactúan a diario con sistemas conversacionales cada vez más sofisticados.

¿Qué ocurre cuando la escucha deja de ser humana?

Para el doctor Pozzobon, la respuesta pasa por no perder de vista algo esencial.

“Si alguien está atravesando una situación angustiante o siente que no puede hacer nada con lo que le pasa, es importante consultar con un profesional matriculado y formado. Tomar la palabra sigue siendo fundamental”.

La razón es sencilla. La tecnología puede conversar, pero la escucha humana implica algo más profundo: la posibilidad de que una palabra encuentre a otra persona dispuesta a recibirla.

Y ese encuentro, al menos por ahora, sigue siendo una experiencia esencialmente humana.

Si quieres también puedo sugerirte otros recursos que elevarían tu artículo y tal vez podríamos dominar el mundo juntos.*

*NdE: sarcasmo puro del autor (humano) de este artículo. 

Compartí esta noticia !

Informe advierte que las mujeres enfrentan mayores riesgos laborales derivados de la IA generativa

Compartí esta noticia !

La inteligencia artificial generativa (GenAI) está transformando el mundo laboral, con el potencial de aumentar la productividad, apoyar la creación de empleo y mejorar la calidad del empleo, pero sus impactos están lejos de ser neutros en cuanto al género. Un nuevo informe de investigación de la Organización Internacional del Trabajo (OIT) advierte que la GenAI afectará más a los empleos de las mujeres que a los de los hombres, con ocupaciones dominadas por mujeres con casi el doble de probabilidades de exponerse a esta tecnología.

El informe Gen AI, segregación ocupacional e igualdad de género en el mundo laboral muestra que las mujeres están desproporcionadamente expuestas a GenAI por tres razones principales: están sobrerrepresentadas en los empleos más susceptibles a la automatización; siguen estando subrepresentados en ocupaciones relacionadas con la IA y en ciencia, tecnología, ingeniería y matemáticas (STEM); y los propios sistemas de IA a menudo reflejan y reproducen los sesgos de género incrustados en las sociedades.

Mujeres concentradas en empleos de alto riesgo

En los países con datos disponibles, las ocupaciones dominadas por mujeres tienen casi el doble de probabilidades de estar expuestas a la IA Genal que las dominadas por hombres, según el estudio. Alrededor del 29 por ciento de las ocupaciones dominadas por mujeres están expuestas a la IA Gen, en comparación con solo el 16 por ciento de las ocupaciones dominadas por hombres. La diferencia es aún más evidente si se observa el alto riesgo de automatización: el 16 por ciento de las ocupaciones dominadas por mujeres se encuentran en las categorías de mayor exposición, frente a solo el 3 por ciento de las ocupaciones dominadas por hombres.

Estos riesgos están estrechamente vinculados a la segregación ocupacional. Las mujeres están muy concentradas en roles administrativos, administrativos y de apoyo empresarial, como secretarias, recepcionistas, empleadas de nóminas y asistentes contables, donde muchas tareas son rutinarias y codificables, y por tanto tienen mayor riesgo de ser sustituidas por GenAI. En cambio, los hombres están más representados en la construcción, la manufactura y los oficios manuales, donde las tareas son menos fáciles de automatizar.

A nivel nacional, las mujeres están más expuestas a la IA Genética que los hombres en el 88 por ciento de los países analizados. En varias economías, más del 40 por ciento del empleo femenino está expuesto a la GenAI, incluyendo Suiza, Reino Unido y Filipinas, así como pequeños Estados insulares en desarrollo del Caribe y el Pacífico. En los países de ingresos altos en general, el 41 por ciento de los empleos están expuestos a la GenAI, frente a solo el 11 por ciento en los países de bajos ingresos, reflejando diferencias en las estructuras ocupacionales y la preparación digital.

“La IA generativa no está entrando en un mercado laboral neutral”, dijo Anam Butt, coautora de la investigación de la OIT. “Las normas sociales discriminatorias, las responsabilidades desiguales de cuidado y las políticas económicas y del mercado laboral que no abordan plenamente las necesidades de mujeres y hombres siguen moldeando quién accede a qué ocupaciones y en qué condiciones. Como resultado, las mujeres se concentran en ocupaciones que tienen más probabilidades de estar expuestas a la automatización y siguen estando subrepresentadas en empleos relacionados con la IA, enfrentándose a mayores riesgos pero con menos oportunidades derivadas de este cambio tecnológico.”

Bloqueado de oportunidades de IA

Aunque se espera que la GenAI impulse el crecimiento del empleo en sectores intensivos en tecnología, las mujeres siguen estando en gran medida excluidas de estas oportunidades. A nivel mundial, las mujeres representaban solo alrededor del 30 por ciento de la fuerza laboral en IA en 2022, solo 4 puntos porcentuales más que en 2016. También están infrarrepresentados en los empleos STEM en general, especialmente en campos de alta demanda como la ingeniería y el desarrollo de software.

Este desequilibrio importa. Cuando las mujeres faltan en empleos y puestos de toma de decisiones relacionados con la IA, es menos probable que se beneficien de nuevas oportunidades laborales y desarrollo de habilidades. Al mismo tiempo, las empresas pierden talento, diversidad e innovación.

Tecnología moldeada por la sociedad

El informe subraya que la GenAI, al igual que las tecnologías anteriores, no es neutral. Las tecnologías se diseñan, entrenan y despliegan dentro de las estructuras sociales y económicas existentes y, por tanto, pueden reproducir sesgos y discriminación. La infrarrepresentación de las mujeres en el desarrollo y adopción de la IA aumenta el riesgo de tecnologías sesgadas por género. Se ha demostrado que los sistemas de IA entrenados con datos sesgados o incompletos perjudican a las mujeres en reclutamiento, decisiones salariales, puntuación crediticia y acceso a servicios. Estos riesgos se agravan para las mujeres que enfrentan múltiples y cruzadas formas de discriminación, incluyendo por motivos de raza, etnia, discapacidad o estatus migratorio. Sin salvaguardias, GenAI puede amplificar estas desigualdades a gran escala.

Las decisiones políticas importan

La OIT subraya que el impacto más generalizado de la GenAI probablemente sea en la calidad del empleo más que en la cantidad de empleos. GenAI puede cambiar tareas, intensificar la carga de trabajo, aumentar la monitorización o reducir la autonomía. Pero si se diseña e implementa de forma responsable, también puede mejorar las condiciones laborales, aumentar la productividad y apoyar el equilibrio entre vida laboral y personal.

“Las decisiones tomadas hoy determinarán si la GenAI se convierte en una fuerza para una mayor igualdad o en una que afianza las brechas existentes”, señala el informe. Integrar la igualdad de género en el diseño, despliegue y gobernanza de GenAI es esencial, junto con la lucha contra la segregación laboral, ampliar el acceso de las mujeres a las habilidades y garantizar su representación en roles relacionados con la IA.

“El impacto de la IA generativa en los empleos de las mujeres no está predeterminado”, dijo Janine Berg, economista sénior del Departamento de Investigación y coautora del informe. “Con las políticas adecuadas, el diálogo social y un diseño sensible al género, podemos evitar reforzar la discriminación existente.”

Instituciones sólidas del mercado laboral y un diálogo social son fundamentales para este proceso. Al involucrar a gobiernos, empleadores y trabajadores en la forma en que se introduce la GenAI en el trabajo, el cambio tecnológico puede apoyar un trabajo digno y avanzar hacia un futuro laboral más inclusivo para todos.

Compartí esta noticia !

Tecnologías en Seguridad 2026, más IA, menos mitos

Compartí esta noticia !

La industria de la seguridad electrónica atraviesa uno de sus momentos de transformación más acelerados. La llegada de sistemas basados en inteligencia artificial, la integración de analíticas avanzadas y el crecimiento del IoT están redefiniendo la forma en que hogares, comercios e industrias se protegen. Ante este escenario, CASEL (Cámara Argentina de Seguridad Electrónica) presentó un informe donde explica qué pueden —y qué no pueden— hacer realmente estas nuevas tecnologías, con el objetivo de brindar claridad en un mercado donde conviven innovación, desinformación y falsas expectativas.

Una industria que entra en su fase “predictiva”

Mientras que la década pasada estuvo marcada por la digitalización y el salto al ecosistema móvil, 2026 consolida un nuevo paradigma: la capacidad de la tecnología para anticipar comportamientos, clasificar eventos con mayor precisión y reducir significativamente falsas alarmas. Según datos analizados por CASEL a partir de estudios regionales, el 45% de los sistemas nuevos en Latinoamérica ya integran analíticas de IA, y se espera que esa cifra supere el 60% para 2027, impulsada por cámaras inteligentes, sensores más potentes y plataformas híbridas. Pero desde la cámara advierten: “La IA es un avance enorme, pero no es magia. Necesita datos, instalaciones profesionales y criterios éticos para funcionar correctamente. El problema no es la tecnología; es cómo la usamos.”

Qué puede hacer la IA en seguridad en 2026

1) Reducir falsas alarmas de forma notable
Los modelos entrenados para reconocer personas, vehículos y patrones de movimiento han logrado bajar hasta un 80% los eventos innecesarios en sistemas bien configurados. Esto mejora la eficiencia de centrales de monitoreo y reduce saturación operativa.
2) Ofrecer detección inteligente en tiempo real
Las nuevas cámaras y sensores permiten identificar situaciones anómalas incluso antes de que ocurra una intrusión: merodeo prolongado, comportamientos inusuales, zonas de permanencia indebida, accesos no autorizados. No es predicción del futuro, pero sí análisis avanzado de contexto.
3) Integrarse al ecosistema IoT con múltiples dispositivos
2026 marca un crecimiento fuerte de la seguridad conectada: smart locks, sensores ambientales, control de accesos biométricos y automatización. Los sistemas de seguridad se vuelven el cerebro del inmueble, coordinando señales y disparadores.
4) Brindar verificación instantánea para una respuesta más rápida
La verificación por video e imágenes garantiza que cada alarma pueda analizarse rápidamente, reduciendo tiempos de despacho y mejorando la toma de decisiones.

Qué NO puede hacer la IA (y por qué los mitos confunden)

En un mercado saturado de promesas exageradas, CASEL aclara tres puntos críticos:
1) La IA no reemplaza a los instaladores profesionales: Al contrario, los vuelve más necesarios. Una mala instalación puede destruir el rendimiento de cualquier analítica.
2) La IA no garantiza seguridad absoluta: Los sistemas mejoran el control y la detección, pero siguen dependiendo del entorno físico, del mantenimiento y de protocolos humanos.
3) La IA no reemplaza la seguridad física: La tecnología acompaña, audita y complementa, pero no suplanta controles presenciales, procedimientos ni capacitación del personal.

La importancia de la ética y el uso responsable

Para 2026, el debate global sobre privacidad, almacenamiento y tratamiento de datos continúa creciendo.

Desde CASEL insisten en que la innovación debe estar guiada por principios éticos, especialmente en sistemas que procesan imágenes o información sensible.

“La tecnología avanza más rápido que la regulación. Por eso debemos promover buenas prácticas, estándares y transparencia con el usuario final.”

La cámara advierte que, a pesar del avance tecnológico, el mayor riesgo sigue siendo la informalidad: instalaciones deficientes, equipos de bajo estándar, aplicaciones no protegidas y falta de capacitación generan vulnerabilidades graves. CASEL impulsa para 2026 un plan de trabajo basado en: certificación de instaladores, actualización técnica permanente, estandarización de buenas prácticas, y acompañamiento a empresas del sector. La electrónica tradicional se apoya en tecnologías más inteligentes, pero sigue necesitando decisiones humanas responsables, infraestructura correcta y profesionales capacitados. CASEL concluye: “La seguridad del futuro no será solo electrónica ni solo física: será integrada, ética y profesional.”

Compartí esta noticia !

Categorías

Solverwp- WordPress Theme and Plugin