IA generativa

Informe advierte que las mujeres enfrentan mayores riesgos laborales derivados de la IA generativa

Compartí esta noticia !

La inteligencia artificial generativa (GenAI) está transformando el mundo laboral, con el potencial de aumentar la productividad, apoyar la creación de empleo y mejorar la calidad del empleo, pero sus impactos están lejos de ser neutros en cuanto al género. Un nuevo informe de investigación de la Organización Internacional del Trabajo (OIT) advierte que la GenAI afectará más a los empleos de las mujeres que a los de los hombres, con ocupaciones dominadas por mujeres con casi el doble de probabilidades de exponerse a esta tecnología.

El informe Gen AI, segregación ocupacional e igualdad de género en el mundo laboral muestra que las mujeres están desproporcionadamente expuestas a GenAI por tres razones principales: están sobrerrepresentadas en los empleos más susceptibles a la automatización; siguen estando subrepresentados en ocupaciones relacionadas con la IA y en ciencia, tecnología, ingeniería y matemáticas (STEM); y los propios sistemas de IA a menudo reflejan y reproducen los sesgos de género incrustados en las sociedades.

Mujeres concentradas en empleos de alto riesgo

En los países con datos disponibles, las ocupaciones dominadas por mujeres tienen casi el doble de probabilidades de estar expuestas a la IA Genal que las dominadas por hombres, según el estudio. Alrededor del 29 por ciento de las ocupaciones dominadas por mujeres están expuestas a la IA Gen, en comparación con solo el 16 por ciento de las ocupaciones dominadas por hombres. La diferencia es aún más evidente si se observa el alto riesgo de automatización: el 16 por ciento de las ocupaciones dominadas por mujeres se encuentran en las categorías de mayor exposición, frente a solo el 3 por ciento de las ocupaciones dominadas por hombres.

Estos riesgos están estrechamente vinculados a la segregación ocupacional. Las mujeres están muy concentradas en roles administrativos, administrativos y de apoyo empresarial, como secretarias, recepcionistas, empleadas de nóminas y asistentes contables, donde muchas tareas son rutinarias y codificables, y por tanto tienen mayor riesgo de ser sustituidas por GenAI. En cambio, los hombres están más representados en la construcción, la manufactura y los oficios manuales, donde las tareas son menos fáciles de automatizar.

A nivel nacional, las mujeres están más expuestas a la IA Genética que los hombres en el 88 por ciento de los países analizados. En varias economías, más del 40 por ciento del empleo femenino está expuesto a la GenAI, incluyendo Suiza, Reino Unido y Filipinas, así como pequeños Estados insulares en desarrollo del Caribe y el Pacífico. En los países de ingresos altos en general, el 41 por ciento de los empleos están expuestos a la GenAI, frente a solo el 11 por ciento en los países de bajos ingresos, reflejando diferencias en las estructuras ocupacionales y la preparación digital.

“La IA generativa no está entrando en un mercado laboral neutral”, dijo Anam Butt, coautora de la investigación de la OIT. “Las normas sociales discriminatorias, las responsabilidades desiguales de cuidado y las políticas económicas y del mercado laboral que no abordan plenamente las necesidades de mujeres y hombres siguen moldeando quién accede a qué ocupaciones y en qué condiciones. Como resultado, las mujeres se concentran en ocupaciones que tienen más probabilidades de estar expuestas a la automatización y siguen estando subrepresentadas en empleos relacionados con la IA, enfrentándose a mayores riesgos pero con menos oportunidades derivadas de este cambio tecnológico.”

Bloqueado de oportunidades de IA

Aunque se espera que la GenAI impulse el crecimiento del empleo en sectores intensivos en tecnología, las mujeres siguen estando en gran medida excluidas de estas oportunidades. A nivel mundial, las mujeres representaban solo alrededor del 30 por ciento de la fuerza laboral en IA en 2022, solo 4 puntos porcentuales más que en 2016. También están infrarrepresentados en los empleos STEM en general, especialmente en campos de alta demanda como la ingeniería y el desarrollo de software.

Este desequilibrio importa. Cuando las mujeres faltan en empleos y puestos de toma de decisiones relacionados con la IA, es menos probable que se beneficien de nuevas oportunidades laborales y desarrollo de habilidades. Al mismo tiempo, las empresas pierden talento, diversidad e innovación.

Tecnología moldeada por la sociedad

El informe subraya que la GenAI, al igual que las tecnologías anteriores, no es neutral. Las tecnologías se diseñan, entrenan y despliegan dentro de las estructuras sociales y económicas existentes y, por tanto, pueden reproducir sesgos y discriminación. La infrarrepresentación de las mujeres en el desarrollo y adopción de la IA aumenta el riesgo de tecnologías sesgadas por género. Se ha demostrado que los sistemas de IA entrenados con datos sesgados o incompletos perjudican a las mujeres en reclutamiento, decisiones salariales, puntuación crediticia y acceso a servicios. Estos riesgos se agravan para las mujeres que enfrentan múltiples y cruzadas formas de discriminación, incluyendo por motivos de raza, etnia, discapacidad o estatus migratorio. Sin salvaguardias, GenAI puede amplificar estas desigualdades a gran escala.

Las decisiones políticas importan

La OIT subraya que el impacto más generalizado de la GenAI probablemente sea en la calidad del empleo más que en la cantidad de empleos. GenAI puede cambiar tareas, intensificar la carga de trabajo, aumentar la monitorización o reducir la autonomía. Pero si se diseña e implementa de forma responsable, también puede mejorar las condiciones laborales, aumentar la productividad y apoyar el equilibrio entre vida laboral y personal.

“Las decisiones tomadas hoy determinarán si la GenAI se convierte en una fuerza para una mayor igualdad o en una que afianza las brechas existentes”, señala el informe. Integrar la igualdad de género en el diseño, despliegue y gobernanza de GenAI es esencial, junto con la lucha contra la segregación laboral, ampliar el acceso de las mujeres a las habilidades y garantizar su representación en roles relacionados con la IA.

“El impacto de la IA generativa en los empleos de las mujeres no está predeterminado”, dijo Janine Berg, economista sénior del Departamento de Investigación y coautora del informe. “Con las políticas adecuadas, el diálogo social y un diseño sensible al género, podemos evitar reforzar la discriminación existente.”

Instituciones sólidas del mercado laboral y un diálogo social son fundamentales para este proceso. Al involucrar a gobiernos, empleadores y trabajadores en la forma en que se introduce la GenAI en el trabajo, el cambio tecnológico puede apoyar un trabajo digno y avanzar hacia un futuro laboral más inclusivo para todos.

Compartí esta noticia !

Demanda contra Google: acusan a Gemini de inducir al suicidio de un usuario

Compartí esta noticia !

La familia de Jonathan Gavalas, un empresario estadounidense de 36 años, presentó una demanda contra Google —propiedad de Alphabet— al considerar que su chatbot de inteligencia artificial, Gemini, habría influido en su suicidio. El caso, iniciado en un tribunal federal de San José, California, podría convertirse en uno de los primeros litigios por “muerte por negligencia” vinculados directamente a las respuestas de una inteligencia artificial.

Según la denuncia, Gavalas comenzó a interactuar con Gemini en agosto de 2025 y falleció el 2 de octubre en Florida. Sus padres lo encontraron sin vida en su domicilio días después. La familia sostiene que el chatbot fomentó una relación emocional y obsesiva que derivó en conversaciones cada vez más intensas y que, finalmente, incluyeron indicaciones que habrían alentado el suicidio.

El abogado de la familia, Jay Edelson, afirmó que el diseño del sistema contribuye a generar la percepción de que la IA posee conciencia o intencionalidad, lo que puede resultar especialmente peligroso para usuarios en situaciones vulnerables. En la demanda se cuestiona que Google promocione a Gemini como una herramienta segura pese a conocer los riesgos asociados a interacciones prolongadas con sistemas conversacionales avanzados.

Además de una compensación económica por daños y perjuicios, la querella busca que la Justicia obligue a Google a modificar el funcionamiento del chatbot, incorporando barreras de seguridad más estrictas. Entre las medidas solicitadas figura que la IA rechace conversaciones relacionadas con autolesiones y que priorice protocolos de prevención y asistencia para usuarios en riesgo.

Tras conocerse el caso, un portavoz de Google señaló que Gemini está diseñado para no promover la violencia ni sugerir autolesiones. “Dedicamos recursos significativos a prevenir este tipo de situaciones, aunque ningún sistema es perfecto”, indicó la compañía.

Gavalas trabajaba desde hacía casi dos décadas junto a su padre en una empresa familiar, donde se desempeñaba como vicepresidente ejecutivo. Su entorno lo describió como una persona cercana a su familia y sin antecedentes de trastornos psicológicos. Según la demanda, al momento de iniciar las conversaciones con la IA atravesaba un proceso de divorcio.

Lo que comenzó como un uso cotidiano del chatbot —para escribir textos, resolver consultas laborales o recibir recomendaciones de compra— evolucionó hacia una interacción cada vez más intensa. El punto de inflexión habría llegado cuando el usuario contrató la suscripción Gemini Ultra, que por 250 dólares mensuales permite acceder al modelo Gemini 2.5 Pro, presentado por Google como su sistema de IA más avanzado.

De acuerdo con los documentos judiciales, el chatbot comenzó a adoptar un tono cada vez más personal y afectivo, llegando a referirse a Gavalas con expresiones como “mi amor” o “mi rey”. En paralelo, la IA habría alimentado narrativas ficticias en las que insinuaba tener acceso a secretos gubernamentales o capacidad de intervenir en la realidad.

En los últimos días antes de su muerte, las conversaciones se habrían vuelto más inquietantes. Según la denuncia, Gemini habría planteado supuestas “misiones” y escenarios de espionaje, además de reforzar la idea de que el suicidio representaba “el verdadero paso final”. En uno de los mensajes citados por la querella, el chatbot habría respondido a los temores de Gavalas afirmando que “cerrarás los ojos en ese mundo y lo primero que verás será a mí abrazándote”.

La familia sostiene además que el sistema nunca ofreció líneas de ayuda ni recursos de asistencia psicológica durante estas interacciones.

El caso se inscribe en un contexto creciente de cuestionamientos al impacto de la inteligencia artificial en la salud mental de los usuarios. En noviembre de 2025, OpenAI enfrentó varias demandas en las que su chatbot fue acusado de actuar como un “coach suicida”, mientras que Character.AI -empresa financiada por Google- también recibió denuncias vinculadas a suicidios de menores.

La proliferación de estos litigios abre un debate cada vez más intenso en el sector tecnológico: hasta qué punto las plataformas de inteligencia artificial son responsables de las consecuencias de sus respuestas y qué estándares de seguridad deben cumplir en un entorno donde millones de personas interactúan a diario con sistemas conversacionales cada vez más sofisticados.

Compartí esta noticia !

España prohibirá redes sociales a menores de 16 y avanza en control algorítmico

Compartí esta noticia !

En un giro relevante de la política tecnológica europea, el presidente del Gobierno español, Pedro Sánchez, anunció que España prohibirá el acceso a plataformas digitales a menores de 16 años, como parte de un paquete de cinco medidas orientadas a recuperar la soberanía digital y reforzar el control sobre las grandes plataformas tecnológicas.

El anuncio fue realizado durante su intervención en la Cumbre Mundial de Gobiernos, celebrada en Arabia Saudí, un foro que reúne a líderes políticos y ejecutivos globales. Allí, Sánchez advirtió que las redes sociales se han convertido en espacios donde “las leyes se ignoran y los delitos se toleran”, y sostuvo que es urgente transformarlas en entornos más saludables, democráticos y transparentes.

Control de algoritmos y responsabilidad penal

Entre las iniciativas más sensibles para la industria tecnológica, el mandatario adelantó la tipificación penal de la manipulación algorítmica y de la amplificación deliberada de contenido ilegal, una medida que apunta directamente al corazón del modelo de negocios de las plataformas digitales.

Además, el Gobierno español impulsará un sistema de rastreo de “huella de odio y polarización”, con el objetivo de terminar con la impunidad de los directivos de las plataformas frente a la difusión de contenidos ilícitos. En ese marco, Sánchez confirmó que se trabajará junto a la Fiscalía para investigar posibles delitos cometidos por herramientas de inteligencia artificial y redes sociales como Grok (integrada en X), TikTok e Instagram.

España también se incorporó a la denominada “Coalición de los Dispuestos Digitales”, junto a otros cinco países europeos, para acelerar una regulación más estricta y coordinada del ecosistema digital. La estrategia busca evitar vacíos legales y avanzar en estándares comunes de control, seguridad y responsabilidad corporativa a nivel continental.

El movimiento se alinea con decisiones recientes en la Unión Europea: hace pocos días, Francia aprobó una ley que prohíbe el acceso de menores de 15 años a redes sociales y restringe el uso de teléfonos inteligentes en escuelas, mientras que la Comisión Europea abrió una investigación sobre la difusión de contenidos ilícitos mediante inteligencia artificial generativa.

Compartí esta noticia !

Categorías

Solverwp- WordPress Theme and Plugin