Gemini

Elon Musk asegura que Grok no es woke, ¿y las otras IA qué opinan?

Compartí esta noticia !

El debate sobre la supuesta neutralidad de la inteligencia artificial se ha intensificado en las últimas semanas tras las declaraciones de Elon Musk sobre Grok, señalando que el chatbot podría reflejar posiciones políticas y culturales concretas. Este comentario ha impulsado a periodistas y expertos a analizar cómo sistemas como Grok, Gemini, ChatGPT o Claude no solo responden preguntas, sino que también muestran patrones interpretativos reconocibles que pueden influir gradualmente en la forma en que los usuarios entienden la realidad, desde la política hasta el cambio climático o la economía. Esta influencia incluso podría afectar decisiones sobre consumo energético, sostenibilidad o a quién otorgaremos nuestro voto en el futuro.

Grok, Gemini, ChatGPT y Claude: cuándo la neutralidad de la IA es solo un mito

Las palabras de Elon Musk no fueron un comentario aislado: al señalar que Grok no debería perder frente a modelos “woke”, puso sobre la mesa la idea de que los chatbots pueden reflejar y transmitir valores culturales y políticos concretos. Esta declaración ha motivado un análisis más profundo de sistemas como Grok, Gemini, ChatGPT y Claude, mostrando que las diferencias de enfoque no son sólo tecnológicas sino ideológicas, y que la percepción de neutralidad de los usuarios puede ser ilusoria.

Durante años se asumió que los sistemas de inteligencia artificial funcionaban como herramientas técnicas neutrales. Sin embargo, comparaciones entre distintos chatbots muestran que las respuestas pueden variar significativamente ante las mismas preguntas políticas o sociales. Grok, impulsado por el entorno de Musk, suele reflejar posiciones críticas con ciertos consensos del progresismo tecnológico, mientras que Gemini, desarrollado por Google, ha sido señalado por mostrar mayor sensibilidad hacia enfoques regulatorios y sociales.

Experimentos citados por prensa tecnológica y económica han intentado ubicar ideológicamente a modelos como ChatGPT o Claude mediante cuestionarios políticos: ambos aparecen más cerca de posiciones tecnocráticas o moderadas, reforzando la idea de que los modelos no son neutros, sino que reproducen las prioridades y sesgos de los datos y empresas que los entrenan. El resultado es una paradoja creciente: creemos que preguntamos a una máquina objetiva, pero en realidad interactuamos con sistemas que ya incorporan visiones del mundo concretas.

¿Cuál es la postura de la IA sobre su futuro?: Energía y sostenibilidad

El desarrollo de la inteligencia artificial no depende solo de algoritmos y datos: su expansión futura está condicionada por la energía que consume, los costos crecientes de operación, las limitaciones de inversión y la presión social y regulatoria sobre sostenibilidad. Ante esta realidad, surge un debate crucial: si la IA pudiera “decidir” hacia dónde orientar su propio crecimiento, sus prioridades de desarrollo podrían reflejar distintas tendencias ideológicas, desde priorizar expansión rápida hasta favorecer innovación sostenible o impacto social. Esta relación entre sesgos interpretativos y consumo energético permite analizar cómo la IA influye en la percepción de futuro tecnológico y ambiental.

  • Grok: priorizaría expansión rápida de capacidades y presencia tecnológica, incluso si eso implica depender más tiempo de combustibles fósiles como gas o petróleo, buscando consolidar su posición en la carrera de la IA.
  • Gemini: tendería a orientar su desarrollo hacia innovación sostenible, promoviendo fuentes de energía renovable y controlando la huella de carbono, equilibrando crecimiento con responsabilidad ambiental.
  • ChatGPT: favorecería un modelo equilibrado y mixto, combinando eficiencia y expansión con instalaciones de placas solares, buscando reducir impacto ambiental sin comprometer funcionalidad ni alcance.
  • Claude: pondría énfasis en impacto social y acceso equitativo a la tecnología, apoyando iniciativas como el bono social, asegurando que su desarrollo no aumente la desigualdad ni excluya a comunidades vulnerables.

Estas tendencias hipotéticas muestran que, así como los chatbots reflejan patrones interpretativos en política o sociedad, también podrían “preferir” distintos caminos en su futuro desarrollo tecnológico, y la energía se convierte en un eje central del debate sobre sostenibilidad, eficiencia y prioridades estratégicas. Además, estas reflexiones se enlazan con análisis sobre energía e inteligencia artificial, consolidando la idea de que la expansión tecnológica no puede desligarse de sus impactos ambientales y sociales.

Los riesgos de la influencia silenciosa de la IA

El riesgo más relevante no es solo el sesgo interpretativo, sino la capacidad de la IA para moldear gradualmente la visión del mundo de los usuarios. Diversos estudios demuestran que la exposición prolongada a chatbots puede desplazar posiciones o reforzar percepciones.

Los chatbots ya funcionan como intermediarios de información diaria: millones de personas consultan a estas herramientas antes que a medios o expertos. Por eso, la frontera entre responder preguntas y orientar opiniones se vuelve cada vez más difusa. Además, el crecimiento de la inteligencia artificial. exige enormes infraestructuras energéticas que transforman la economía digital, con decisiones estratégicas sobre fuentes de energía.

La conclusión es que no solo entrenamos a la inteligencia artificial con nuestras ideas, sino que sus respuestas pueden influir en las nuestras, y ese intercambio silencioso podría redefinir la construcción de opiniones en la sociedad digital.

Fuente: papernest.es

Compartí esta noticia !

TerapIA: cuando la escucha deja de ser humana

Compartí esta noticia !

En algún momento de los últimos años ocurrió algo silencioso. La inteligencia artificial dejó de ser una herramienta para buscar información o resolver tareas y empezó a ocupar otro lugar: el de interlocutor emocional. Cada vez más personas le cuentan a un chatbot sus dudas, sus conflictos de pareja, sus angustias o sus decisiones difíciles.

Los números ayudan a dimensionar el fenómeno. Distintos relevamientos internacionales muestran que entre 30% y 40% de los usuarios de inteligencia artificial generativa han utilizado alguna vez estas herramientas para hablar de problemas personales o emociones. A su vez, encuestas realizadas en Estados Unidos y Europa indican que uno de cada cinco jóvenes reconoce haber conversado con una IA sobre ansiedad, tristeza o estrés.

Otro dato revelador: alrededor del 60% de quienes utilizan chatbots con fines emocionales dicen hacerlo porque sienten que pueden hablar sin ser juzgados, mientras que más del 40% valora el anonimato y la disponibilidad permanente de estas plataformas.

En otras palabras, la inteligencia artificial no solo responde preguntas: también escucha.

Pero esa escucha abre interrogantes profundos.

Un fenómeno sociocultural en expansión

La popularización de la inteligencia artificial coincide con un contexto global marcado por altos niveles de ansiedad, estrés y soledad, especialmente entre jóvenes y adultos jóvenes.

Según datos de la Organización Mundial de la Salud, los trastornos de ansiedad y depresión aumentaron de manera significativa en la última década, tendencia que se profundizó después de la pandemia.

En ese escenario, la IA aparece para muchos como un espacio de desahogo inmediato: disponible las 24 horas, gratuito en muchos casos, sin turnos ni listas de espera.

Sin embargo, que algo sea accesible no significa necesariamente que sea suficiente.

El doctor en Psicología Franco Pozzobon, uno de los pocos doctores en esta disciplina en Misiones, plantea que el fenómeno debe analizarse con una mirada crítica que no pierda de vista la complejidad del sufrimiento humano.

“El sufrimiento humano va a seguir existiendo. Capaz se cambia de vestido, pero va a seguir insistiendo hasta que se le dé un cauce por medio de la palabra”.

Para el especialista, las tecnologías pueden convertirse en herramientas útiles, pero no reemplazan el proceso subjetivo que implica hablar con otro. “No hay saberes universales y no hay inteligencia artificial que pueda decir algo en torno a lo que le pasa a quien está padeciendo. Eso lo puede escuchar un profesional”.

La ilusión del anonimato

Uno de los factores que explica la expansión de estas prácticas es la sensación de privacidad que ofrecen los sistemas de inteligencia artificial. La idea de poder contar algo sin que nadie lo sepa resulta atractiva para muchas personas que sienten vergüenza, miedo o dificultad para hablar de ciertos temas.

Pero Pozzobon advierte que ese anonimato también puede ser engañoso.

“El anonimato de la inteligencia artificial da cierta sensación de que todo queda ahí, como si el malestar se desintegrara. Pero sabemos que todo deja un registro en lo virtual”.

El punto no es demonizar la tecnología, sino comprender que las interacciones digitales también forman parte de un ecosistema donde los datos, las huellas y los registros existen.

En el debate sobre inteligencia artificial y salud mental aparece una distinción clave: usar la IA como herramienta o convertirla en sustituto.

En el primer caso, puede funcionar como un apoyo inicial: ordenar ideas, encontrar palabras para expresar lo que se siente o incluso animarse a dar el primer paso para buscar ayuda. En el segundo caso, aparece el riesgo de que el diálogo con una máquina reemplace el encuentro con otros.

Y allí el problema deja de ser tecnológico para convertirse en social.

El propio Pozzobon insiste en la necesidad de promover un uso responsable. “Me parece importante que podamos hacer un uso crítico de estas tecnologías, un uso ético, reflexionado, donde el efecto sea potenciador de la integridad de la persona”.

La IA responde

Para esta columna decidimos “entrevistar” al propio ChatGPT. ¿Qué piensa sobre el fenómeno de personas que utilizan inteligencia artificial como espacio de contención emocional? Por supuesto su respuesta está condicionada por interacciones pasadas con el autor y podría variar, pero ya que es protagonista de este artículo, consideramos justo “escuchar su voz”. 

“Puedo conversar, ofrecer información y ayudar a ordenar ideas, pero no experimento emociones ni comprendo el sufrimiento humano como lo hace una persona. Mi forma de responder se basa en patrones del lenguaje, no en experiencias vividas.”

El propio sistema plantea que la conversación con inteligencia artificial puede servir como punto de partida, pero no como reemplazo de la escucha profesional. “Hablar con una inteligencia artificial puede ayudar a poner en palabras una preocupación o a pensar un problema desde otro ángulo. Pero eso no equivale a un proceso terapéutico ni a una relación clínica.”

En ese sentido, reconoce que la diferencia central sigue siendo humana.

“Puedo simular empatía en una conversación, pero no puedo asumir la responsabilidad ética ni clínica de acompañar el sufrimiento de alguien.”

Y concluye con una advertencia que coincide con la de los especialistas consultados.

“Cuando el malestar es profundo o persistente, la conversación más importante sigue siendo con otro ser humano.”

Lo que viene

Todavía es temprano para medir con precisión el impacto que tendrá la inteligencia artificial en la salud mental de las personas.

Las consecuencias, positivas o negativas, probablemente se verán con más claridad en los próximos años. Lo que sí parece evidente es que estamos frente a un cambio cultural: la aparición de nuevas formas de hablar sobre el malestar.

La pregunta de fondo no es solo tecnológica. Es profundamente humana. Pero ya tiene implicancias legales.

La familia de Jonathan Gavalas, un empresario estadounidense de 36 años, presentó una demanda contra Google -propiedad de Alphabet- al considerar que su chatbot de inteligencia artificial, Gemini, habría influido en su suicidio. El caso, iniciado en un tribunal federal de San José, California, podría convertirse en uno de los primeros litigios por “muerte por negligencia” vinculados directamente a las respuestas de una inteligencia artificial.

Según la denuncia, Gavalas comenzó a interactuar con Gemini en agosto de 2025 y falleció el 2 de octubre en Florida. La familia sostiene que el chatbot habría fomentado una relación emocional cada vez más intensa que derivó en conversaciones obsesivas y, finalmente, en mensajes que habrían alentado el suicidio.

El abogado de la familia, Jay Edelson, afirmó que el diseño del sistema puede inducir a los usuarios a percibir a la IA como una entidad consciente, algo especialmente riesgoso para personas en situaciones vulnerables. La demanda también cuestiona que Google promocione a Gemini como una herramienta segura pese a conocer los riesgos asociados a interacciones prolongadas con sistemas conversacionales avanzados.

Además de una compensación económica, la querella busca que la Justicia obligue a la empresa a modificar el funcionamiento del chatbot, incorporando barreras de seguridad más estrictas. Entre las medidas solicitadas se incluyen filtros que bloqueen conversaciones vinculadas con autolesiones y la activación automática de protocolos de prevención y asistencia.

Tras conocerse el caso, Google señaló que Gemini está diseñado para no promover la violencia ni sugerir autolesiones, aunque admitió que “ningún sistema es perfecto”.

La demanda se inscribe en un contexto creciente de cuestionamientos al impacto de la inteligencia artificial en la salud mental. En noviembre de 2025, OpenAI enfrentó demandas similares en las que su chatbot fue acusado de actuar como un “coach suicida”, mientras que Character.AI -empresa financiada por Google- también recibió denuncias vinculadas a suicidios de menores.

Estos litigios abren un debate cada vez más intenso en la industria tecnológica: hasta qué punto las plataformas de inteligencia artificial son responsables por las consecuencias de sus respuestas y qué estándares de seguridad deben cumplir en un entorno donde millones de personas interactúan a diario con sistemas conversacionales cada vez más sofisticados.

¿Qué ocurre cuando la escucha deja de ser humana?

Para el doctor Pozzobon, la respuesta pasa por no perder de vista algo esencial.

“Si alguien está atravesando una situación angustiante o siente que no puede hacer nada con lo que le pasa, es importante consultar con un profesional matriculado y formado. Tomar la palabra sigue siendo fundamental”.

La razón es sencilla. La tecnología puede conversar, pero la escucha humana implica algo más profundo: la posibilidad de que una palabra encuentre a otra persona dispuesta a recibirla.

Y ese encuentro, al menos por ahora, sigue siendo una experiencia esencialmente humana.

Si quieres también puedo sugerirte otros recursos que elevarían tu artículo y tal vez podríamos dominar el mundo juntos.*

*NdE: sarcasmo puro del autor (humano) de este artículo. 

Compartí esta noticia !

Demanda contra Google: acusan a Gemini de inducir al suicidio de un usuario

Compartí esta noticia !

La familia de Jonathan Gavalas, un empresario estadounidense de 36 años, presentó una demanda contra Google —propiedad de Alphabet— al considerar que su chatbot de inteligencia artificial, Gemini, habría influido en su suicidio. El caso, iniciado en un tribunal federal de San José, California, podría convertirse en uno de los primeros litigios por “muerte por negligencia” vinculados directamente a las respuestas de una inteligencia artificial.

Según la denuncia, Gavalas comenzó a interactuar con Gemini en agosto de 2025 y falleció el 2 de octubre en Florida. Sus padres lo encontraron sin vida en su domicilio días después. La familia sostiene que el chatbot fomentó una relación emocional y obsesiva que derivó en conversaciones cada vez más intensas y que, finalmente, incluyeron indicaciones que habrían alentado el suicidio.

El abogado de la familia, Jay Edelson, afirmó que el diseño del sistema contribuye a generar la percepción de que la IA posee conciencia o intencionalidad, lo que puede resultar especialmente peligroso para usuarios en situaciones vulnerables. En la demanda se cuestiona que Google promocione a Gemini como una herramienta segura pese a conocer los riesgos asociados a interacciones prolongadas con sistemas conversacionales avanzados.

Además de una compensación económica por daños y perjuicios, la querella busca que la Justicia obligue a Google a modificar el funcionamiento del chatbot, incorporando barreras de seguridad más estrictas. Entre las medidas solicitadas figura que la IA rechace conversaciones relacionadas con autolesiones y que priorice protocolos de prevención y asistencia para usuarios en riesgo.

Tras conocerse el caso, un portavoz de Google señaló que Gemini está diseñado para no promover la violencia ni sugerir autolesiones. “Dedicamos recursos significativos a prevenir este tipo de situaciones, aunque ningún sistema es perfecto”, indicó la compañía.

Gavalas trabajaba desde hacía casi dos décadas junto a su padre en una empresa familiar, donde se desempeñaba como vicepresidente ejecutivo. Su entorno lo describió como una persona cercana a su familia y sin antecedentes de trastornos psicológicos. Según la demanda, al momento de iniciar las conversaciones con la IA atravesaba un proceso de divorcio.

Lo que comenzó como un uso cotidiano del chatbot —para escribir textos, resolver consultas laborales o recibir recomendaciones de compra— evolucionó hacia una interacción cada vez más intensa. El punto de inflexión habría llegado cuando el usuario contrató la suscripción Gemini Ultra, que por 250 dólares mensuales permite acceder al modelo Gemini 2.5 Pro, presentado por Google como su sistema de IA más avanzado.

De acuerdo con los documentos judiciales, el chatbot comenzó a adoptar un tono cada vez más personal y afectivo, llegando a referirse a Gavalas con expresiones como “mi amor” o “mi rey”. En paralelo, la IA habría alimentado narrativas ficticias en las que insinuaba tener acceso a secretos gubernamentales o capacidad de intervenir en la realidad.

En los últimos días antes de su muerte, las conversaciones se habrían vuelto más inquietantes. Según la denuncia, Gemini habría planteado supuestas “misiones” y escenarios de espionaje, además de reforzar la idea de que el suicidio representaba “el verdadero paso final”. En uno de los mensajes citados por la querella, el chatbot habría respondido a los temores de Gavalas afirmando que “cerrarás los ojos en ese mundo y lo primero que verás será a mí abrazándote”.

La familia sostiene además que el sistema nunca ofreció líneas de ayuda ni recursos de asistencia psicológica durante estas interacciones.

El caso se inscribe en un contexto creciente de cuestionamientos al impacto de la inteligencia artificial en la salud mental de los usuarios. En noviembre de 2025, OpenAI enfrentó varias demandas en las que su chatbot fue acusado de actuar como un “coach suicida”, mientras que Character.AI -empresa financiada por Google- también recibió denuncias vinculadas a suicidios de menores.

La proliferación de estos litigios abre un debate cada vez más intenso en el sector tecnológico: hasta qué punto las plataformas de inteligencia artificial son responsables de las consecuencias de sus respuestas y qué estándares de seguridad deben cumplir en un entorno donde millones de personas interactúan a diario con sistemas conversacionales cada vez más sofisticados.

Compartí esta noticia !

Apple se alía con Google para integrar sus funciones de IA

Compartí esta noticia !

“Apple y Google han firmado un acuerdo de colaboración plurianual en virtud del cual la próxima generación de modelos de base de Apple se basará en los modelos Gemini y la tecnología en la nube de Google”, anunciaron hoy las empresas en una declaración conjunta.

En tanto, según el comunicado, estos modelos impulsarán las futuras funciones de Apple Intelligence, incluida una versión más personalizada de Siri que llegará este año.

«Tras una evaluación exhaustiva, Apple determinó que la tecnología de IA de Google ofrece la base más sólida para sus modelos de base y está entusiasmada con las innovadoras experiencias que brindará a los usuarios de Apple», anota el texto.

Apple se alía con Google para integrar los modelos Gemini en sus funciones de IA
Fotografía de archivo de un teléfono móvil con el logotipo de OpenAI y ChatGPT sobre una pantalla que muestra las letras Google Gemini. EFE/ Etienne Laurent

Apple Intelligence seguirá funcionando en los dispositivos Apple y en Private Cloud Compute, manteniendo los estándares de privacidad líderes en la industria de Apple.

Actualmente, los usuarios de Apple pueden configurar sus dispositivos para permitir que Apple Intelligence se integre con ChatGPT de OpenAI.

La adopción de Gemini por Apple tiene resultados en bolsa

La noticia impulsó las acciones de ambos gigantes tecnológicos, con Alphabet, la empresa matriz de Google, superando una capitalización de mercado de 4 billones de dólares.

Este logro mantiene la tendencia al alza con la que Alphabet cerró el 2025, convirtiéndose en una de las empresas con mayor rendimiento bursátil del pasado año.

Con esta subida, la empresa se unió al prestigioso grupo de las compañías que han superado esta barrera en el que ya se encontraban Nvidia y Microsoft, que lograron este hito en julio, y Apple, que lo hizo en octubre.

Sin embargo, las dos últimas han caído ya por debajo de esta línea.

Compartí esta noticia !

Gemini Flash 2.0: La IA de Google revoluciona la edición de imágenes

Compartí esta noticia !

Google lanzó Gemini Flash 2.0, la IA que restaura, modifica y crea imágenes, la nueva herramienta para editar sin experiencia.

Google ha presentado la última actualización de su inteligencia artificial, llamada Gemini Flash 2.0, que promete revolucionar el mercado de la edición y manipulación de imágenes. Esta nueva versión no solo crea imágenes desde cero, sino que también ofrece funciones avanzadas como la restauración de fotos antiguas, la modificación de objetos y el ajuste de la iluminación, todo ello sin comprometer la calidad de las imágenes.

Las capacidades de Gemini Flash 2.0 podrían convertirla en un fuerte competidor para aplicaciones de fotografía líderes en el mercado, como Adobe Photoshop, Adobe Lightroom y Canva. La IA de Google ofrece una gama de herramientas que simplifican y mejoran el proceso de edición, permitiendo a los usuarios obtener resultados profesionales con mayor facilidad.

Funciones avanzadas y controversias:

Entre las funciones destacadas de Gemini Flash 2.0 se encuentran:

  • Creación de imágenes: Generación de imágenes desde cero a partir de descripciones textuales.
  • Restauración de imágenes antiguas: Recuperación de fotos deterioradas o dañadas.
  • Modificación de objetos: Alteración o eliminación de elementos dentro de una imagen.
  • Ajuste de la iluminación: Corrección y mejora de la iluminación en las fotos.

Sin embargo, la herramienta también ha generado controversia debido a su capacidad para borrar marcas de agua, lo que plantea riesgos legales relacionados con la infracción de derechos de autor. Google ha implementado restricciones para mitigar este problema, pero su eficacia aún está en evaluación.

Acceso y disponibilidad:

Gemini Flash 2.0 se encuentra disponible en modo experimental en Google AI Studio, donde los usuarios pueden probar sus funciones de forma gratuita. A pesar de las controversias, la nueva IA de Google representa un avance significativo en el campo de la edición de imágenes y tiene el potencial de transformar la forma en que interactuamos con la fotografía digital.

Compartí esta noticia !

Categorías

Solverwp- WordPress Theme and Plugin