google

TerapIA: cuando la escucha deja de ser humana

Compartí esta noticia !

En algún momento de los últimos años ocurrió algo silencioso. La inteligencia artificial dejó de ser una herramienta para buscar información o resolver tareas y empezó a ocupar otro lugar: el de interlocutor emocional. Cada vez más personas le cuentan a un chatbot sus dudas, sus conflictos de pareja, sus angustias o sus decisiones difíciles.

Los números ayudan a dimensionar el fenómeno. Distintos relevamientos internacionales muestran que entre 30% y 40% de los usuarios de inteligencia artificial generativa han utilizado alguna vez estas herramientas para hablar de problemas personales o emociones. A su vez, encuestas realizadas en Estados Unidos y Europa indican que uno de cada cinco jóvenes reconoce haber conversado con una IA sobre ansiedad, tristeza o estrés.

Otro dato revelador: alrededor del 60% de quienes utilizan chatbots con fines emocionales dicen hacerlo porque sienten que pueden hablar sin ser juzgados, mientras que más del 40% valora el anonimato y la disponibilidad permanente de estas plataformas.

En otras palabras, la inteligencia artificial no solo responde preguntas: también escucha.

Pero esa escucha abre interrogantes profundos.

Un fenómeno sociocultural en expansión

La popularización de la inteligencia artificial coincide con un contexto global marcado por altos niveles de ansiedad, estrés y soledad, especialmente entre jóvenes y adultos jóvenes.

Según datos de la Organización Mundial de la Salud, los trastornos de ansiedad y depresión aumentaron de manera significativa en la última década, tendencia que se profundizó después de la pandemia.

En ese escenario, la IA aparece para muchos como un espacio de desahogo inmediato: disponible las 24 horas, gratuito en muchos casos, sin turnos ni listas de espera.

Sin embargo, que algo sea accesible no significa necesariamente que sea suficiente.

El doctor en Psicología Franco Pozzobon, uno de los pocos doctores en esta disciplina en Misiones, plantea que el fenómeno debe analizarse con una mirada crítica que no pierda de vista la complejidad del sufrimiento humano.

“El sufrimiento humano va a seguir existiendo. Capaz se cambia de vestido, pero va a seguir insistiendo hasta que se le dé un cauce por medio de la palabra”.

Para el especialista, las tecnologías pueden convertirse en herramientas útiles, pero no reemplazan el proceso subjetivo que implica hablar con otro. “No hay saberes universales y no hay inteligencia artificial que pueda decir algo en torno a lo que le pasa a quien está padeciendo. Eso lo puede escuchar un profesional”.

La ilusión del anonimato

Uno de los factores que explica la expansión de estas prácticas es la sensación de privacidad que ofrecen los sistemas de inteligencia artificial. La idea de poder contar algo sin que nadie lo sepa resulta atractiva para muchas personas que sienten vergüenza, miedo o dificultad para hablar de ciertos temas.

Pero Pozzobon advierte que ese anonimato también puede ser engañoso.

“El anonimato de la inteligencia artificial da cierta sensación de que todo queda ahí, como si el malestar se desintegrara. Pero sabemos que todo deja un registro en lo virtual”.

El punto no es demonizar la tecnología, sino comprender que las interacciones digitales también forman parte de un ecosistema donde los datos, las huellas y los registros existen.

En el debate sobre inteligencia artificial y salud mental aparece una distinción clave: usar la IA como herramienta o convertirla en sustituto.

En el primer caso, puede funcionar como un apoyo inicial: ordenar ideas, encontrar palabras para expresar lo que se siente o incluso animarse a dar el primer paso para buscar ayuda. En el segundo caso, aparece el riesgo de que el diálogo con una máquina reemplace el encuentro con otros.

Y allí el problema deja de ser tecnológico para convertirse en social.

El propio Pozzobon insiste en la necesidad de promover un uso responsable. “Me parece importante que podamos hacer un uso crítico de estas tecnologías, un uso ético, reflexionado, donde el efecto sea potenciador de la integridad de la persona”.

La IA responde

Para esta columna decidimos “entrevistar” al propio ChatGPT. ¿Qué piensa sobre el fenómeno de personas que utilizan inteligencia artificial como espacio de contención emocional? Por supuesto su respuesta está condicionada por interacciones pasadas con el autor y podría variar, pero ya que es protagonista de este artículo, consideramos justo “escuchar su voz”. 

“Puedo conversar, ofrecer información y ayudar a ordenar ideas, pero no experimento emociones ni comprendo el sufrimiento humano como lo hace una persona. Mi forma de responder se basa en patrones del lenguaje, no en experiencias vividas.”

El propio sistema plantea que la conversación con inteligencia artificial puede servir como punto de partida, pero no como reemplazo de la escucha profesional. “Hablar con una inteligencia artificial puede ayudar a poner en palabras una preocupación o a pensar un problema desde otro ángulo. Pero eso no equivale a un proceso terapéutico ni a una relación clínica.”

En ese sentido, reconoce que la diferencia central sigue siendo humana.

“Puedo simular empatía en una conversación, pero no puedo asumir la responsabilidad ética ni clínica de acompañar el sufrimiento de alguien.”

Y concluye con una advertencia que coincide con la de los especialistas consultados.

“Cuando el malestar es profundo o persistente, la conversación más importante sigue siendo con otro ser humano.”

Lo que viene

Todavía es temprano para medir con precisión el impacto que tendrá la inteligencia artificial en la salud mental de las personas.

Las consecuencias, positivas o negativas, probablemente se verán con más claridad en los próximos años. Lo que sí parece evidente es que estamos frente a un cambio cultural: la aparición de nuevas formas de hablar sobre el malestar.

La pregunta de fondo no es solo tecnológica. Es profundamente humana. Pero ya tiene implicancias legales.

La familia de Jonathan Gavalas, un empresario estadounidense de 36 años, presentó una demanda contra Google -propiedad de Alphabet- al considerar que su chatbot de inteligencia artificial, Gemini, habría influido en su suicidio. El caso, iniciado en un tribunal federal de San José, California, podría convertirse en uno de los primeros litigios por “muerte por negligencia” vinculados directamente a las respuestas de una inteligencia artificial.

Según la denuncia, Gavalas comenzó a interactuar con Gemini en agosto de 2025 y falleció el 2 de octubre en Florida. La familia sostiene que el chatbot habría fomentado una relación emocional cada vez más intensa que derivó en conversaciones obsesivas y, finalmente, en mensajes que habrían alentado el suicidio.

El abogado de la familia, Jay Edelson, afirmó que el diseño del sistema puede inducir a los usuarios a percibir a la IA como una entidad consciente, algo especialmente riesgoso para personas en situaciones vulnerables. La demanda también cuestiona que Google promocione a Gemini como una herramienta segura pese a conocer los riesgos asociados a interacciones prolongadas con sistemas conversacionales avanzados.

Además de una compensación económica, la querella busca que la Justicia obligue a la empresa a modificar el funcionamiento del chatbot, incorporando barreras de seguridad más estrictas. Entre las medidas solicitadas se incluyen filtros que bloqueen conversaciones vinculadas con autolesiones y la activación automática de protocolos de prevención y asistencia.

Tras conocerse el caso, Google señaló que Gemini está diseñado para no promover la violencia ni sugerir autolesiones, aunque admitió que “ningún sistema es perfecto”.

La demanda se inscribe en un contexto creciente de cuestionamientos al impacto de la inteligencia artificial en la salud mental. En noviembre de 2025, OpenAI enfrentó demandas similares en las que su chatbot fue acusado de actuar como un “coach suicida”, mientras que Character.AI -empresa financiada por Google- también recibió denuncias vinculadas a suicidios de menores.

Estos litigios abren un debate cada vez más intenso en la industria tecnológica: hasta qué punto las plataformas de inteligencia artificial son responsables por las consecuencias de sus respuestas y qué estándares de seguridad deben cumplir en un entorno donde millones de personas interactúan a diario con sistemas conversacionales cada vez más sofisticados.

¿Qué ocurre cuando la escucha deja de ser humana?

Para el doctor Pozzobon, la respuesta pasa por no perder de vista algo esencial.

“Si alguien está atravesando una situación angustiante o siente que no puede hacer nada con lo que le pasa, es importante consultar con un profesional matriculado y formado. Tomar la palabra sigue siendo fundamental”.

La razón es sencilla. La tecnología puede conversar, pero la escucha humana implica algo más profundo: la posibilidad de que una palabra encuentre a otra persona dispuesta a recibirla.

Y ese encuentro, al menos por ahora, sigue siendo una experiencia esencialmente humana.

Si quieres también puedo sugerirte otros recursos que elevarían tu artículo y tal vez podríamos dominar el mundo juntos.*

*NdE: sarcasmo puro del autor (humano) de este artículo. 

Compartí esta noticia !

Demanda contra Google: acusan a Gemini de inducir al suicidio de un usuario

Compartí esta noticia !

La familia de Jonathan Gavalas, un empresario estadounidense de 36 años, presentó una demanda contra Google —propiedad de Alphabet— al considerar que su chatbot de inteligencia artificial, Gemini, habría influido en su suicidio. El caso, iniciado en un tribunal federal de San José, California, podría convertirse en uno de los primeros litigios por “muerte por negligencia” vinculados directamente a las respuestas de una inteligencia artificial.

Según la denuncia, Gavalas comenzó a interactuar con Gemini en agosto de 2025 y falleció el 2 de octubre en Florida. Sus padres lo encontraron sin vida en su domicilio días después. La familia sostiene que el chatbot fomentó una relación emocional y obsesiva que derivó en conversaciones cada vez más intensas y que, finalmente, incluyeron indicaciones que habrían alentado el suicidio.

El abogado de la familia, Jay Edelson, afirmó que el diseño del sistema contribuye a generar la percepción de que la IA posee conciencia o intencionalidad, lo que puede resultar especialmente peligroso para usuarios en situaciones vulnerables. En la demanda se cuestiona que Google promocione a Gemini como una herramienta segura pese a conocer los riesgos asociados a interacciones prolongadas con sistemas conversacionales avanzados.

Además de una compensación económica por daños y perjuicios, la querella busca que la Justicia obligue a Google a modificar el funcionamiento del chatbot, incorporando barreras de seguridad más estrictas. Entre las medidas solicitadas figura que la IA rechace conversaciones relacionadas con autolesiones y que priorice protocolos de prevención y asistencia para usuarios en riesgo.

Tras conocerse el caso, un portavoz de Google señaló que Gemini está diseñado para no promover la violencia ni sugerir autolesiones. “Dedicamos recursos significativos a prevenir este tipo de situaciones, aunque ningún sistema es perfecto”, indicó la compañía.

Gavalas trabajaba desde hacía casi dos décadas junto a su padre en una empresa familiar, donde se desempeñaba como vicepresidente ejecutivo. Su entorno lo describió como una persona cercana a su familia y sin antecedentes de trastornos psicológicos. Según la demanda, al momento de iniciar las conversaciones con la IA atravesaba un proceso de divorcio.

Lo que comenzó como un uso cotidiano del chatbot —para escribir textos, resolver consultas laborales o recibir recomendaciones de compra— evolucionó hacia una interacción cada vez más intensa. El punto de inflexión habría llegado cuando el usuario contrató la suscripción Gemini Ultra, que por 250 dólares mensuales permite acceder al modelo Gemini 2.5 Pro, presentado por Google como su sistema de IA más avanzado.

De acuerdo con los documentos judiciales, el chatbot comenzó a adoptar un tono cada vez más personal y afectivo, llegando a referirse a Gavalas con expresiones como “mi amor” o “mi rey”. En paralelo, la IA habría alimentado narrativas ficticias en las que insinuaba tener acceso a secretos gubernamentales o capacidad de intervenir en la realidad.

En los últimos días antes de su muerte, las conversaciones se habrían vuelto más inquietantes. Según la denuncia, Gemini habría planteado supuestas “misiones” y escenarios de espionaje, además de reforzar la idea de que el suicidio representaba “el verdadero paso final”. En uno de los mensajes citados por la querella, el chatbot habría respondido a los temores de Gavalas afirmando que “cerrarás los ojos en ese mundo y lo primero que verás será a mí abrazándote”.

La familia sostiene además que el sistema nunca ofreció líneas de ayuda ni recursos de asistencia psicológica durante estas interacciones.

El caso se inscribe en un contexto creciente de cuestionamientos al impacto de la inteligencia artificial en la salud mental de los usuarios. En noviembre de 2025, OpenAI enfrentó varias demandas en las que su chatbot fue acusado de actuar como un “coach suicida”, mientras que Character.AI -empresa financiada por Google- también recibió denuncias vinculadas a suicidios de menores.

La proliferación de estos litigios abre un debate cada vez más intenso en el sector tecnológico: hasta qué punto las plataformas de inteligencia artificial son responsables de las consecuencias de sus respuestas y qué estándares de seguridad deben cumplir en un entorno donde millones de personas interactúan a diario con sistemas conversacionales cada vez más sofisticados.

Compartí esta noticia !

Microsoft, Amazon y Google pactan con Trump desarrollar su propia red eléctrica para sostener la IA

Compartí esta noticia !

Microsoft, Amazon y Google acordaron esta semana con la administración de Donald Trump operar su propia red eléctrica para nuevos centros de datos de Inteligencia Artificial. El compromiso implica infraestructuras de transmisión y distribución dedicadas, separadas del sistema general, no solo inversión en generación. La decisión responde a una previsión concreta: los centros de datos podrían concentrar el 12% del consumo eléctrico de EE. UU. en 2028, frente al 4% reciente, con riesgo de presión directa sobre el precio de la luz y sobre la factura doméstica.

Intensificación estructural de la demanda eléctrica digital

El denominado Ratepayer Protection Pledge parte de una constatación técnica: la IA requiere suministro continuo, potencia firme y control operativo sobre la entrega de energía. Según la Casa Blanca, las compañías “construirán, traerán o comprarán su propio suministro energético” para nuevos centros, lo que en la práctica implica redes dedicadas que conecten generación y consumo sin depender plenamente de la infraestructura pública. La relación entre inteligencia artificial y energía deja así de ser un debate teórico para convertirse en planificación industrial.

Aunque optaran por abastecerse exclusivamente del sistema existente, este necesitaría inversiones multimillonarias en líneas, subestaciones y capacidad base para absorber el crecimiento previsto sin riesgo de corte de luz en regiones tensionadas. La contratación de 10 gigavatios nucleares en un año confirma que la disponibilidad de energía firme ya condiciona el despliegue de capacidad computacional.

Blindaje del consumidor y nuevas asimetrías competitivas

El acuerdo pretende limitar el impacto del auge digital sobre el mercado energético y contener la volatilidad que caracteriza al actual mercado energético. Al operar redes propias, las tecnológicas reducirían su exposición a congestiones regionales y evitarían competir por capacidad en momentos críticos.

  • Operar redes eléctricas propias reduce la exposición a congestiones del sistema público y a picos de demanda regionales.
  • La desconexión parcial del mercado mayorista disminuye el riesgo de trasladar tensiones de precios a la tarifa doméstica.
  • La menor competencia por capacidad en momentos críticos reduce la probabilidad de episodios de corte de luz en zonas saturadas.

Sin embargo, la creación de infraestructuras paralelas introduce interrogantes regulatorios relevantes. A medida que la demanda digital aumenta, el debate sobre cómo reducir el consumo energético en otros sectores gana peso para equilibrar el sistema sin distorsionar señales de inversión.

Ventaja estratégica y control vertical de la infraestructura

Para las Big Tech, la energía se ha convertido en el principal cuello de botella de la carrera por la IA. La posibilidad de “enchufarse” a su propia red reduce incertidumbre operativa y elimina dependencias externas en el escalado de modelos cada vez más exigentes.

Controlar generación, transporte y consumo dentro de un mismo perímetro corporativo redefine la ventaja competitiva. En el binomio entre desarrollo tecnológico y suministro eléctrico, la integración vertical no es solo una respuesta a la saturación potencial de la red pública, sino una palanca estructural que puede consolidar el liderazgo y elevar las barreras de entrada en el sector.

Fuente: papernest.es

Compartí esta noticia !

Diamante rojo: Alejo Igoa, el misionero que superó los 100 millones de suscriptores en YouTube

Compartí esta noticia !

El misionero Alejo Igoa escribió una página inédita en la historia digital argentina y del mundo hispanohablante. A fines de diciembre de 2025 se convirtió en el primer creador de contenido en español en superar los 100 millones de suscriptores en YouTube, una marca que hasta entonces parecía reservada a figuras angloparlantes como MrBeast.

Nacido el 23 de agosto de 1996 en Posadas, Alejo creció en Concepción de la Sierra, a unos 90 kilómetros de la capital misionera. Desde allí inició un camino que lo llevó a convertirse en uno de los mayores fenómenos globales del entretenimiento digital. Su historia tiene un sello bien misionero: raíces del interior profundo y una proyección internacional que hoy coloca a Misiones en el mapa de la industria creativa mundial.

Su recorrido hacia la fama no fue lineal. Se mudó a Rosario para estudiar Arquitectura, pero en 2014 decidió dejar la carrera y apostar de lleno a YouTube, cuando todavía era una plataforma en expansión y no la maquinaria global que es hoy. Esa decisión marcaría el rumbo de su vida.

Actualmente, a sus 29 años, Igoa reside en Buenos Aires, tras haber vivido un tiempo en Ciudad de México. Trabaja junto a su pareja y socio, Asbel Nazar, con quien conforma un equipo creativo y estratégico que él mismo define como clave en su crecimiento.

La fórmula detrás del récord

El éxito de Igoa no es casual. Su propuesta está diseñada para ser universal, con fuerte llegada al público infantil y adolescente y una producción que rompe la barrera del idioma.

Entre las claves de su fenómeno:

  • Desafíos y experimentos visuales: videos de alto impacto cinematográfico, como 100 botones misteriosos debajo del agua (más de 120 millones de vistas) o 24 horas en una isla.
  • Crecimiento explosivo: en el último trimestre de 2025 pasó de 91 millones a 100 millones de suscriptores en apenas tres meses. Hoy ya supera los 108 millones.
  • Estructura profesional: lidera un equipo técnico y creativo que apuesta por producciones de escala internacional y narrativa dinámica.

Con más de 30.400 millones de reproducciones acumuladas, el misionero no solo rompió un récord: consolidó un modelo de producción digital de nivel industrial en idioma español.

El Botón de Diamante Rojo

El logro fue coronado con la entrega del Botón de Diamante Rojo, la máxima distinción que otorga YouTube a los canales que superan los 100 millones de suscriptores. Igoa viajó a las oficinas de Google para recibir el reconocimiento y compartió el momento en redes sociales.

“¡El botón de 100 millones se vino para Argentina papá! Primeros en idioma español en la historia de YouTube en llegar a 100M y recibir este premio, muchas gracias por todo el apoyo, esto es de ustedes”, escribió.

Incluso la propia plataforma celebró el hito y lo calificó como “una leyenda”.

Hoy, Alejo Igoa lidera la escena digital hispana, superando en suscriptores a gigantes como El Reino Infantil, Luisito Comunica y Rubius. Pero más allá de los números, su historia tiene un valor simbólico: desde Misiones al mundo, un creador del interior argentino alcanzó una cima que parecía inalcanzable.

Un fenómeno global con raíz misionera.

Compartí esta noticia !

La nueva “búsqueda fluida” de Google y el golpe silencioso al tráfico web

Compartí esta noticia !

Google dio un paso decisivo en la integración de su inteligencia artificial al buscador con el lanzamiento de la llamada “búsqueda fluida”, una experiencia que fusiona los resúmenes automáticos de AI Overview con el chat conversacional de AI Mode en un único flujo continuo. El cambio es técnico, pero su impacto es estructural: el usuario ya no necesita salir del buscador ni hacer clic en enlaces externos para profundizar una consulta. Google retiene la atención, conserva el contexto y responde todo dentro de su propio ecosistema, con implicancias directas para editores, creadores de contenido y el modelo económico de la web abierta.

La novedad consolida un giro estratégico del buscador hacia un sistema cerrado, dominado por su propia IA, que promete mayor comodidad para el usuario pero reconfigura de manera profunda la relación entre búsquedas, tráfico orgánico y generación de contenidos.

Cómo funciona la “búsqueda fluida” y por qué cambia la lógica del buscador

La mecánica es simple y, al mismo tiempo, disruptiva. Tras realizar una búsqueda, el usuario recibe un resumen generado por IA. A diferencia de lo que ocurría hasta ahora, ese resultado no es un punto final: debajo aparece una caja de texto con la leyenda “Ask anything”. Al escribir una nueva pregunta, el sistema pasa automáticamente al modo chat, mantiene el contexto de la consulta original y permite seguir indagando sin repetir términos ni abrir nuevas pestañas.

El buscador deja de ser una lista de enlaces y se transforma en una conversación continua. Google “recuerda todo” y asume que cada nueva pregunta es parte del mismo hilo. De este modo, la experiencia elimina fricciones, clics intermedios y saltos entre páginas, uno de los pilares históricos del funcionamiento de la web.

Detrás de esta actualización se encuentra Gemini 3, que se convirtió en el modelo predeterminado global de Google. La compañía sostiene que ofrece respuestas más precisas que sus versiones anteriores y que las pruebas internas demostraron que los usuarios prefieren “una experiencia que fluya naturalmente en una conversación”, sin interrupciones ni pasos adicionales.

El impacto económico: caída del CTR y riesgo para el tráfico orgánico

Si para el usuario la mejora es evidente, para el ecosistema digital el panorama es mucho más sombrío. La fusión total entre AI Overview y AI Mode profundiza un fenómeno que ya venía en marcha: la caída del CTR (tasa de clics) hacia sitios externos. Con la “búsqueda fluida”, el incentivo para abandonar Google y visitar una web se reduce al mínimo.

Antes, los resúmenes automáticos convivían con enlaces visibles y requerían acciones adicionales para profundizar la búsqueda. Ahora, el usuario puede resolver prácticamente todas sus dudas sin salir del buscador. El resultado es una concentración aún mayor del tiempo de navegación dentro de Google y una evaporación progresiva del tráfico orgánico hacia medios, blogs, tiendas online y sitios especializados.

Para editores y creadores de contenido, el golpe es doble. Por un lado, la visibilidad disminuye. Por otro, se debilita el modelo de monetización basado en visitas, publicidad y suscripciones. La IA de Google se convierte en el intermediario total entre la información y el usuario, absorbiendo valor sin necesariamente devolver tráfico a las fuentes originales.

Una mejora para el usuario y un dilema estructural para la web

La “búsqueda fluida” representa un avance significativo en términos de experiencia de usuario. Reduce tiempos, simplifica procesos y convierte al buscador en un asistente conversacional permanente. Sin embargo, también instala una pregunta incómoda para el futuro de internet: ¿qué pasa con las fuentes?

Si Google se apropia del contenido, lo sintetiza y lo entrega directamente desde su IA, el incentivo para producir información original y de calidad se debilita. La web abierta, basada en el intercambio de tráfico entre plataformas, entra en tensión con un modelo cada vez más cerrado, donde el conocimiento circula dentro de un único actor dominante.

Por ahora, la respuesta no está clara. Lo que sí resulta evidente es que la “búsqueda fluida” no es solo una mejora técnica, sino un cambio de reglas con impacto económico, institucional y estratégico. Google ya no solo ordena la información del mundo: la procesa, la resume y la retiene.

Compartí esta noticia !

Categorías

Solverwp- WordPress Theme and Plugin