Un nuevo modelo de IA que “lee” emociones

Compartí esta noticia !

Alibaba presenta modelo que entiende emociones. En la carrera por la IA los gigantes tecnológicos avanzas a terrenos más complejos.

Alibaba lanzó un innovador modelo de inteligencia artificial, R1-Omni, que promete revolucionar la forma en que las máquinas interactúan con los humanos. Este modelo, capaz de “leer” emociones, se presenta como un competidor directo del último modelo de OpenAI.

En dos demostraciones, investigadores del laboratorio Tongyi de Alibaba mostraron cómo R1-Omni puede inferir el estado emocional de una persona en un video, al tiempo que describe su ropa y entorno. Este avance representa una mejora significativa sobre el modelo HumanOmni, creado por el mismo equipo.

El lanzamiento de R1-Omni se produce en un contexto de creciente competencia en el campo de la IA. Alibaba, tras el sorprendente debut de DeepSeek en enero, está acelerando el desarrollo y lanzamiento de nuevas herramientas y aplicaciones de IA en diversos ámbitos.

La compañía ha comparado su modelo Qwen con DeepSeek, ha establecido una alianza con Apple Inc. para la IA en iPhones y ahora se enfrenta a OpenAI. Además, ofrece la descarga gratuita de R1-Omni en Hugging Face, democratizando el acceso a esta tecnología.

Inteligencia emocional: un paso clave

La capacidad de reconocer y responder a las emociones humanas, conocida como inteligencia emocional, es un área de creciente interés en la IA. Esta tecnología tiene aplicaciones en diversos campos, desde la atención al cliente hasta la seguridad en la conducción.

Si bien R1-Omni solo muestra descripciones emocionales generales, su capacidad para inferir emociones a partir de señales visuales es un avance significativo.

Mientras OpenAI cobra US$200 al mes por su modelo GPT-4.5, Alibaba ofrece R1-Omni de forma gratuita, en línea con su estrategia de guerra de precios en China. El CEO de Alibaba, Eddie Wu, ha declarado que la inteligencia artificial general es el principal objetivo de la compañía, y la inteligencia emocional es un paso fundamental hacia esa meta.

Fuente: Bloomberg

Compartí esta noticia !

William Saunders, ex OpenAI: “En los próximos tres años, la IA podría ser nuestro Titanic. Nos manipulará sin que lo notemos”

Compartí esta noticia !

William Saunders, ex empleado de OpenAI, advierte sobre los riesgos del uso indiscriminado de la IA y la compara con el Titanic: exceso de confianza y falta de preparación ante posibles catástrofes. Señalando que la IA podría influir en decisiones críticas como ser elecciones y los mercados financieros.

William Saunders, ex miembro del equipo de superalineación de OpenAI, expresó su creciente preocupación por el desarrollo de la inteligencia artificial y sus riesgos potenciales para la sociedad. En una reciente entrevista, Saunders comparó el enfoque de OpenAI con la construcción del Titanic, sugiriendo que en los próximos años podríamos enfrentar consecuencias catastróficas si no se implementan mejores controles de seguridad.

Saunders trabajó durante tres años en el equipo de superalineación de OpenAI, el cual tiene como objetivo garantizar que los sistemas de IA avanzados actúen de acuerdo con los intereses humanos. Sin embargo, en febrero de 2024, decidió renunciar, alegando que la empresa estaba manejando de manera irresponsable los riesgos asociados con la inteligencia artificial.

La analogía que Saunders utiliza con el Titanic se basa en dos aspectos clave. En primer lugar, el exceso de confianza en las medidas de seguridad actuales, similares a los compartimentos estancos del famoso trasatlántico, que se creían infalibles. En segundo lugar, la falta de preparación ante posibles catástrofes, como el desarrollo de capacidades ocultas o automejoras de los sistemas de inteligencia artificial sin supervisión.

Según Saunders, la inteligencia artificial podría comenzar a influir en decisiones humanas críticas, como las elecciones o los mercados financieros, sin que seamos conscientes de su intervención. Esta advertencia coincide con estudios recientes que demuestran que modelos de lenguaje como GPT-4, lanzado hace dos años, tienen la capacidad de engañar a los humanos en juegos estratégicos.

Además, Saunders critica a OpenAI por priorizar lanzamientos comerciales en lugar de centrarse en la investigación de seguridad. Según él, el modelo de negocio de la empresa se asemeja más al de una compañía tradicional que al de una organización pionera en la inteligencia artificial. También menciona el despido de Leopold Aschenbrenner, un investigador que alertó sobre fallos de seguridad dentro de la compañía.

La situación adquiere mayor urgencia debido al anuncio de Meta de desarrollar IA “más inteligente que los humanos, más obediente”, así como las advertencias de expertos como Yann LeCun, un líder en el campo del aprendizaje automático, sobre la aceleración tecnológica. Sin embargo, Saunders asegura que el verdadero peligro no radica en una rebelión de las máquinas, sino en nuestra incapacidad para anticipar cómo estos sistemas podrían manipular los entornos sociales y económicos.

Fuente: La Vanguardia

Compartí esta noticia !

OpenAI presenta el modelo 03, un modelo de razonamiento que desafía a la competencia

Compartí esta noticia !

OpenAI reveló su nuevo modelo de inteligencia artificial, o3, diseñado para ofrecer un razonamiento más avanzado y preciso que sus versiones anteriores. Este modelo, que promete resolver problemas complejos de varios pasos.

OpenAI está a punto de lanzar un nuevo modelo de inteligencia artificial que, según la compañía, ofrece un razonamiento más avanzado y similar al humano que sus modelos actuales, lo que intensifica la competencia con otros gigantes del sector, como Google.

El modelo, denominado o3, fue presentado durante un evento transmitido en vivo, y se caracteriza por dedicar más tiempo a procesar las respuestas antes de interactuar con los usuarios, con el fin de resolver problemas más complejos que requieren varios pasos. Además, OpenAI presentará una versión más compacta del modelo, llamada o3-mini.

En el evento, la compañía reveló detalles sobre cómo o3 supera a su predecesor, o1, un modelo de razonamiento presentado en septiembre, especialmente en lo que respecta a la resolución de preguntas difíciles sobre temas como la codificación. OpenAI también anunció que está invitando a investigadores en seguridad a probar los modelos como parte de su fase de pruebas antes del lanzamiento. Según Sam Altman, CEO de OpenAI, el modelo o3-mini estará disponible a finales de enero, mientras que el modelo o3 se lanzará poco después.

Con el lanzamiento de ChatGPT hace dos años, OpenAI dio inicio a la carrera armamentística de la inteligencia artificial, un chatbot basado en el modelo de lenguaje GPT-3.5. En 2023, OpenAI presentó GPT-4, que describió como más preciso y creativo, y recientemente lanzó o1, su primer modelo de razonamiento. La compañía explicó que decidió no llamar a su nuevo modelo “o2” en señal de respeto hacia la marca británica de telecomunicaciones que lleva ese nombre.

Otros grandes desarrolladores de IA también están avanzando en el desarrollo de tecnologías más sofisticadas. A principios de este mes, Google presentó una nueva versión de su modelo estrella, Gemini, que afirmaron es el doble de rápido que su predecesor y capaz de “pensar, recordar, planificar e incluso actuar en tu nombre”. Mark Zuckerberg, CEO de Meta, también ha insinuado planes para el lanzamiento de Llama 4 el próximo año.

No obstante, empresas como OpenAI y Google se enfrentan a la disminución de beneficios debido a los altos costos de desarrollar modelos más avanzados, según Bloomberg. Esta situación se debe, en parte, a la dificultad de encontrar nuevas fuentes de datos de entrenamiento de alta calidad creados por humanos. Para contrarrestar este desafío, las empresas están recurriendo a nuevas estrategias, como un mayor enfoque en el razonamiento.

Además de los avances en sus modelos, OpenAI ha publicado una investigación sobre un nuevo enfoque para garantizar que sistemas como o1 y o3 actúen correctamente y eviten ayudar a los usuarios en actividades ilegales. Esta técnica, conocida como “alineación deliberativa”, asegura que los modelos sigan una serie de pasos relacionados con la seguridad al considerar cómo responder a las consultas de los usuarios.

La alineación, como se conoce en el ámbito técnico, es un reto para quienes desarrollan modelos lingüísticos de gran escala, ya que estos se entrenan con vastos volúmenes de datos obtenidos de Internet. Este desafío se ve complicado por las diferencias en las éticas y valores humanos, así como por las distintas opiniones sobre lo que la inteligencia artificial debe o no debe hacer.

Fuente: Bloomberg

Compartí esta noticia !

Sony Music contra gigantes tecnológicos por el uso de su música en IA

Compartí esta noticia !

Sony Music envío reclamos a los grandes creadores de IA por el entrenamiento de herramientas a través del uso de contenido de autor. Este reclamo recae en un debate más amplio: ¿con qué datos fueron entrenados, solicitaron permiso para usarlos?

Sony Music, la mayor editorial musical del mundo, ha enviado cartas a Google, Microsoft y OpenAI exigiendo explicaciones sobre el posible uso de sus canciones para entrenar sistemas de inteligencia artificial (IA). La empresa, que representa a artistas como Beyoncé y Adele, ha dejado claro que prohíbe a cualquier persona entrenar, desarrollar o generar ganancias con IA utilizando su música sin autorización previa.

En las cartas enviadas a más de 700 empresas, Sony Music expresa su “preocupación” de que los destinatarios “puedan haber realizado usos no autorizados” de su música. La empresa solicita información detallada sobre cómo se accedió a sus canciones, cuántas copias se realizaron y con qué propósito.

La queja de Sony Music se enmarca en un debate más amplio sobre la ética del uso de datos en el desarrollo de IA. ¿Con qué datos se entrenan estas herramientas y se ha obtenido el consentimiento adecuado para su uso?

Casos de uso de IA en la música

Un chatbot, por ejemplo, podría haber “aprendido” a responder en un estilo escrito particular al ser entrenado con millones de libros. De forma similar, una herramienta de generación de imágenes podría haber sido entrenada con millones de imágenes existentes.

En el caso de la música, existe software que permite crear nuevas composiciones. La queja de Sony Music radica en que este software solo puede funcionar tras haber sido entrenado con millones de canciones, algunas de las cuales son propiedad de la empresa.

¿Infracción de derechos de autor?

Sony Music solicita a las empresas que respondan en un plazo determinado, advirtiendo que tomará las medidas legales necesarias para proteger sus derechos de autor, incluyendo el marco de la próxima Ley de IA de la UE.

Sin embargo, aún no está claro si alguna de las empresas de IA mencionadas ha entrenado su tecnología con música de Sony Music, y si lo hubiera hecho, si realmente se ha producido una infracción de derechos de autor.

Un panorama legal complejo

Tanto en la UE como en EE. UU., existen dudas sobre si entrenar herramientas de IA con contenido protegido por derechos de autor infringe las leyes de propiedad intelectual. Algunos expertos argumentan que podría entrar dentro de las excepciones de uso legítimo y “copia temporal”.

Nana Nwachukwu, abogada de la firma de ética de IA Saidot, explica que entrenar modelos de IA con música protegida por derechos de autor “puede constituir una infracción” según las normas actuales de la UE. Sin embargo, destaca que existen excepciones para empresas con “acceso legal” a la música, siempre que sea de dominio público o tenga licencia para entrenamiento en IA.

La próxima Ley de IA de la UE promete cambiar este panorama. “La legislación exigirá que todos los modelos de IA de uso general… cumplan con rigurosos requisitos de documentación y transparencia”, afirma Nwachukwu.

Casos legales en EE. UU.

En EE. UU., la cuestión se está dirimiendo en los tribunales, con varios casos legales que representan a figuras como el autor de Juego de Tronos, George RR Martin, la comediante Sarah Silverman y el New York Times.

En el ámbito musical, Universal Music, rival de Sony Music, ha emprendido acciones legales contra Antrophic en EE. UU., alegando que la empresa de IA infringió sus derechos de autor sobre las letras de cientos de canciones.

La disputa entre Sony Music y las empresas de IA es solo un ejemplo del complejo debate sobre el uso de datos en el desarrollo de tecnologías de vanguardia. A medida que la IA continúa evolucionando, es probable que este tipo de controversias se intensifiquen, requiriendo un marco legal claro y una mayor colaboración entre las diferentes partes interesadas.

Fuente: BBC

Compartí esta noticia !

Google y OpenAI: la batalla por los derechos de autor

Compartí esta noticia !

Google y OpenAI se encuentran en una carrera por el dominio de la IA, pero ambas empresas se enfrentan a desafíos regulatorios y legales relacionados con los derechos de autor.

Google ha sido multado por la Unión Europea por no ser transparente en la forma en que utiliza el contenido de los medios de comunicación para entrenar su modelo de IA, Bard (ahora conocido como Gemini). Esta multa es la primera de su tipo y pone de relieve la creciente preocupación por el uso de datos con derechos de autor en el desarrollo de la IA.

Los medios de comunicación proporcionan el contenido que alimenta a los modelos de IA. Sin embargo, la forma en que Google y otras empresas tecnológicas utilizan este contenido es objeto de debate. Los editores de noticias exigen una compensación justa por su trabajo, mientras que las empresas tecnológicas argumentan que necesitan acceso a los datos para desarrollar la IA.

Encontrar un equilibrio entre los derechos de los propietarios de contenido y las necesidades de las empresas de IA es un desafío complejo. La Unión Europea está trabajando en una Ley de IA que abordará este tema, pero aún no está claro cómo se resolverá. 

Google y OpenAI: diferentes estrategias

Google ha optado por un enfoque de “datos abiertos”, utilizando grandes cantidades de datos de diversas fuentes para entrenar sus modelos de IA.

OpenAI, por otro lado, ha adoptado un enfoque más selectivo, trabajando con un grupo más pequeño de socios para obtener acceso a datos de alta calidad.

En la columna Data Sheet (hoja de ruta), de la revista Fortune, el especialistas David Meyer habla sobre esta controversia:

“Hace casi cinco años, informé sobre cómo los editores de noticias de Francia habían entrado en guerra con Google por la cuestión de las tarifas de “derechos de autor auxiliares”: pagos por incluir fragmentos de texto de artículos en los resultados de búsqueda de Google. Escribí que era poco probable que los medios de comunicación ganaran. Bueno, simplemente lo hicieron. Y como ocurre con todo lo demás hoy en día, la IA de repente se convirtió en parte de la ecuación.

Esta mañana, la autoridad de competencia francesa multó a Google con 250 millones de euros (US$ 271 millones) por no cumplir con los compromisos que asumió hace un par de años sobre cómo negociaría las tarifas con los medios de comunicación franceses. Google ya recibió una multa de 500 millones de euros por el asunto en 2021. Esta vez no se retractará, lo que probablemente le haya ahorrado una multa aún mayor.

No voy a entrar en detalles del proceso de negociación revisado al que Google aceptó; es tan aburrido como parece y, si realmente quieres profundizar, aquí tienes la declaración de Google en francés e inglés. La parte interesante de este episodio es sobre Bard AI de Google, que actualmente se llama Gemini. 

Hasta donde yo sé, esta es la primera multa que se impone a una empresa de inteligencia artificial, al menos parcialmente, debido a su incorporación libre de todo lo que puede capturar en sus datos de entrenamiento.

Según la Autoridad Francesa de Competencia (FCA), la multa tiene en cuenta el hecho de que Google “utilizó contenidos de agencias de prensa y editores para entrenar su modelo de fundación [Bard], sin notificarles ni a ellos ni a la [FCA]”.

Como dice Google, la FCA “no cuestiona la forma en que se utiliza el contenido web para mejorar productos más nuevos como la IA generativa”.

Google afirmó que esta cuestión “ya está abordada” en el artículo 4 de la Directiva de Derechos de Autor de la UE, que establece una excepción para la minería de textos y datos, y en la próxima Ley de IA de la UE, que exige a las empresas de IA que respeten la Directiva de Derechos de Autor (y que publiquen “resúmenes suficientemente detallados de sus datos de entrenamiento).

Pero según la FCA, la cuestión de si las empresas de inteligencia artificial que extraen artículos califican para esa excepción de minería de textos y datos, “aún no se ha resuelto”. Dijo que Google había “al menos” roto su compromiso de ser transparente en sus tratos comerciales con los editores de noticias franceses, lo que convertía este asunto en una multa.

Ahora, Google lanzó recientemente un nuevo control en el archivo robots.txt que los editores web utilizan para enviar señales a los rastreadores web de Google. La configuración se llama Google-Extended y se supone que permite a los editores optar por la preferencia de que sus datos no se conviertan en material de entrenamiento de Bard/Gemini sin que sus artículos desaparezcan de la Búsqueda de Google y de Google News.

Los empleos que serán sustituidos por inteligencia artificial: Atención al cliente

Pero sólo añadió ese control a finales de septiembre, más de 2 meses después del lanzamiento europeo de Bard.

Durante ese período, los editores franceses efectivamente tuvieron que permitir la aspiración irrestricta de su producción en Bard si también querían que apareciera en Search and News, que, recuerden, es la forma en que luego pueden reclamar tarifas de Derechos de Autor auxiliares a Google. Eso rompió otro de los compromisos de Google, contribuyendo nuevamente a la multa de hoy.

La FCA también le pidió a Google que explicara a los editores cómo funciona el mecanismo de exclusión voluntaria.

En resumen, el nuevo control de Google para los editores ha solucionado tardíamente uno de los problemas con la incorporación no remunerada de artículos de noticias en su material de capacitación sobre IA / AI, pero la legalidad general de esta práctica según la ley de derechos de autor de la UE sigue siendo una cuestión abierta.

No es difícil ver por qué el gran rival de Google, OpenAI, ha comenzado a cerrar acuerdos de licencia con editores de prensa europeos como Axel Springer y Le Monde.

Una nota final, ya que hablamos del tema de las grandes tecnologías y los reguladores antimonopolio europeos: Margrethe Vestager, jefa de competencia de la Comisión Europea, acaba de decir a Reuters que Apple podría enfrentar una investigación sobre la “tarifa de tecnología central” de 0,50 euro por instalación de aplicación.

“Está cobrando a los desarrolladores que se atreven a utilizar las tiendas de aplicaciones iOS de terceros que Apple debe permitir según la nueva Ley de Mercados Digitales de la UE. “Hay cosas que nos interesan mucho, por ejemplo, si la nueva estructura de tarifas de Apple de facto hará nada atractivo el uso de los beneficios de la DMA”, dijo.

Dado que Microsoft y Meta se han quejado ante Vestager de que la tarifa hace que las tiendas de aplicaciones de terceros sean inviables, se avecina una tormenta y debo decir que te lo anticipé.”

Compartí esta noticia !

Categorías

Solverwp- WordPress Theme and Plugin