IA generativa: Qué es y por qué la sociedad debe prepararse para este punto de inflexión

Escriben Benjamin Larsen y Jayant Narayan Project Lead, Artificial Intelligence and Machine Learning, World Economic Forum

Compartí esta noticia !

Escriben Benjamin Larsen y Jayant Narayan – A pesar de la recesión actual y de los despidos en el sector tecnológico, las empresas de IA generativa siguen recibiendo un enorme interés por parte de los inversores. Aunque la IA generativa enciende el entusiasmo a la gente con una nueva ola de creatividad, preocupa el impacto de estos modelos en la sociedad. Solo cuando existan controles y equilibrios sólidos podrá producirse una expansión más reflexiva y beneficiosa de las tecnologías/productos de IA generativa.

A raíz de nuevos modelos de inteligencia artificial publicados recientemente, como Stable Diffusion y ChatGPT, la IA generativa se ha convertido en un “tema candente” para tecnólogos, inversores, responsables políticos y para la sociedad en general.

Como su nombre indica, la IA generativa produce o genera texto, imágenes, música, voz, código o vídeo. La IA generativa no es un concepto nuevo, y las técnicas de aprendizaje automático que la sustentan han evolucionado en la última década. Normalmente se han utilizado enfoques de aprendizaje profundo y redes generativas antagónicas (RGAs), pero el último enfoque son los transformadores.

Un transformador generativo preentrenado (GPT, por su acrónimo en inglés) es un tipo de gran modelo lingüístico (LLM) que utiliza el aprendizaje profundo para generar texto similar al humano. Se denominan “generativos” porque pueden generar texto nuevo a partir de la entrada que reciben, “preentrenados” porque se entrenan con un gran corpus de datos de texto antes de perfeccionarse para tareas específicas, y “transformadores” porque utilizan una arquitectura de red neuronal basada en transformadores para procesar el texto de entrada y generar el texto de salida.

A pesar de la actual recesión del mercado y de los despidos en el sector tecnológico, las empresas de IA generativa siguen recibiendo el interés de los inversores. Stability AI y Jasper, por ejemplo, han recaudado recientemente 101 y 125 millones de dólares, respectivamente, e inversores como Sequoia creen que el campo de la IA generativa puede generar billones de dólares de valor económico. Han surgido más de 150 empresas emergentes que ya operan en este ámbito.

Capacidades emergentes de los sistemas de IA generativa

La IA generativa va más allá de las típicas tareas de procesamiento del lenguaje natural, como la traducción, el resumen y la generación de textos. El último lanzamiento de OpenAI, ChatGPT, que causó sensación y alcanzó un millón de usuarios en solo cinco días, se ha descrito como pionero por su capacidad de abarcar un abanico mucho más amplio de tareas. Los uso bajo discusión actualmente incluyen nuevas arquitecturas de motores de búsquedaexplicación de algoritmos complejos; creación de bots terapéuticos personalizados; ayuda para crear aplicaciones desde ceroexplicación de conceptos científicos; redacción de recetas; y ensayos universitarios, entre otros.

Programas de conversión de texto a imagen como Midjourney, DALL-E y Stable Diffusion tienen el potencial de cambiar la forma de renderizar arte, animación, juegos, películas y arquitectura, entre otros. Bill Cusick, director creativo de Stability AI, cree que el software es “la base del futuro de la creatividad”.

Basándose en una nueva era de cooperación entre humanos y máquinas, los optimistas afirman que la IA generativa ayudará al proceso creativo de artistas y diseñadores, ya que las tareas existentes se verán aumentadas por sistemas de IA generativa, lo que acelerará la fase de ideación y, esencialmente, la de creación.

Te puede Interesar  Croacia se quedó con el tercer puesto en el Mundial de Qatar

Más allá del espacio creativo, los modelos generativos de IA tienen capacidades transformadoras en ciencias complejas como la ingeniería informática. Por ejemplo, GitHub Copilot, propiedad de Microsoft y basado en el modelo Codex de OpenAI, sugiere código y ayuda a los desarrolladores a autocompletar sus tareas de programación. Se ha dicho que el sistema autocompleta hasta el 40% del código de los desarrolladores, lo que aumenta considerablemente el flujo de trabajo.

¿Cuáles son los riesgos?

Aunque la IA generativa entusiasma a la gente con una nueva ola de creatividad, preocupa el impacto de estos modelos en la sociedad. El artista digital Greg Rutkowski teme que Internet se inunde de obras de arte que no se distingan de las suyas, simplemente por decirle al sistema que reproduzca una obra con su estilo único. El profesor de arte Carson Grubaugh comparte esta preocupación y predice que gran parte de la mano de obra creativa, incluidos los artistas comerciales que trabajan en el entretenimiento, los videojuegos, la publicidad y la edición, podrían perder su empleo a causa de los modelos generativos de IA.

Además de los profundos efectos sobre las tareas y los puestos de trabajo, los modelos generativos de IA y las externalidades asociadas han hecho sonar las alarmas en la comunidad de gobernanza de la IA. Uno de los problemas de los grandes modelos de lenguaje es su capacidad para generar contenidos falsos y engañosos. Meta’s Galactica -un modelo entrenado en 48 millones de artículos científicos con pretensiones de resumir artículos académicos, resolver problemas matemáticos y escribir código científico – fue retirado después de menos de tres días de estar en línea cuando la comunidad científica descubrió que estaba produciendo resultados incorrectos tras malinterpretar hechos y conocimientos científicos.

Esto es aún más alarmante cuando se ve en el contexto de los robots troll automatizados, con capacidades lo suficientemente avanzadas como para dejar obsoleta la prueba de Turing, que pone a prueba la capacidad de una máquina para mostrar un comportamiento inteligente similar o indistinguible de un ser humano. Estas capacidades pueden utilizarse indebidamente para generar noticias falsas y desinformación en plataformas y ecosistemas.

Los grandes modelos se siguen entrenando en conjuntos de datos masivos representados en libros, artículos y sitios web que pueden estar sesgados de maneras que pueden ser difíciles de filtrar por completo. A pesar de las reducciones sustanciales en las salidas dañinas y falsas logradas mediante el uso del aprendizaje por refuerzo a partir de la retroalimentación humana (RLHF) en el caso de ChatGPT, OpenAI reconoce que sus modelos aún pueden generar resultados tóxicos y sesgados.

¿Cómo se gobierna la IA generativa?

En el sector privado están surgiendo actualmente dos enfoques de la gobernanza de los modelos generativos de IA. En un bando, empresas como OpenAI están autogobernando el espacio mediante estrategias de publicación limitadas, un uso supervisado de los modelos y un acceso controlado a través de API para sus productos comerciales como DALL-E2. En el otro bando, organizaciones más recientes, como Stability AI, creen que estos modelos deben ser de libre acceso para democratizar el acceso y crear el mayor impacto posible en la sociedad y la economía. Stability AI ha abierto su modelo, lo que permite a los desarrolladores conectarlo a todo para crear multitud de efectos visuales novedosos sin apenas controlar el proceso de difusión.

Te puede Interesar  Datos, medición y automatización, aliados para viajar

En el sector público, la escasa o nula regulación rige el panorama en rápida evolución de la IA generativa. En una carta reciente a la Casa Blanca, la congresista estadounidense Anna Eshoo subrayó “la grave preocupación que suscita la reciente publicación insegura del modelo Stable Diffusion de Stability AI”, que incluye la generación de imágenes violentas y sexuales.

Otras cuestiones se refieren a la propiedad intelectual y los derechos de autor. Los conjuntos de datos en los que se basan los modelos generativos de IA suelen extraerse de Internet sin pedir el consentimiento de artistas vivos o de obras que aún están protegidas por derechos de autor. Según Daniela Braga, miembro del Grupo de Trabajo de la Casa Blanca para Políticas de Inteligencia Artificial, “si estos modelos se han entrenado con los estilos de artistas vivos sin obtener la licencia de ese trabajo, hay implicaciones para los derechos de autor“.

El problema de los derechos de autor también es visible en el ámbito del código autocompletado. GitHub Copilot de Microsoft está implicado en una demanda colectiva que alega que el sistema se ha construido sobre “piratería de software a una escala sin precedentes“. Copilot se ha formado en repositorios públicos de código extraídos de la web, que en muchos casos se publican con licencias que exigen acreditar a los creadores cuando se reutiliza su código.

¿Cuál es el camino a seguir?

Aunque la IA generativa cambia las reglas del juego en numerosos ámbitos y tareas, es necesario regular con más cuidado la difusión de estos modelos y su impacto en la sociedad y la economía. El debate emergente entre la adopción centralizada y controlada con límites éticos firmes, por un lado, y la innovación más rápida y la distribución descentralizada, por otro, será importante para la comunidad de la IA generativa en los próximos años.

Se trata de una tarea no solo reservada a las empresas privadas, sino en la que es igualmente importante que intervengan la sociedad civil y los responsables políticos. Entre los temas del debate están la disrupción de los mercados laborales, la legitimidad de los datos extraídos, la concesión de licencias, los derechos de autor y la posibilidad de contenidos sesgados o perjudiciales, la desinformación, etcétera. Solo cuando existan controles y equilibrios sólidos podrá lograrse una expansión más reflexiva y beneficiosa de las tecnologías y productos de IA generativa.

Benjamin Larsen Project Lead, Artificial Intelligence and Machine Learning, World Economic Forum

Jayant Narayan Project Lead, Artificial Intelligence and Machine Learning, World Economic Forum

About The Author

Compartí esta noticia !

Categorías

Solverwp- WordPress Theme and Plugin