La IA “puede llevar a la extinción”
La preocupación ante los eventos de la Inteligencia Artificial (IA) incluye al CEO de OpenAI, Sam Altam, responsable del Chat GPT-4.
Tras el comunicado sobre el riesgo de la IA, de la página web de la ONG Center for Al Safety, decenas de académicos, periodistas y demás expertos en el sector tech, volvieron a advertir sobre los peligros de crear máquinas que imitan la inteligencia humana.
En un párrafo de este comunicado, manifiestan “Mitigar el riesgo de extinción de la IA debería ser una prioridad mundial, junto con otros riesgos a escala social como las pandemias y la guerra nuclear”.
Sin duda, esta advertencia es alarmista, ya que la compara el desarrollo de la IA con guerras y pandemias, lo que mostraría un punto de no retorno.
En este comunicado aparecen nombres como Geoffrey Hinton, quien fuera considerado “el padrino” de la IA, el cual abandonó sus investigaciones y proyectos en Google para sumarse a las advertencias sobre los peligros sin control de esta herramienta. Yoshua Bengio, (Premio Turing 2018), Demis Hassabis (CEO DeepMind de Google), Dario Amodei (CEO de Anthropic), Kevin Scott (CTO Microsoft), Bruce Schneier (Experto en ciberseguridad).
Sin duda, uno de los que más llamó la atención y participó de este comunicado, fue Sam Altman, CEO e OpenAI, responsable de Chat GPT-4. El lanzamiento de este modelo nuevo de procesamiento del lenguaje, despertó la alarma en los especialistas en IA, que se unieron para exigir que se paralizarán las investigaciones sobre sistemas más potentes que GPT-4, ya que advertían “grandes riesgos”.
Hinton, el “padrino” de la IA, semanas atrás sostuvo en el medio BBC: “En este momento, lo que estamos viendo es cosas como GPT-4 eclipsan a una persona en la cantidad de conocimiento general que tienen y los eclipsa mucho. En términos de razonamiento, no es tan bueno, pero ya está haciendo un razonamiento simple. Y dado el ritmo de progreso, esperamos que las cosas mejoren bastante rápido. Entonces, tenemos que preocuparnos por eso”.
Yuval Harari, especialista en ética de la tecnología estadounidense, expresó “La IA podría devorar rápidamente toda la cultura humana -todo lo que hemos producido durante miles de años-, digerirla y empezar a escupir un diluvio de nuevos artefactos culturales”.
“Un nuevo régimen en el siglo XXI tendrá herramientas más poderosas. Así que las consecuencias podrían ser mucho más desastrosas. Es algo a lo que no sé si la humanidad podrá sobrevivir”.
A este respecto, algunos expertos creen que estos escenarios tan apocalípticos no son realistas y distraen de realidades como el sesgo en los sistemas, que sí son un problema.
Arvind Narayanan, científico informático de la Universidad de Princeton, se diferenció de sus colegas, opinando para la BBC “La IA actual no es lo suficientemente capaz para que estos riesgos se materialicen. Como resultado, distrae la atención de los daños a corto plazo de la IA”.
También el jefe de IA de Meta, el profesor LeCunn, expresó “por el momento, los sistemas de IA requieren enormes recursos para poder ser creados, pero al final pueden ser utilizados por cualquiera. Así que no va a ser como las armas nucleares. Además, la gran diferencia es que la IA está diseñada para hacer a la gente más inteligente o para aumentar la inteligencia humana, mientras que las armas nucleares están diseñadas para matar a la gente”.