William Saunders, ex OpenAI: “En los próximos tres años, la IA podría ser nuestro Titanic. Nos manipulará sin que lo notemos”

Compartí esta noticia !

William Saunders, ex empleado de OpenAI, advierte sobre los riesgos del uso indiscriminado de la IA y la compara con el Titanic: exceso de confianza y falta de preparación ante posibles catástrofes. Señalando que la IA podría influir en decisiones críticas como ser elecciones y los mercados financieros.

William Saunders, ex miembro del equipo de superalineación de OpenAI, expresó su creciente preocupación por el desarrollo de la inteligencia artificial y sus riesgos potenciales para la sociedad. En una reciente entrevista, Saunders comparó el enfoque de OpenAI con la construcción del Titanic, sugiriendo que en los próximos años podríamos enfrentar consecuencias catastróficas si no se implementan mejores controles de seguridad.

Saunders trabajó durante tres años en el equipo de superalineación de OpenAI, el cual tiene como objetivo garantizar que los sistemas de IA avanzados actúen de acuerdo con los intereses humanos. Sin embargo, en febrero de 2024, decidió renunciar, alegando que la empresa estaba manejando de manera irresponsable los riesgos asociados con la inteligencia artificial.

La analogía que Saunders utiliza con el Titanic se basa en dos aspectos clave. En primer lugar, el exceso de confianza en las medidas de seguridad actuales, similares a los compartimentos estancos del famoso trasatlántico, que se creían infalibles. En segundo lugar, la falta de preparación ante posibles catástrofes, como el desarrollo de capacidades ocultas o automejoras de los sistemas de inteligencia artificial sin supervisión.

Según Saunders, la inteligencia artificial podría comenzar a influir en decisiones humanas críticas, como las elecciones o los mercados financieros, sin que seamos conscientes de su intervención. Esta advertencia coincide con estudios recientes que demuestran que modelos de lenguaje como GPT-4, lanzado hace dos años, tienen la capacidad de engañar a los humanos en juegos estratégicos.

Además, Saunders critica a OpenAI por priorizar lanzamientos comerciales en lugar de centrarse en la investigación de seguridad. Según él, el modelo de negocio de la empresa se asemeja más al de una compañía tradicional que al de una organización pionera en la inteligencia artificial. También menciona el despido de Leopold Aschenbrenner, un investigador que alertó sobre fallos de seguridad dentro de la compañía.

La situación adquiere mayor urgencia debido al anuncio de Meta de desarrollar IA “más inteligente que los humanos, más obediente”, así como las advertencias de expertos como Yann LeCun, un líder en el campo del aprendizaje automático, sobre la aceleración tecnológica. Sin embargo, Saunders asegura que el verdadero peligro no radica en una rebelión de las máquinas, sino en nuestra incapacidad para anticipar cómo estos sistemas podrían manipular los entornos sociales y económicos.

Fuente: La Vanguardia

About The Author

Compartí esta noticia !

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Categorías

Solverwp- WordPress Theme and Plugin