3d Conceptual image of woman composed of balls. Artificial intelligence concept

Inteligencia artificial ¿La nueva bomba atómica?

Compartí esta noticia !

Las tecnologías de inteligencia artificial (IA) existen desde hace tiempo. El término aparece por primera vez en 1956 en las palabras de John McCarthy, quien hacía referencia a cualquier dispositivo artificial con la capacidad de imitar funciones cognitivas inherentes a los seres humanos, principalmente en lo referido a resolver problemas. Si bien los primeros atisbos de IA eran más bien rudimentarios y con muchas más limitaciones que las tecnologías actuales, fueron los pasos que abrieron camino para llegar a las inteligencias de hoy. 

En 1997 la computadora IBM, Deep Blue le ganó una partida de ajedrez al maestro campeón ajedrecista ruso Garry Kaspárov.

¿Qué es una inteligencia artificial? Es una combinación de algoritmos que puede utilizar información recopilada y ordenar los datos de manera lógica para solucionar problemas u ofrecer respuestas a incógnitas lógicas. En algunos casos pueden seguir aprendiendo recopilando más información y relacionándola de manera constante. Hay diferentes categorías y tienen distintos usos.

Algunos ejemplos de IA comunes que ya conviven con nosotros hace bastante tiempo son: La identificación facial de la cámara de los teléfonos móviles inteligentes, los filtros de la bandeja de entrada de los emails. 

En la actualidad se hicieron virales y sumamente populares IA de libre acceso como Chat GPT, un sistema de chat basado en el modelo de lenguaje por IA. DALL E crea imágenes originales a partir de descripciones de texto y Jasper AI crea contenido de forma automática y muchas otras.

Los economistas de Goldman Sachs predijeron que esta carrera de inteligencias artificiales desplazará 300 millones de empleos, lo que representa un 18% de la fuerza laboral en el mundo. Elon Musk, con el apoyo de especialistas en IA, hizo un pedido de hacer una pausa de al menos seis meses en las investigaciones al respecto, porque además de muchos otros peligros enumerados en la carta, podría estar en juego la democracia global.

¿Qué tanto debemos preocuparnos?

La  Ingeniera Informática, profesora universitaria en Informática y techfluencer en TodoCode, Luisina de Paula, contó a Economis que su tésis consistió en un sistema de IA que clasificaba hojas de té (trabajo que se realiza de manera manual en la actualidad). 

Explicó “el potencial que tiene hoy por hoy la Inteligencia Artificial es facilitarnos a los humanos cosas que anteriormente tardaríamos muchísimo tiempo en poder hacerlas o que nos llevaría mucho tiempo de investigación, de armado, de planteo, en un tiempo que es muchísimo menor, obviamente  que esto es una ventaja enorme sobre todo en los tiempos de ahora que se quiere todo para ayer. Esto está creciendo más, porque las inteligencias artificiales aprenden y a partir de ese aprendizaje van creando nuevo conocimiento, pero tienen sus limitaciones”

“Las inteligencias artificiales tienen, dependiendo cuál, generalmente dos tipos de aprendizaje: el supervisado, donde hay un humano que está supervisando y diciéndole con qué datos aprender, de qué manera, etc. Y las no supervisadas que es donde le damos ciertos parámetros y la inteligencia artificial empieza a aprender sola. En el supervisado se basa sólo en lo que nosotros le estamos enseñando y la limitación es esa, va a aprender a partir de lo que nosotros le digamos que queremos que aprenda, lo cual también es peligroso porque puede aprender cosas que nosotros creemos que están bién y en realidad están mal, pero es el más clásico y suele dar un porcentaje de acierto muy grande y es lo que estamos viendo todo el tiempo, por ejemplo  en el Chat GPT que nos responde lo que nosotros queremos que nos responda. Pero también hay IA no supervisada, que es lo que mucha gente por ahí le tiene miedo que es cuando aprende sola, por decirlo de una manera, pero el aprendizaje es mucho menor, el porcentaje de acierto, es mucho menor y la inteligencia artificial tarda en aprender muchísimo más tiempo hasta que pueda dar una respuesta que más o menos tenga sentido para nosotros”. 

Te puede Interesar  Sartori junto a los estudiantes “Los jóvenes no son el futuro, son el presente”

Luisina indica que “una de las más conocidas es la de las redes neuronales hay conexiones y esas conexiones actúan conectando una neurona con otra neurona exactamente igual que los humanos cuando pensamos algo y obviamente que en microsegundos”. 

Para Luisina explicó una de las debilidades del Chat GPT es que no discute con el usuario. Por ejemplo si alguien le pide que resuelva la suma 2+2 el chat ofrecerá la solución según su base de datos y será 4, pero si el usuario le dice al Chat que está equivocado y le dice que el resultado es 5, GPT admitirá el error y modificará el resultado. “Una persona que está convencida de algo sin saber, podría utilizar los comandos incorrectos llevando a respuestas erróneas”.

En cuanto a la capacidad de las IA para reemplazar a los seres humanos, Luisina con tranquilidad respondió que “con el nivel de tecnología actual, no es tan así, hay que abrazar a las inteligencias artificiales porque van a seguir apareciendo como herramientas de trabajo, que vamos a utilizar y que pueden mejorar nuestro trabajo, pero ¿Por qué no van a reemplazar un humano? Te voy a dar un ejemplo sencillo, en el desarrollo de software, hacemos con Chat GPT una aplicación que haga tal cosa, y genera el código y generalmente te responde cosas que se acercan muchísimo a lo que necesitas, pero el código que te está dando es sencillo, para los hackers que saben que hay muchos desarrolladores que están usando GPT en vez de usar su propia cabeza. Van a conocer cuáles son los fallos que ofrecen los sistemas creados por el GPT y si esos sistemas están puestos en línea, van a encontrar vulnerabilidades y van a atacar y van a tumbar como si nada las barreras de defensa, cosa que si vos tenés un humano detrás que encuentra el fallo y le pone medidas de seguridad es más difícil que pase. La inteligencia artificial todavía no tiene un código, que interprete todos los detalles que los humanos interpretan, no tiene esa viveza criolla por así decirlo y no la va a tener tampoco nunca porque no es un humano, aprende todo lo técnico y preciso pero no los matices. Como es el caso que dicen va a reemplazar a los abogados porque entiende de leyes y hace buenas interpretaciones. Sí, hace muy buenas interpretaciones y tal vez tareas chiquitas, como asesoramiento, lo van a poder reemplazar, pero hay casos que son muy peculiares, que no va a haber forma que pueda reemplazar el pensamiento de una persona, los matices emocionales o circunstancias morales, no hay chance. La paranoia que está habiendo ahora y lo caótico, se debe a que no hay suficiente educación en cómo funcionan estas cosas, entonces mucha gente ya piensa que porque le responde algo de forma automática la IA ya es un ser pensante como un humano y no es así. Tiene sus limitaciones y mientras el aprendizaje siga siendo supervisado por una persona hay que abrazarlo como una herramienta que te pueda ayudar a facilitar tu trabajo y no verlo como el que te va a sacar el trabajo, porque la gente que le haga la cruz y diga -yo nunca voy a usar-  es la que justamente se va a quedar afuera, en cambio los que se dispongan a mejorar su trabajo utilizando esta herramienta son los que van a ir acompañando el crecimiento. 

Te puede Interesar  El impacto del turismo sobre la economía vuelve a niveles pre-covid

“Es una herramienta. Habrá alguien que tenga maldad de ocuparlos para el mal y no para el bien y pasar puede pasar, como con las bombas nucleares” finalizó.

Federico Viola es doctor en Filosofía, e investigador adjunto en el CONICET del impacto político y social que tienen las nuevas tecnologías. En comunicación con Economis señaló que “me parece que es correcto y me parece que es interesante, que los mismos desarrolladores, los mismos empresarios salgan a pedir cautela y a decir que hay que tener cuidado, porque lo comparo con el descubrimiento de la energía atómica, la creación de las bombas atómicas, lo que ocurrió sobre fines de la Segunda Guerra Mundial con el descubrimiento de una gran fuente de energía que puede generar grandes cambios en la humanidad y también generó, obviamente una gran una amenaza para el mundo entero”.

No me gusta mucho utilizar la palabra miedo, yo creo que ante este proceso lo que hay que tener principalmente es cautela. Hay un autor llamado Yuval Noah Harari que en el libro 21 Lecciones para el Siglo XXI, advierte sobre esta disrupción social por parte de la inteligencia artificial. Él viene diciendo explícitamente en sus libros que una de las grandes crisis que vamos a tener que enfrentar en los próximos años -y esto ya es un signo-  es el reemplazo tecnológico y una gran cantidad de gente que va a quedar desplazada por la inteligencia artificial. Esto es real. Obviamente que esto no va a ser de un día para el otro y todavía no sabemos hasta qué punto va a llegar a ser y qué tan masivo va a ser. Pero creo que es algo importante a tener en cuenta, porque esta disrupción social que va a haber, estos grandes cambios, van a dejar a mucha gente marginada y esto es un tema que los políticos a nivel social y a nivel Estado tendrían que tener en cuenta ya. Sin crear pánicos, sin crear,  sin crear temores, porque todavía no se puede saber exactamente la dimensión del impacto, porque el impacto ya está, el impacto va a estar, pero no podemos saber la dimensión. Es muy importante avanzar con cautela respecto de esto y no generar miedo, pero sí, digamos generar responsabilidad y ocuparse de la cuestión”, finalizó Federico.

Carlos Brys magister en informática, docente universitario y titular de la dirección de Modernización de la Gestión y Gobierno Electrónico de Misiones visitó los estudios de Open 101.7 y explicó que “ los grandes jugadores tecnológicos como Google y  Microsoft, en una visión de monetizar la inteligencia artificial, lo viralizan”.

“Todo el mundo empieza a preguntarle al Chat y es muy convincente la redacción que tiene la respuesta y el problema que está generando es esto, uno puede llegar a creer de que está dialogando con una una inteligencia y en realidad esto es un programa que está recuperando información con la cual fue entrenada”. “Particularmente el GPT 3 se entrenó con datos que van hasta el año 2021, o sea lo que ocurre después no lo sabe, pero en todo ese volumen de datos en el cual se utilizaron 45 terabytes de datos recopilados mundialmente, no se hizo una calidad de depuración de esos datos. Entonces, puede ocurrir que haya muchísimos datos falsos con los cuales la inteligencia, simplemente devuelve la respuesta a una pregunta, entonces yo le puedo preguntar algo, me puede volver información totalmente tergiversada y falsa. Y es muy probable que se dé por verdadera, o sea, la persona viendo la calidad con que devuelve la información puede llegar a convencerse de que es cierto”.

About The Author

Compartí esta noticia !

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Categorías

Solverwp- WordPress Theme and Plugin