ChatGPT dicta sentencia: Un juez colombiano utilizó la aplicación para realizar un veredicto tutelar
Juan Manuel Padilla García, el juez colombiano que utilizó la herramienta de inteligencia artificial para dictar sentencia, señaló que esto “no lo hace perezoso”, además que su decisión “sigue siendo autónoma”.
Un juez de la ciudad de Cartagena, Colombia, causó un escándalo al anunciar que utilizó el chatbot de ChatGPT para resolver una acción de tutela, siendo la primera sentencia emitida con apoyo de inteligencia artificial en el país.
Esta sentencia resolvió el pedido de una familia que exigía que Salvador, un menor de edad que padece del trastorno del espectro autista, fuera exonerado del pago de consultas, terapias y transporte hacia los centros médicos, ya que los padres no cuentan con los recursos económicos para asumir esos gastos, advierte el portal Cambio.
En esta instancia, Juan Manuel padilla García, falló a favor del niño y antes de dictar sentencia interrogó al robot conversacional de ChatGPT para motivar su decisión.
¿Menor autista está exonerado de pagar cuotas moderadoras en sus terapias? Preguntó a chatbot. “Sí es correcto. De acuerdo con la normativa en Colombia, los menores con diagnóstico de autismo están exonerados de pagar cuotas moderadoras en sus terapias. Este beneficio está regulado por la Ley 1753 de 2015 y se aplica a todas las instituciones prestadoras de servicios de salud públicas o privadas que reciban recursos del sistema general de seguridad social en salud”, fue la respuesta del robot.
Además, la herramienta de IA, contestó afirmativamente sobre el cobro de esta cuota como una barrera de acceso al servicio de salud, y si ya se habían tomado decisiones favorables en casos similares.
El juez, a su vez afirmó: “el hecho de utilizar esta y demás herramientas no hacen a un juez perezoso; la decisión sigue siendo autónoma y propia”. “Mi decisión es completamente personal, privada y autónoma, pero la inteligencia artificial ayuda a construir una cadena de textos que ayuda a sacar sentencia y a tomar la decisión”, frente a los cuestionamientos que recibió a la hora de emitir la sentencia y al utilizar esta herramienta.
Uno de los principales objetores del uso de esta herramienta fue Juan David Gutierrez, profesor de la Universidad del Rosario de Colombia, quien afirmó que la aplicación tiene problemas de verificación de datos, que “no distingue la realidad de la ficción”, por lo que puede “arrojar resultados incorrectos, imprecisos y falsos”. Como ejemplo, el profesor, citó la respuesta del robot sobre si el presidente Gustavo Petro fue alguna vez encarcelado, donde la herramienta respondió afirmativamente, añadiendo que fue detenido por saqueos e inventando las fuentes de soporte de estos datos.