Un juez de la ciudad colombiana de Cartagena causó revuelo al anunciar que utilizó el chatbot ChatGPT para resolver una acción de tutela, siendo la primera sentencia emitida con apoyo de inteligencia artificial en el país.
La sentencia resolvió el pedido de una familia que exigía que Salvador Espitia, un menor de edad que padece de un trastorno del espectro autista, fuera exonerado del pago de consultas, terapias y transporte hacia los centros médicos, ya que los padres no cuentan con los recursos económicos para asumir estos gastos, reseña el portal Cambio.
El juez Juan Manuel Padilla García falló a favor del niño y antes de dictar la sentencia interrogó al robot conversacional ChatGPT para motivar su decisión.
«¿Menor autista está exonerado de pagar cuotas moderadoras en sus terapias?», le preguntó al chatbot.
«Sí, es correcto. De acuerdo con la normativa en Colombia, los menores con diagnóstico de autismo están exonerados de pagar cuotas moderadoras en sus terapias. Este beneficio está regulado por la Ley 1753 de 2015 y se aplica a todas las instituciones prestadoras de servicios de salud públicas o privadas que reciban recursos del sistema general de seguridad social en salud», fue la respuesta del robot.
El sistema de inteligencia artificial también contestó afirmativamente a si el cobro de esta cuota era una barrera de acceso al servicio de salud y si la Corte Suprema ya había tomado decisiones favorables en casos similares.
Según el togado, «el hecho de utilizar esta y demás herramientas no hacen a un juez perezoso; la decisión sigue siendo autónoma y propia». «Mi decisión es completamente personal, privada y autónoma, pero la inteligencia artificial ayuda a construir una cadena de textos que ayuda a sacar la sentencia y a tomar la decisión», defendió Padilla García frente a los cuestionamientos del uso de la inteligencia artificial a la hora de emitir una sentencia.
Entre las personas que cuestionaron su uso se encuentra un profesor de la Universidad del Rosario, Juan David Gutiérrez, quien afirmó que el chatbot tiene problemas de verificación de datos y «no distingue la realidad de la ficción», por lo que puede «arrojar resultados incorrectos, imprecisos, y falsos». Puso como ejemplo la respuesta del robot a la pregunta si el presidente Gustavo Petro alguna vez ha estado encarcelado. A lo cual el chatbot le respondió afirmativamente y dijo que el mandatario había sido detenido en 2000 por saqueos en Bogotá, inventando las fuentes de soporte. RT