ChatGPT, una herramienta de inteligencia artificial fácil de usar, ha atraído a cientos de millones de usuarios desde su lanzamiento en noviembre y está llamada a trastornar sectores de todo el mundo. En los últimos días, el contenido de IA generado por el bot se ha utilizado en el Congreso de Estados Unidos, en los tribunales colombianos y en un discurso del Presidente de Israel. Es inevitable que se generalice… ¿pero es ético?
En un saludo grabado para una convención sobre la ciberseguridad celebrada el miércoles en Tel Aviv, el presidente israelí Isaac Herzog comenzó un discurso que iba a hacer historia: «Estoy realmente orgulloso de ser el presidente de un país que alberga una industria de alta tecnología tan vibrante e innovadora. En las últimas décadas, Israel ha estado constantemente a la vanguardia del avance tecnológico, y nuestros logros en los campos de la ciberseguridad, la inteligencia artificial (IA) y el big data son realmente impresionantes».
Para sorpresa de los empresarios asistentes a Cybertech Global, el presidente reveló entonces que sus comentarios habían sido escritos por el bot de IA ChatGPT, lo que le convertía en el primer líder mundial conocido públicamente que utilizaba inteligencia artificial para escribir un discurso.
Pero no es el primer político que lo hace. Una semana antes, el congresista estadounidense Jake Auchincloss leyó un discurso también generado por ChatGPT en el pleno de la Cámara de Representantes. Otra primicia, con la intención de llamar la atención sobre la nueva herramienta de IA que tanto éxito ha tenido en el Congreso, «para que ahora tengamos un debate sobre una política decidida para la IA», declaró Auchincloss a la cadena ‘CNN’.
https://twitter.com/RepAuchincloss/status/1618706007823355905?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E1618706007823355905%7Ctwgr%5E5f7dd5ca9e0958da67beab0a4ceb85cbf3025972%7Ctwcon%5Es1_&ref_url=https%3A%2F%2Fwww.france24.com%2Fes%2Fciencia-y-tecnologC3ADas%2F20230203-chatgpt-uso-de-chatbots-de-ia-en-el-congreso-y-los-tribunales-plantea-cuestiones-C3A9ticas
Desde su lanzamiento en noviembre de 2022, se calcula que ChatGPT (creada por la empresa californiana OpenAI) ha alcanzado los 100 millones de usuarios activos mensuales, lo que la convierte en la aplicación de consumo de más rápido crecimiento de la Historia.
Esta herramienta de inteligencia artificial de fácil manejo utiliza datos en línea para generar respuestas instantáneas de tipo humano a las consultas de los usuarios. Su capacidad para escanear Internet en busca de información y ofrecer respuestas rápidas la convierte en un rival potencial del motor de búsqueda de Google, pero también es capaz de producir contenidos escritos sobre cualquier tema y en cualquier formato -desde ensayos, discursos y poemas hasta código informático- en cuestión de segundos.
La herramienta es gratuita y en enero recibió unos 13 millones de visitantes únicos al día, según un informe del gigante bancario suizo UBS.
#ChatGPT sprints to 1 million users in 5 days! pic.twitter.com/98vG1jYpZW
— Alvin Foo (@alvinfoo) January 28, 2023
Parte de su atractivo masivo es «una ingeniería extremadamente buena: se escala muy bien con millones de personas utilizándolo», dice Mirco Musolesi, profesor de informática del University College de Londres. «Pero también tiene una formación muy buena en cuanto a la calidad de los datos utilizados así como en la forma en que los creadores han sabido tratar los aspectos problemáticos».
En el pasado, tecnologías similares han dado lugar a bots alimentados con una dieta de publicaciones en redes sociales que adoptaban un tono agresivo y ofensivo. No es el caso de ChatGPT, y muchos de sus millones de usuarios utilizan la herramienta por curiosidad o entretenimiento.
«Los humanos tenemos la idea de ser muy especiales, pero luego vemos una máquina que es capaz de producir algo muy parecido a nosotros», explica Musolesi. «Sabíamos que probablemente esto era posible, pero verlo realmente es muy interesante».
¿Un «superdifusor de desinformación»?
Sin embargo, el impacto potencial de poner por primera vez una IA tan sofisticada a disposición de un público masivo no está claro, y diferentes sectores, desde la educación hasta el derecho, pasando por la ciencia y la empresa, se preparan para la disrupción.
Colegios e institutos de todo el mundo se han apresurado a prohibir a los estudiantes el uso de ChatGPT para evitar trampas o plagios.
Las revistas científicas también han prohibido que el bot figure como coautor en los artículos por temor a que los errores cometidos por la herramienta se cuelen en el debate científico.
OpenAI ha advertido de que el bot puede cometer errores. Sin embargo, un informe de ‘NewsGuard’, un organismo de control de los medios de comunicación, afirma que en temas como el Covid-19, Ucrania y los tiroteos en colegios, ChatGPT realizó afirmaciones «elocuentes, falsas y engañosas» el 80% de las veces.
«Para cualquiera que no esté familiarizado con los temas tratados, los resultados pueden parecer legítimos e incluso fidedignos», afirma ‘NewsGuard’. Esta herramienta es «el próximo gran difusor de desinformación».
Aun así, en Colombia un juez anunció el martes que utilizó el chatbot de IA para ayudar a dictar sentencia en un caso sobre derechos médicos de los niños.
El juez Juan Manuel Padilla dijo a la emisora colombiana ‘Blu Radio’ que le preguntó a ChatGPT si un menor autista debía ser exonerado del pago de terapias, entre otras preguntas.
El bot respondió: «Sí, esto es correcto. De acuerdo con la normatividad en Colombia, los menores diagnosticados con autismo están exonerados del pago de honorarios por sus terapias.»
Padilla falló a favor del niño, tal y como aconsejaba el bot. «Por hacer preguntas a la aplicación no dejamos de ser jueces [y] seres pensantes», dijo a la emisora. «Sospecho que muchos de mis colegas se van a sumar y van a empezar a construir éticamente sus fallos con la ayuda de la inteligencia artificial».
Aunque advirtió que el bot debería utilizarse como un facilitador que ahorre tiempo, y no «con el objetivo de sustituir a los jueces», los críticos dijeron que no era ni responsable ni ético utilizar un bot capaz de proporcionar información errónea como herramienta legal.
Un líder del mercado
A pesar de los riesgos potenciales, la difusión de ChatGPT parece inevitable. Musolesi espera que se utilice «ampliamente» tanto con fines positivos como negativos: con el riesgo de la desinformación y el mal uso viene la promesa de que la información y la tecnología sean más accesibles a un mayor número de personas.
OpenAI recibió en enero una inversión multimillonaria de Microsoft que permitirá integrar ChatGPT en una versión premium de la aplicación de mensajería Teams, ofreciendo servicios como la generación automática de notas de reunión.
Microsoft ha declarado que planea incorporar la tecnología de ChatGPT a todos sus productos, preparando el terreno para que la empresa se convierta en líder en este campo, por delante de la matriz de Google, Alphabet.
La gratuidad de la herramienta ha sido clave para su éxito actual y futuro. «Ha sido una gran campaña de marketing», dice Musolesi, «y cuando la gente la usa, mejora el conjunto de datos que se utilizará en la próxima versión, porque está proporcionando este feedback».
Aun así, la empresa ha lanzado esta semana una versión de pago del bot que ofrece acceso a nuevas funciones por 20 dólares al mes.
Otra novedad muy esperada es un clasificador de IA, una herramienta de software para ayudar a las personas a identificar cuándo un texto ha sido generado por inteligencia artificial.
OpenAI afirma en un blog que, aunque la herramienta se ha lanzado esta semana, aún no es «totalmente fiable». En la actualidad sólo es capaz de identificar correctamente textos escritos por inteligencia artificial en un 26% de las ocasiones.
Pero la empresa espera que mejore con el entrenamiento, reduciendo el potencial de «campañas automatizadas de desinformación, el uso de herramientas de IA para la deshonestidad académica y el posicionamiento de un chatbot de IA como un humano». Joanna York/AFP