La paradoja de la IA: Aumentando y reduciendo el mismo problema

Read in English

El mundo de la inteligencia artificial (IA) está evolucionando tan rápidamente que es difícil mantenerse al día sin explorar una nueva tecnología cada semana. No parece que haya pasado mucho tiempo desde que escribí sobre la “IA en términos que mi madre pudiera entender” (2019) y mis primeras impresiones de “ChatGPT“(2023/01), y ya algunos de esos conceptos son parte del pasado. Los modelos grandes de lenguaje (LLM) se han convertido en herramientas de uso diario, y la tecnología generativa, como ChatGPT, es la nueva y reluciente herramienta en el mercado. Y no es solamente una moda pasajera, puesto que es uno de adelantos más significativos de la última década. Sin embargo, su aparición vertiginosa ha causado un revuelo en el cual se ha formado una verdadera paradoja.

La evolución

Si la IA podía ayudarnos a predecir el potencial de que un cierto paciente desarrolle una infección séptica, los LLM nos dan la capacidad de poder analizar texto y tratarlo como cualquier otro tipo de información en la computadora. Por ejemplo, si bien antes podíamos contar las palabras de un texto y buscar las más repetidas, hoy, los LLMs pueden convertir ese texto en una serie de vectores semánticos y usar matemática para descubrir el tema del texto, o resumirlo, o traducirlo a cualquier idioma sin ningún esfuerzo. Pero aún estamos hablando de tecnología que existía hace un par de años, ¿qué cambió para que ahora todo el mundo esté usando IA?

ChatGPT

Dos cosas, GPT4 y ChatGPT. GPT4, que son las siglas de Generative Pre-Training Transformer (generación 4), es un modelo capaz de Generar (crear algo nuevo) texto basándose en su entrenamiento con millones de textos existentes. Y ChatGPT usa esa tecnología para crear la apariencia de una conversación humana. Es decir, tú le dices “Hola” y ChatGPT, basado en los millones de textos que lo han entrenado predice que la respuesta apropiada es “¡Hola! ¿En qué puedo ayudarte hoy?”. Esta respuesta no le ha sido programada, sino que ChatGPT la construye a tiempo real basándose en las circunstancias. Y, como por arte de magia, millones de personas comenzaron a usar la IA para todo tipo de situaciones mundanas, como escribir poemas sobre algún tema, encontrar una broma sobre algo, escribir cartas para conseguir un mejor salario, convertir diversas unidades de tiempo, medida, etc.

La paradoja

Pero aquí viene la paradoja, consideremos, por ejemplo, el caso de un médico que necesita comunicarse con una compañía de seguros para solicitar la cobertura de un procedimiento no muy común en un paciente. El proceso de crear la carta puede ser intrincado, con capas de lenguaje formal y técnico, requiriendo plantillas e información clínica. Inmediatamente se nos viene a la mente las capacidades de ChatGPT, puesto que sabemos que es capaz de generar cartas elocuentes y completas basadas en plantillas y datos contextuales. Si proveemos a ChatGPT con algunos datos del Registro Electrónico del paciente, y una plantilla de carta para la compañía de seguros, el doctor solamente tendría que describir brevemente el motivo de la carta y la IA se encargará del resto.

Y créanme, el resultado es impresionante. ChatGPT es capaz de utilizar la información provista para generar una carta muy convincente, y coherente con la información proporcionada.

Sin embargo, sería irónico si la compañía de seguros, al recibir cientos y miles de cartas, utilizara la misma IA para eliminar el lenguaje superfluo, identificar la información esencial y comprimir el contenido de la carta a su mensaje central. ¿El resultado? Un párrafo conciso que podría parecerse mucho al párrafo que el médico proporcionó originalmente.

Este proceso aparentemente circular nos lleva a cuestionar si era necesario aplicar la IA a este problema en primer lugar. Si tenemos que inflar la información para enviarla, pero los destinatarios tienen que desinflarla para que les sea útil, ¿No hubiéramos simplemente enviar la información concisa en primer lugar? ¿No podríamos haber evitado la necesidad de una comunicación potenciada por IA si simplemente mejoráramos nuestros modos iniciales de interacción? Cuando aumentamos y luego reducimos para obtener la misma información, ¿no se cancelan simplemente la una a la otra? La respuesta es no, o por lo menos, hoy no. Hay procesos y regulaciones que imponen estas formas, y mientras estas existan, la IA y el ChatGPT pueden ayudarnos a optimizar nuestra conformación a estas reglas.

Priorizando la Simplicidad Sobre la Sofisticación

Sin embargo, siempre debemos tener un ojo abierto a la posibilidad de simplificar el proceso como una forma de innovar, sin necesidad de agregar tecnología. Es comprensible la tentación de usar herramientas avanzadas de IA como ChatGPT. Son eficientes, bastante precisas y facilitan tareas complejas. Pero, si se usan de manera contraproducente, su valor se disipa.

Para abordar esto, tal vez la respuesta no siempre esté en cómo podemos explotar aún más la tecnología, sino en repensar nuestros procesos. Quizás lo que necesitamos es un cambio cultural en nuestros métodos de comunicación. En lugar de optar por correspondencia verbosa y complicada, podríamos coordinar con las partes para priorizar la brevedad y claridad.

El Auténtico Potencial de la IA generativa

La IA tiene un valor innegable en muchos escenarios, desde el análisis predictivo hasta la personalización de tratamientos. Y la IA generativa, como ChatGPT, está abriendo muchas posibilidades impensables hace poco. Lo esencial es distinguir dónde la IA agrega valor, y dónde el proceso existente podría ser mejorado para hacerlo más eficiente.

Pero, repensemos un poquito el ejemplo dado. El doctor escribió un corto párrafo explicando sus motivos para recomendar un tratamiento específico a la compañía aseguradora. Probablemente el lenguaje que usó tenga un fuerte acento clínico. No hubiera usado ese mismo lenguaje si estuviera explicando la necesidad del nuevo tratamiento al paciente. Un momento, pero ¿no es ChatGPT un genio con respecto al lenguaje? Qué tal si el doctor escribe:

Se recomienda una resección del timo vía transesternal. Este órgano, situado en el mediastino anterior, presenta una hipertrofia característica, similar a la observada en casos de miastenia gravis y timoma. Es plausible que contenga células neoplásicas, como las halladas en el carcinoma tímico.

Y, usando este párrafo ChatGPT escribe la carta para la aseguradora con el párrafo anterior, pero agregando:
Diagnóstico Presuntivo:
Miastenia gravis: Código CIE-10: G70.0
Timoma: Código CIE-10: D15.0
Carcinoma tímico (sospecha): Código CIE-10: C37
Procedimiento Quirúrgico Propuesto:Timectomía vía transesternal: Código CPT 60520

Hasta allí, todo funciona igual que en el ejemplo de la paradoja, pero ¿qué tal si ahora, además de la carta a la aseguradora, el mismo ChatGPT, usando el mismo párrafo, también escribe una carta al paciente traduciendo los términos médicos a lenguaje que simples humanos podamos entender?:

“Recomendamos una cirugía para remover una parte del timo, que es una glándula en el pecho. Esta glándula parece más grande de lo normal, similar a lo que se ve en algunas enfermedades. Es posible que tenga células anormales, como las que se encuentran en ciertos tipos de cáncer.”

Para pensar

Entonces, la paradoja no menosprecia el valor de la IA, pero nos ayuda a pensar y repensar los escenarios en los cuales puede ser utilizada para agregar valor.

La paradoja resaltada por la interacción médico-compañía de seguros sirve como recordatorio de que la solución más “brillante” no siempre es la mejor. Antes de integrar la IA en un proceso, es crucial evaluar si es la herramienta adecuada para el trabajo o si un enfoque centrado en el ser humano podría ser suficiente.

Al final, la IA es una herramienta, no una solución en sí misma. Nuestro desafío es discernir sus aplicaciones óptimas y evitar complicar procesos que podrían simplificarse de otra manera.