Hacia un ChatGPT con datos propios

Hacia un ChatGPT con datos propios

Imaginemos comenzar nuestra jornada laboral dialogando con nuestro propio asistente virtual personalizado, similar a la interacción entre Tony Stark y J.A.R.V.I.S. en la película Iron Man o las conversaciones con HAL 9000 en 2001: Odisea en el Espacio. Estas ideas no son el argumento limitado al guión de una película de ciencia ficción de Hollywood, sino una innovación tecnológica cada vez más real y cotidiana. Tanto es así que el salto tecnológico que se produjo en la inteligencia artificial generativa en los últimos cinco años hace posible que una primera versión de estos asistentes virtuales esté al alcance de nuestras manos.

Caracterizada por el desarrollo de grandes modelos de lenguaje, la inteligencia artificial generativa está revolucionando el mundo: prácticamente no hay industria, actividad productiva o sociedad que no se vea impactada por esta innovación. Se trata de modelos que simulan y procesan conversaciones humanas y están entrenados para responder una pregunta básica o consigna que se les dé.

A partir de la popularidad de la versión gratuita de ChatGPT y con el desarrollo de su última versión, GPT-4, se ha logrado que el modelo generativo de lenguaje dialogue con las personas a través de texto, desarrollando tareas novedosas como resolver un problema de programación y asistir en la escritura de un ensayo académico o en la respuesta de un mail.

Pero, aunque ChatGPT sea una herramienta muy potente y versátil para múltiples tareas, no es perfecta y adolece de un problema fundamental: puede dar respuestas falsas.

Los modelos de lenguaje como ChatGPT son entrenados para generar texto coherente pero no necesariamente verídico, tanto es así que sus respuestas no siempre están respaldadas por datos reales. De hecho, en la disciplina del Procesamiento del Lenguaje Natural las afirmaciones o predicciones incorrectas usualmente se denominan “alucinaciones”. Por ejemplo, al pedirle que escriba mi biografía, ChatGPT algunas veces dice que soy un reconocido médico, lo cual es falso; y lo mismo sucede con algunas personalidades concretas de distintos países.

Otra limitación de estas tecnologías es que el conocimiento que tienen está limitado únicamente al que se encuentra en los datos con que fueron entrenadas, restringiendo su comprensión de las preguntas y la precisión de las respuestas.

Open AI no informa abiertamente el origen de los datos de entrenamiento, sin embargo, sí aclara que los mismos son anteriores a septiembre de 2021, por lo que ChatGPT ignora cualquier dato asociado a fechas actuales.

Ahora bien, ¿hay una solución concreta a este problema? Definitivamente sí. Existe una técnica denominada RAG (Retrieval-Augmented Generation), que posibilita usar ChatGPT con datos propios que realmente nos interesan. Su valor agregado es sumar información real y específica de una base de datos a las respuestas que proporciona actualmente GPT-4.

RAG es un paradigma que combina lo mejor de ambos mundos: las poderosas capacidades generativas de modelos como GPT-4 y las capacidades de identificar documentos relevantes en bases de datos. Primero el modelo recupera documentos relevantes o fragmentos de datos de un dataset de textos y luego usa esa información recuperada, como servicio para generar una respuesta más precisa en el tema o dominio que nos interese.

Este enfoque de dos pasos reduce significativamente el riesgo de alucinaciones, ya que el modelo sustenta sus respuestas con datos del mundo real. Silenciosamente, los RAG comienzan a implementarse en numerosas empresas y organizaciones alrededor del mundo, volviendo cada vez más personalizados y eficientes los asistentes en inteligencia artificial (IA), ahorrando muchísimo tiempo y esfuerzo. Y en breve serán una noticia cotidiana, como lo es hoy ChatGPT. Un ejemplo de esto es Bing Chat, que combina el buscador Bing con las capacidades de GPT-4.

Sin dudas, los RAG abren un abanico de oportunidades para la IA y algunas de sus posibles aplicaciones, entre muchas otras, son la mejora en la atención al cliente –con un nivel de interacción cada vez más personalizada–, la generación de contenidos con datos y fuentes fiables, investigaciones y reportes de mercado más confiables y repositorios educativos –que al integrarse con datos de literatura científica chequeados con fuentes fiables de bases de datos permiten hacerle una pregunta a un libro de texto o manual educativo y obtener así una respuesta cada vez más precisa, reduciendo el riesgo de reproducir contenido falso, sin referencias o citas reales (sesgo cada vez más común en el uso actual de GPT-4)–.

También, en un futuro inmediato, esta técnica permitirá crear asistentes jurídicos basados en IA para responder preguntas legales complejas a partir de una base de datos de la jurisprudencia, que podría incluir una biblioteca de fallos jurídicos. O bien asistir a los profesionales del derecho sobre nuevas opiniones o evidencias de un caso legal concreto, acelerando la toma de decisiones y reduciendo el esfuerzo humano.

¿Son estos Retrieval-Augmented Generation el futuro de los asistentes en IA? Si bien aún resulta prematuro dar una respuesta, es posible e imaginable que estas técnicas, que permiten personalizar cada vez más a los asistentes virtuales, se transformen en la próxima revolución de la inteligencia artificial.

*Investigador del Conicet en el Laboratorio de Inteligencia Artificial Aplicada de la UBA y profesor en la maestría en Data Mining de la UBA.

Comments are closed.