Máquinas que conversan, un enigma inconcluso
Se le ve potencial a sus capacidades. ¿Qué tan exitoso será, qué necesidades resolverá? Eso todavía se encuentra a discusión”: Iván Meza Ruiz, investigador del IIMAS
Bastaron cinco días para que Chat- GPT, un servicio de optimización de modelos de lenguaje para el diálogo creado por la empresa OpenAI, llegara a su primer millón de usuarios tras su aparición en el mercado en noviembre del 2022 y, desde entonces, su popularidad no ha decrecido; incluso, su versión gratuita se satura un par de ocasiones al día ante el número de personas que intentan utilizarlo y poner a prueba sus habilidades.
Sin embargo, a pesar de la popularidad de la herramienta todavía no es posible saber a ciencia cierta cuáles serán sus capacidades o si podrá monetizarse. “En definitiva, se le ve potencial a sus capacidades. ¿Qué tan exitoso será? ¿Qué necesidades resuelve? Esto todavía está a discusión. La intención de la empresa asociada al sistema ChatGPT es hacer dinero con él. Actualmente, está patrocinada extensivamente por Microsoft y ellos han invertido miles de millones de dólares para seguir desarrollando el producto”, explicó Iván Meza Ruiz, investigador asociado en el Instituto de Investigaciones en Matemáticas Aplicadas y en Sistemas (IIMAS).
Para el especialista es importante que el sistema desarrollado por OpenAI resuelva algunas de las críticas que se han hecho a su funcionamiento, en especial las relacionadas con los sesgos que contiene la información usada para evolucionar su capacidad de conversación.
“Hay críticas respecto a que es muy bueno respondiendo, contextualizando las respuestas y que éstas estén en una dirección plausible; pero muchas veces contienen información errónea o falsa, y esto representa un problema porque nosotros vamos a estar colaborando con esta herramienta –es conversacional– y tenemos una responsabilidad de cuestionar al sistema, comprobar si lo que nos está dando es correcto o no”. comentó Meza y añadió:
“No estamos acostumbrados a este tipo de sistemas –y que sean computacionales–; el ejemplo que me gusta ponerle a mis alumnos es el de un sistema bancario que maneja nuestras cuentas. No queremos que nos dé un aproximado de cuánto tenemos en nuestra cuenta, si yo gasto o alguien me deposita, quiero que sea preciso. También los dueños de los servicios bancarios están comprometidos con el correcto funcionamiento de estos sistemas. Estamos en una era en que comenzamos a interactuar con sistemas que nos dan respuestas que no son 100 por ciento correctas y es algo a lo que nos tenemos que acostumbrar”.
La expectativa en el corto plazo –al menos para Microsoft, señaló Meza Ruiz– es que ChatGPT se una al buscador de la empresa fundada por Bill Gates y “proporcione los links relacionados a la información que nos está dando” para hacer más confiable sus respuestas.
¿Qué lo diferencia?
En la última década diversas compañías y agencias de publicidad han desarrollado bots conversacionales como apoyo para resolver y acelerar la atención al cliente, además de que estos puedan iniciar el contacto mediante sus redes sociales. Este tipo de desarrollos, argumenta Meza, evolucionan con mucho análisis porque representan a esas empresas o instituciones”.
“Les tienen que poner mucha atención para que el cliente reciba la información correcta en el contexto de lo que puede hacer la empresa; se diseñan con mucho cuidado. Empieza a funcionar el chatbot, comete errores, entonces entra el equipo a revisarlos y mete nuevos comportamientos”, comentó el investigador universitario.
La diferencia de los bots conversacionales y ChatGPT recae en que el segundo tiene la capacidad de “capturar el comportamiento de escritura en términos de escribir la siguiente palabra. Todo lo que está tratando de resolver ChatGPT es cuál es la siguiente palabra, y ya que decidió, continúa con la siguiente y luego la siguiente, con eso forma un tren de ideas”, recalcó.
“Para conseguir esto, al sistema le presentaron todo el texto de internet que pudieron obtener; de ahí aprendió a escribir. Lo impresionante de esto es que fue suficiente como para incorporar conocimiento lingüístico, algo con lo que estábamos batallando en el campo de investigación”, agregó el especialista.
Por ello, subrayó, es necesario que como usuarios seamos críticos con el sistema para así evitar replicar comportamientos nocivos de nuestra experiencia virtual y pongamos atención en cómo se desarrolla a futuro:
“La versión anterior, que nada más generaba, estaba repitiendo comportamientos socialmente nocivos (lenguaje ofensivo, misoginia, racismo, xenofobia). Los aprendió, desgraciadamente, porque internet está lleno de ese tipo de información. Ahora se está haciendo el ejercicio de ponernos en el lugar de las mujeres, saber qué concepto o qué conceptualización de la mujer tienen estos sistemas, qué tipo de respuesta dará, si va a estar condicionada al género o a los diferentes géneros”.
Y apuntó: “Hay una versión pagada, esto ya genera dos tipos de usuarios: los que podrán pagarlo y los que no. Se categoriza por economía a la población y en su operación genera dos tipos de ciudadanos. Son cosas que se deben analizar: qué tipo de sistema es el que queremos y cómo nos gustaría interactuar con él”.