Date:

Share:

Respuestas generadas por inteligencia artificial, entre veracidad y coherencia

Inteligencia artificial (IA) es un término que hasta hace poco tiempo se escuchaba únicamente en películas de ciencia ficción o en ambientes académicos especializados. Esto ha cambiado radicalmente en la última década, cuando la IA comenzó a ser usada de forma masiva llegando a irrumpir en muchos ámbitos de nuestra vida con la aparición de los llamados “modelos generativos”, que, a partir de observar millones de ejemplos de diferente naturaleza, han aprendido a imitar y crear su propio contenido en distintos formatos, por ejemplo, imágenes y textos.

Los principales protagonistas de este cambio han sido los “modelos de lenguaje”, que son capaces de realizar tareas tan complejas como resumir, traducir y ajustar el estilo de documentos, con gran exactitud. A pesar de esta considerable versatilidad, su popularidad se debe en gran parte a su capacidad para dar respuesta a preguntas de toda índole. Prácticamente, son una especie de asistente sabelotodo que siempre tiene una respuesta para nuestros cuestionamientos.

A diferencia de los modelos generativos de imágenes, cuyos errores visuales, por más pequeños que sean, nos hacen conscientes de sus limitaciones, los modelos de lenguaje, como ChatGPT, Gemini o Copilot, entre otros, suelen generar una confianza ciega en quienes los usan; existe una tendencia generalizada a asumir que sus respuestas son siempre correctas y completas. Así pues, vale la pena preguntarnos: ¿realmente estos modelos lo saben todo? ¿Sus respuestas son siempre verdaderas?

Para responder a lo anterior, debemos comprender que un modelo de lenguaje es, en términos generales, un sistema matemático de probabilidades de aparición de palabras. Éstos funcionan como un sistema de autocompletado avanzado que, después de analizar miles de millones de textos (como libros, artículos, páginas de Wikipedia, etcétera), son capaces de predecir la palabra más “coherente” o probable para continuar con una frase dada. Así, cuando interactuamos con un modelo de lenguaje, éste no piensa, sino que cálcula estadísticamente qué respuesta tiene más sentido según el contexto dado. Por ejemplo, ante la pregunta “¿cómo se prepara un café espresso?”, el modelo prioriza términos como “presión” o “molienda fina”; en cambio, si preguntamos por un “café de olla”, las probabilidades se desplazan hacia ingredientes como “canela” y “piloncillo”; estos términos son priorizados porque suelen aparecer con alta frecuencia en textos donde se habla de estos tipos de café. Entonces, el modelo es más un “generador contextual” que un “buscador de información”, es decir, en lugar de extraer la información solicitada de un repositorio fijo, como quizá muchas personas lo suponen, ensambla cada respuesta en tiempo real, eligiendo palabra a palabra aquellas que mejor encajan con el tema planteado.

Sin lugar a dudas, estos modelos de IA han cautivado a la sociedad al demostrar una capacidad sin precedentes para generar lenguaje. Incluso, si consideramos el funcionamiento explicado anteriormente, su rendimiento resulta aún más sorprendente, casi mágico. Esta “magia”, que transforma un proceso probabilístico en un comportamiento aparentemente inteligente, se sustenta en dos pilares fundamentales: la escala de los datos y el manejo del contexto. La escala se refiere al volumen masivo de información con la que se entrenan estos modelos, y a partir de la cual aprenden patrones de lenguaje tan complejos que incluso desarrollan habilidades que nadie les enseñó directamente. El contexto, por su parte, es lo que permite al modelo entender de qué estamos hablando en cada momento. A diferencia de un buscador que considera palabras sueltas, estos modelos analizan toda la pregunta o frase de entrada para captar su sentido. Por ejemplo, si le preguntamos: “¿Todas las especies de peces forman bancos?”, el modelo entiende que no nos referimos a una institución financiera, sino a un grupo de animales. Explicándolo de otro modo, la escala es lo que el modelo sabe, su conocimiento codificado, mientras que el contexto es cómo entiende nuestra pregunta, y cómo la interpreta a partir de las palabras que la componen y de nuestras interacciones previas.

Aunque parezca que estos modelos de IA son infalibles, lo cierto es que sus errores son habituales. A este fenómeno se le conoce como “alucinación” y ocurre porque los modelos de lenguaje anteponen la coherencia a la veracidad. Si no conocen la respuesta exacta a alguna de nuestras preguntas, no suelen detenerse ni admitir su desconocimiento; por el contrario, privilegian la continuidad del flujo conversacional e inventan contenido basado en sus cálculos probabilísticos. El resultado son afirmaciones gramaticalmente correctas y convincentes, pero falsas. Estas fallas se pueden catalogar en varios tipos: i) fácticas, donde se alteran datos como fechas o nombres; ii) bibliográficas, que crean referencias inexistentes con apariencia legítima; iii) lógicas, que contradicen premisas previas; y iv) matemáticas, que presentan cálculos erróneos bajo una estructura aparentemente técnica. Existen varios casos emblemáticos donde las alucinaciones de distintos modelos han tenido impactos reales en la economía, la justicia y la salud. Por ejemplo, Google perdió valor de mercado tras un error de su modelo sobre el telescopio James Webb1; sin embargo, las consecuencias más críticas se observan en el sector salud, donde se han documentado consejos peligrosos para trastornos alimenticios y respuestas desinformadas que agravaron crisis de salud mental con desenlaces fatales2.

Con lo expuesto anteriormente, nuestra intención ha sido explicar el funcionamiento de los modelos de lenguaje y destacar sus múltiples aplicaciones. Gracias a su capacidad para procesar y generar contenido en segundos, éstos ofrecen grandes ventajas para potenciar la productividad personal y el desarrollo técnico en las distintas áreas del conocimiento. Sin embargo, también es crucial visibilizar sus limitaciones, enfatizando que, aunque imitan el razonamiento, esto no implica que estén pensando. Son excelentes imitadores de patrones lingüísticos, pero carecen de una comprensión real del mundo físico. Mientras humanos desarrollamos el lenguaje a través de nuestras experiencias, la IA aprende el lenguaje mediante estadísticas. Nosotros utilizamos y producimos el lenguaje para expresar lo que nos sucede diariamente desde cómo percibimos el clima, la incertidumbre de lo que pasa a nuestro alrededor y en el mundo, así como las más grandes alegrías que tenemos; la IA solo es un espejo de nuestras palabras, intenta imitar la forma en la que nos comunicamos, pero siempre desde esa perspectiva inerte y carente de experiencias reales e intencionalidad, simplemente procesa todos estos conceptos como simples correlaciones estadísticas a partir de los textos. Nuestra sugerencia es fomentar el uso consciente de la IA en nuestras actividades laborales, escolares y personales diarias, siempre bajo una premisa de cautela. Es muy importante tener presente que el dilema entre coherencia y veracidad es intrínseco a su diseño; por ello, la verificación rutinaria de la información debe ser una práctica obligatoria para todo usuario.

* [email protected] y [email protected]

1 https://www.bbc.com/mundo/noticias-64583401

2 https://www.nationalgeographicla.com/ciencia/2025/09/psicosis-inducida-por-ia-como-una-charla-con-un-bot-puede-poner-en-riesgo-tu-salud-mental

Más Articulos