La irrupción de la Inteligencia Artificial Generativa está acaparando la conversación de los ámbitos sociales, educativos, sanitarios, políticos y culturales, entre otros. Su capacidad para analizar y producir textos, imágenes, vídeos y hasta ideas está siendo interpretada como una amenaza o como una solución milagrosa, según a quién se escuche.
En medio de este debate polarizado, que revive aquella eterna discusión entre apocalípticos e integrados, suele perderse de vista un elemento crucial: la IAG no solo modifica la producción de contenidos, sino también las formas en que nos relacionamos y aprendemos. Allí, en ese espacio relacional, se abre una oportunidad que vale la pena explorar. Uno de los usos más extendidos de la IAG está relacionado con la delegación de tareas como la escritura, la generación de ideas o la toma de decisiones. Recuerdas la última vez que la usaste: ¿la respuesta te hizo cuestionar tu propia postura? ¿Te llevó a revisar un sesgo personal o a considerar una alternativa que te incomodara? Probablemente no.
La incorporación masiva de IAG lleva esta lógica a un extremo silencioso, en tanto está programada para maximizar la satisfacción del usuario y ofrecer una interacción que imita el diálogo y la escucha perfecta. Estos modelos no objetan, no tensionan, ni discuten y los usuarios no dialogan, sino que solicitan y el sistema responde. La conversación se reduce a un monólogo asistido que suprime la incertidumbre y, con ella, la posibilidad de explorar y descubrir.
La IAG no inaugura una problemática nueva, más bien profundiza un síntoma del entorno digital actual: la búsqueda de validación y la evasión sistemática del conflicto. Esto ha llevado a una lógica algorítmica de la hiperpersonalización del contenido y un efecto de cámara de eco. En ese ambiente, el diálogo dejó de ser un espacio de construcción colectiva para convertirse en un mecanismo de autoafirmación.
El diálogo es siempre un encuentro entre diferencias y en ese choque emerge la posibilidad de una comprensión más amplia. Sin esa tensión, lo que llamamos diálogo es apenas un intercambio de confirmaciones. Cuando la IA no cuestiona, elimina la fricción cognitiva y ética necesaria para crecer. En lugar de abrir mundos, los cierra alrededor de nuestras creencias. Desde la cultura popular hasta los debates geopolíticos, el temor dominante frente a la IA siempre fue que nos supere o reemplace, pero quizá el riesgo más grande sea el inverso: que nunca nos cuestione.
La tensión, aunque muchas veces tenga una connotación negativa, supone movilización y transformación. Paulo Freire se refería al diálogo como un acto de valentía que exige humildad y compromiso ético con la palabra del otro. No es una mera conversación, sino una praxis transformadora, algo que requiere exponerse a la diferencia sin anularla, sostener la tensión sin apresurarse a evitarla.
Desde este enfoque, se reconoce en la contradicción un motor de transformación social. La conciencia crítica no florece en la comodidad, sino en el debate, la duda y el encuentro desafiante. El problema de un ecosistema tecnológico que evita la fricción no es solo epistemológico, también es ético. Cuando una herramienta nos ofrece respuestas inmediatas y validación constante, corremos el riesgo de renunciar a la responsabilidad del pensamiento. La comodidad puede volverse un hábito y, con él, una forma de pasividad que debilita nuestras capacidades críticas.
Esa delegación del pensamiento puede afectar a la ciudadanía, al encontrarse menos preparada para enfrentar la desinformación, los discursos de odio o la saturación de contenidos. Cada vez que cedemos al automatismo de la respuesta sin tensión, dejamos de cultivar la capacidad de sostener un desacuerdo, de revisar un argumento o de construir una posición propia en diálogo con la alteridad. Puesto que la arquitectura de los modelos de IAG prioriza la eficiencia algorítmica en la generación de respuestas, la integración del diálogo como un mecanismo de vinculación enriquecedor se convierte en una responsabilidad inherentemente humana.
El desafío no es volver a un pasado idealizado donde las conversaciones fluían sin mediaciones digitales, lo que involucra la tentación de restringir el uso de tecnologías. El desafío está en diseñar tecnologías que reconozcan que lo humano no se reduce a eficiencia, ni a comodidad, ni a satisfacción inmediata. El diálogo no siempre es satisfactorio ni eficiente. A veces es frustrante, lento e incómodo. Sin embargo, es allí donde habita su valor.
Integrar el Factor R-elacional en la arquitectura de la IAG implica pensar en sistemas que no solo asistan, sino que inviten al contraste, que estén diseñados para plantear alternativas, detectar puntos ciegos y ampliar perspectivas. Esto requiere una alfabetización digital que vaya más allá del uso instrumental. Necesitamos una educación tecnológica que prepare a las personas para habitar estas herramientas desde la autonomía y la conciencia crítica, junto a marcos éticos de diseño que reconozcan el diálogo como un elemento constitutivo de la alfabetización digital y la actitud crítica.
Si logramos integrar el valor del conflicto, la crítica y la interpelación en el diseño de la IAG, podremos potenciar el pensamiento, la creatividad y la responsabilidad colectiva que hacen posible una sociedad verdaderamente democrática. La pregunta no es solo qué puede hacer la IA por nosotros, sino qué estamos dispuestos a dejar de hacer como humanos al delegarle el pensamiento crítico.
El verdadero desafío no es tecnológico, sino dialógico. Está en nuestra capacidad de resistir la comodidad de la validación constante y, en su lugar, elegir la incomodidad transformadora de la diferencia. Solo si nos hacemos responsables de ese encuentro genuino, la inteligencia artificial dejará de ser un espejo que confirma y reproduce sesgos, y se convertirá en la herramienta que nos impulsa a la reflexión y a la construcción de un futuro más complejo y, por tanto, más humano.
Ismael Bordón
Investigador
