Pasamos horas frente a la pantalla, viendo cómo la Inteligencia Artificial despega y promete revolucionar todo a su paso. Los científicos la usan para analizar datos, redactar artículos e incluso formular hipótesis, lo que genera un torrente de publicaciones y citas. Parece que la ciencia ha encontrado su súper combustible. Pero, ¿a qué precio? Un estudio reciente de Cambridge lanza una advertencia helada: esta aceleración podría estar costándonos la diversidad del conocimiento científico.

La paradoja: ¿velocidad que frena?

Parece contradictorio, pero una tecnología diseñada para avanzar a pasos agigantados podría, irónicamente, ralentizar el progreso a largo plazo. El problema no reside en la herramienta en sí, sino en su creciente dominio. Los científicos que emplean la IA obtienen resultados más rápidos, son citados con más frecuencia y acceden a financiación con mayor facilidad. Este ciclo invita a un uso aún más expansivo de la IA, concentrando cada vez más proyectos, análisis y publicaciones en torno a la misma tecnología.

La "triple convergencia" que preocupa

Los investigadores de Cambridge identifican un fenómeno alarmante, una convergencia triple que moldea el panorama científico de manera inquietante:

  • Temática: Disciplinas diversas, incluso aquellas con campos de estudio previamente autónomos, comienzan a formular sus preguntas a través de la lente de la IA. La jerga y los modelos de análisis se vuelven sorprendentemente similares.
  • Metodológica: Los grandes modelos de lenguaje se establecen como el estándar de facto para clasificar datos, analizar textos y procesar información. Cuando un método se vuelve dominante, sutilmente guía las preguntas que se formulan, inclinándose hacia lo que la tecnología puede analizar más fácilmente.
  • Lingüística: Las publicaciones científicas adoptan terminología y estructuras recurrentes. Frases como "IA confiable", "colaboración humano-IA" o "uso ético" se convierten en fórmulas universales, erosionando los estilos de pensamiento individuales.

Los autores comparan esta situación con los monocultivos agrícolas: un solo cultivo hace al sistema vulnerable a enfermedades y crisis. De igual manera, la uniformidad intelectual en la ciencia debilita su resiliencia ante problemas inesperados.

El círculo vicioso epistémico

Una de las amenazas más discutidas es la retroalimentación epistémica: la IA se utiliza para generar ideas sobre IA. Básicamente, el sistema se alimenta a sí mismo. En este escenario, los proyectos no relacionados con la IA pierden visibilidad y financiación. Las investigaciones más lentas, experimentales o poco convencionales se vuelven menos atractivas, ya que sus resultados no se generan con la misma rapidez y eficiencia. A largo plazo, el paisaje científico podría estrecharse drásticamente, incluso si los investigadores individuales son más productivos que nunca.

¿Más publicaciones, menos comprensión?

Tendencias similares han sido observadas por investigadores de otras universidades. Estudios de Tsinghua y la Universidad de Chicago, analizando cientos de miles de publicaciones, confirman que la IA amplifica el impacto de científicos individuales (más citas, mayor alcance), pero reduce el espectro general de temas abordados. Investigaciones de Yale y Princeton advierten sobre otra amenaza: la "ilusión de comprensión". Cuando la IA genera textos, análisis o hipótesis, podemos tener la falsa impresión de saber más de lo que realmente sabemos. La productividad aumenta, pero la comprensión profunda no siempre la acompaña.

¿La solución es retroceder?

Los investigadores de Cambridge no proponen abandonar la IA o volver a los catálogos de fichas en papel. Abogan por cambios estructurales. Sugieren diversificar la financiación para asegurar la representación de investigaciones no relacionadas con la IA dentro de grandes proyectos. Además, enfatizan la variedad de métodos: combinar enfoques experimentales, cualitativos y etnográficos con modelos digitales.

Otro aspecto crucial es el sistema de evaluación. Si solo se premia la velocidad y la cantidad de publicaciones, es natural que los científicos opten por las herramientas más eficientes. Sin embargo, si se valora la originalidad, el riesgo y la audacia intelectual, habrá más incentivos para salir del camino popular.

La amenaza no es la tecnología, sino su monopolio

La IA, por sí sola, no es ni un salvador ni un destructor. El problema surge cuando una sola herramienta se convierte en la paradigma dominante. La ciencia siempre ha florecido en la competencia de ideas, métodos y perspectivas. Si en el futuro todas las preguntas se formulan de manera que sean convenientes para los algoritmos, podríamos obtener una ciencia más rápida pero mucho más estrecha. Y las mayores revoluciones de la historia a menudo nacieron no de la comodidad, sino de la audacia de pensar de manera diferente.

La IA puede ser un socio poderoso. Pero si se convierte en el único filtro a través del cual vemos el mundo, la ciencia arriesga perder lo que la hace vibrante: su diversidad, su imprevisibilidad y su capacidad para sorprendernos. ¿No crees que deberíamos empezar a diversificar nuestras fuentes de conocimiento antes de que sea demasiado tarde?