La métrica que usa el presidente para valorar la investigación científica es demasiado estrecha para el problema que dice querer resolver, sugiere el autor. “Una evaluación responsable tendría que preguntarse, como mínimo, por cinco tipos de retorno, y ninguno puede medirse cabalmente en empleos directos”. Advierte que una democracia que mide mal su conocimiento no ahorra, se empobrece.
Cuando el Presidente José Antonio Kast preguntó cuántos empleos generó una investigación financiada con cien o quinientos millones de pesos y que terminó en “un libro precioso, empastado, en la biblioteca”, hizo algo que raramente ocurre en el debate público chileno: puso sobre la mesa el retorno de la inversión científica. Ese debate merece tomarse en serio. Y la métrica que propone merece examinarse con atención, porque el criterio que usemos para evaluar la ciencia determina, en última instancia, el tipo de ciencia que terminaremos produciendo.
“La investigación financiada por el Estado debe rendir cuentas, eso no está en discusión”
La comparación más honesta no es reprochar a un hospital que no fabrique automóviles, sino preguntarse si evaluamos bien al hospital cuando solo contamos las consultas del día sin preguntarnos por la salud pública que sostiene. La investigación social tiene su propia función y lo relevante no es cuántos contratos firmó un proyecto, sino qué capacidades instaló en el país, qué evidencia produjo, qué debates informó, qué políticas ayudó a diseñar y qué personas formó.
La investigación financiada por el Estado debe rendir cuentas, eso no está en discusión. Lo que sí lo está es con qué criterios, en qué horizonte temporal y con qué concepción de retorno público. Aquí Chile tiene un problema concreto: según la Cuenta Pública 2025 del Ministerio de Ciencia, el país destinó el 0,41% de su PIB a investigación y desarrollo en 2023 —una mejora respecto del 0,39% registrado en 2022 (1). No obstante, el país sigue muy por debajo del promedio de la OCDE, que se sitúa en torno al 2,7% del PIB. En términos simples, Chile invierte en ciencia cerca de una sexta parte de lo que invierten en promedio los países con los que busca compararse. En ese contexto, la discusión pertinente no es si recortar la ciencia que tenemos, sino cómo evaluar mejor lo que produce.

quÉ dice el estándar internacional
La Declaración de San Francisco sobre Evaluación de la Investigación, conocida como DORA y publicada en 2013, ha sido suscrita por más de 27 mil personas y organizaciones en 172 países. Su recomendación central es ampliar los criterios con que se evalúa la investigación, reconociendo la diversidad de productos y contribuciones que genera, entre ellos artículos, datos, formación de personas e influencia en políticas y prácticas. El empleo directo puede formar parte de esos retornos, pero no los define ni los agota. Ese consenso se ha fortalecido durante los últimos años. En julio de 2022, la Comisión Europea, Science Europe y la Asociación Europea de Universidades impulsaron el Acuerdo para la Reforma de la Evaluación de la Investigación, que propone reconocer la diversidad de productos, prácticas, trayectorias e impactos según cada disciplina. En diciembre de ese mismo año, CoARA fue constituida formalmente con la participación de más de 300 organizaciones y hoy reúne a una comunidad internacional de universidades, agencias de financiamiento, academias científicas y organismos de evaluación. El debate, por tanto, ya no consiste en decidir si la evaluación debe cambiar. La pregunta es cómo construir criterios, plazos y concepciones de valor público capaces de reconocer lo que cada campo del conocimiento efectivamente produce.
“El economista Charles Goodhart enunció hace décadas una advertencia que el tiempo no ha dejado de confirmar: cuando una medida se convierte en meta, pierde su capacidad de medir aquello para lo que fue creada.”
El Manifiesto de Leiden, publicado por Diana Hicks, Paul Wouters y colegas en Nature en 2015, añade que las métricas cuantitativas deben apoyar —no reemplazar— el juicio experto, y que los criterios deben adaptarse a las diferencias entre campos del conocimiento. Una métrica pensada para la ingeniería de materiales no captura lo que produce la investigación en violencia urbana, en migraciones o en desigualdad. Aplicarla sin ajuste no es rigor: es sesgo metodológico.
El economista Charles Goodhart enunció hace décadas una advertencia que el tiempo no ha dejado de confirmar: cuando una medida se convierte en meta, pierde su capacidad de medir aquello para lo que fue creada. Si el único indicador válido para evaluar la investigación social es el empleo que genera, los equipos de investigación optimizarán hacia ese indicador. Estudiarán lo que el indicador premia, no lo que el país necesita. El daño no es la pérdida de unos fondos, sino la deformación paulatina del sistema de conocimiento.
Por qué las ciencias sociales tienen tiempos distintos
Las ciencias sociales no funcionan como la ingeniería ni como las ciencias biomédicas. Su impacto no suele ser inmediato ni lineal. Se despliega de otra manera, en redes de conocimiento, a lo largo del tiempo y en diálogo con la sociedad. Lo hace mediante conceptos que ordenan debates, diagnósticos que modifican políticas, bases de datos que permiten comparar procesos históricos, metodologías que mejoran la intervención pública, especialistas que luego trabajan en el Estado, libros que informan decisiones, archivos que preservan memorias y aportes que enriquecen la deliberación democrática. La etnografía, en particular, ofrece una forma de conocimiento que los indicadores cuantitativos difícilmente pueden reemplazar. Permite comprender prácticas, experiencias e instituciones desde la perspectiva de las comunidades y territorios que las viven. También permite acceder al sentido que las personas atribuyen a sus propias circunstancias, a la manera en que experimentan la violencia, la desigualdad o la exclusión, y produce un conocimiento situado que transforma la forma en que el Estado puede comprender y enfrentar esos problemas.
Fecher y colegas, en un estudio basado en una consulta a 125 expertos de distintos sectores publicado en Frontiers in Research Metrics and Analytics (2021), identificaron seis funciones sociales que las ciencias sociales y humanidades cumplen: explicar, reflexionar, educar, señalar, anticipar e informar. Ninguna equivale a generar empleo directo. Algunas, como señalar problemas emergentes o cuestionar el encuadre mismo de una crisis, son contraintuitivas: su valor reside en impugnar las preguntas que damos por sentadas, no en ofrecer soluciones prefabricadas. Los autores denominan “conocimiento de cohesión” al tipo de saber que producen estas disciplinas: conocimiento que ayuda a una sociedad a anticipar y moderar el cambio, a reconocer sus fracturas antes de que se vuelvan inmanejables. Ese conocimiento es difuso, lento y poco espectacular. También es indispensable.
Basta pensar en dos libros cuyo valor difícilmente podría medirse por los puestos de trabajo creados al momento de su publicación. En 1982, Carol Gilligan publicó In a Different Voice, una obra que transformó la psicología moral y contribuyó a constituir la ética del cuidado como campo propio. Un año después, Arlie Hochschild publicó The Managed Heart, un texto decisivo para la sociología de las emociones y para el estudio del trabajo afectivo, hoy central en las discusiones sobre cuidados, plataformas digitales y economía del hogar. Su impacto no fue inmediato ni cuantificable en contratos, pero cambió gradualmente el modo en que se comprenden la justicia, la dignidad y el trabajo. Con el tiempo, esas ideas ingresaron en debates públicos, políticas, legislaciones y marcos de derechos en distintos países, dejando una huella profunda y duradera.
Bastow, Dunleavy y Tinkler, en su libro The Impact of the Social Sciences publicado por SAGE en 2014, estimaron que alrededor de 40 millones de personas trabajan en el mundo vinculando los avances de las ciencias sociales con gobiernos, empresas, hospitales y organizaciones civiles. Ese empleo no nace de un proyecto aislado, sino de décadas de conocimiento acumulado, discutido y transformado en capacidades sociales e institucionales. McAlpine y colegas, en un estudio empírico publicado en Arts and Humanities in Higher Education en 2024, documentaron que las métricas de impacto predominantes tampoco son instrumentos neutros. Al contrario, producen jerarquías entre formas de conocimiento e invisibilizan de manera sistemática a las disciplinas cuyo valor aparece en plazos largos y por vías indirectas. Una de las académicas entrevistadas por McAlpine y sus colegas, identificada como Mona, advertía el riesgo con una fórmula especialmente precisa. Cuando el impacto se convierte en todo, termina por no significar nada.

Epresencia pública y responsabilidad con lo común
La imagen del “libro precioso empastado en la biblioteca” reduce la investigación a su objeto final, como si todo concluyera en el momento de la publicación. Pero el trabajo académico no se agota ahí. En la introducción de If Truth Be Told, publicado por Duke University Press en 2017, Didier Fassin afirma que publicar no significa cerrar una investigación. Significa abrirla a una vida pública, donde sus hallazgos se encuentran con lectores, comunidades, instituciones, políticas y controversias. Un libro sobre violencia urbana en Chile no termina en las librerías. Sigue actuando cuando informa debates parlamentarios, orienta propuestas ministeriales, circula entre comunidades afectadas o incide en procesos de diseño institucional.
Esa presencia pública en los medios, las comunidades y las instituciones del Estado es una de las formas en que la ciencia social responde al vínculo que mantiene con la sociedad que la financia. Renunciar a ella no haría más eficiente a la investigación. La volvería más aislada y menos capaz de incidir sobre los problemas que estudia. El costo de esa inercia no aparece en la partida presupuestaria del año en que se recorta el financiamiento. Aparece más tarde, cuando fallan las políticas, se imponen diagnósticos equivocados y estallan crisis que pudieron haberse anticipado.
Los cinco retornos que la pregunta presidencial no VE
Una evaluación responsable de la investigación pública tendría que preguntarse, como mínimo, por cinco tipos de retorno. Ninguno es reducible a los demás, y ninguno puede medirse cabalmente en empleos directos.
El primero es científico: publicaciones, libros, datos y métodos que ingresan al debate académico global y que otras investigaciones, políticas y prácticas utilizarán durante décadas. Sus efectos raramente se hacen visibles en el ejercicio presupuestario que los produce, pero se sedimentan en el patrimonio de conocimiento del país.
El segundo es formativo. Los investigadores jóvenes formados en equipos consolidados desarrollan capacidades que el país difícilmente recupera si esos equipos se disuelven. Un doctorado completado en un centro de investigación de excelencia no genera empleo directo en ese proyecto, pero podría generar capacidad institucional para el país durante décadas: cuando esa persona trabaje en el Estado, en organismos internacionales, en universidades o en la sociedad civil.
El tercero es institucional y territorial. Los vínculos de confianza construidos con municipios, ministerios, servicios públicos, comunidades y organizaciones sociales no se licitan ni se improvisan en un año. Las bases de datos longitudinales que un equipo consolida en diez años de trabajo continuo en un barrio o un territorio son imposibles de replicar desde un proyecto de corta duración. Permiten al Estado ver realidades que de otro modo permanecen opacas.
“Las métricas de impacto no solo miden la investigación, también influyen en qué conocimientos se vuelven visibles, financiables y legítimos. Cuando esa jerarquía se traslada al debate público, el problema deja de ser solo académico.”
El cuarto es democrático. La investigación social produce evidencia para deliberar mejor y lenguaje con el que nombrar con precisión los propios conflictos. Fecher y colegas (2021) documentaron cómo opera en las ciencias sociales una función de anticipación, semejante a un sistema de alerta temprana para problemas que aún no llegan a la agenda pública. Una democracia que debilita esa capacidad no solo sabe menos sobre sí misma. También discute peor, decide más tarde y queda más expuesta a interpretar sus problemas con categorías insuficientes.
El quinto es el retorno de largo plazo, el más invisible en el presupuesto y el más costoso cuando no se ha cultivado. El Estado que invirtió sostenidamente en investigación sobre salud mental, cuidados, envejecimiento o transformación del trabajo dispone de mejores herramientas para responder cuando esos procesos se intensifican. El que no lo hizo tendrá que improvisar, con los costos que eso implica.
Lo que está en juego
El debate abierto por la frase presidencial tiene una dimensión presupuestaria, pero también compromete una disputa cultural y política más amplia. Cuando la investigación se presenta como un gasto ornamental, reducido a libros que nadie lee o a fondos sin retorno, se instala una sospecha que excede el debate sobre ciencia. Esa sospecha consiste en creer que el conocimiento sin valor de mercado inmediato carece de valor público.
Esa sospecha no es inocente. Como señalan McAlpine y colegas en 2024, las métricas de impacto no solo miden la investigación, también influyen en qué conocimientos se vuelven visibles, financiables y legítimos. Cuando esa jerarquía se traslada al debate público, el problema deja de ser solo académico. Las democracias más frágiles suelen ser aquellas que han debilitado su capacidad de producir conocimiento independiente sobre sus propios conflictos. Un Estado que no investiga esos conflictos no los comprende mejor por ahorrar en ciencia. Los administra peor, con costos que se transfieren hacia adelante. Y una sociedad que desconfía de sus propias capacidades intelectuales termina dependiendo de marcos interpretativos ajenos, incapaces de captar sus especificidades, sus memorias y sus historias.
Lo que está en juego, entonces, no es solo el financiamiento de un programa particular. Es la capacidad del país para conocerse, nombrar con precisión sus problemas y producir respuestas desde sus propias realidades. Lejos de ser un lujo académico, esa capacidad es parte de la infraestructura democrática de una sociedad.
Evaluar mejor la investigación pública es una necesidad real. El debate que abrió el Presidente Kast podría ser una oportunidad para avanzar en esa dirección. Pero resolverlo mediante un único indicador, que los sistemas científicos más desarrollados ya reconocen como insuficiente, sería desperdiciar esa oportunidad. Medir la ciencia únicamente en empleos directos no agrega rigor. Empobrece la pregunta. Y un país que renuncia a comprenderse a sí mismo no ahorra. Hipoteca su futuro.

NOTAS Y REFERENCIAS
(1) Encuesta de Gasto y Personal en I+D del MinCiencia con apoyo del INE.
Referencias
Bastow, S., Dunleavy, P., & Tinkler, J. (2014). The Impact of the Social Sciences: How Academics and Their Research Make a Difference. https://doi.org/10.4135/9781473921511
CoARA (2022). Agreement on Reforming Research Assessment. DOI 10.5281/zenodo.13480728
Fassin, D. (ed.) (2017). If Truth Be Told. Duke University Press.
Fecher, B., Kuper, F., Sokolovska, N., Fenton, A., Hornbostel, S., & Wagner, G. G. (2021). Understanding the Societal Impact of the Social Sciences and Humanities- Remarks on Roles, Challenges, and Expectations. Frontiers in Research Metrics and Analytics, 6, 696804.
Gilligan, C. (1982). In a Different Voice. Harvard University Press.
Hicks, D., Wouters, P., Waltman, L., Rijcke, S. de, & Ràfols, I. (2015). Bibliometrics: The Leiden Manifesto for research metrics. Nature, 520(7548), 429–431. https://doi.org/10.1038/520429a
Hochschild, A. R. (1983). The Managed Heart. University of California Press.
McAlpine, L., Gibson, A., Bengtsen, S. S. E., & DeLaquil, T. (2024). Valuing humanities: Rethinking the humanities-impact landscape in Denmark. Arts and Humanities in Higher Education, 23(4), 287–307. https://doi.org/10.1177/14740222241261034
DORA. (2013). San Francisco Declaration on Research Assessment. https://sfdora.org/read/
Ministerio de Ciencia, Tecnología, Conocimiento e Innovación. (2025, 10 de julio). “Con anuncio de 0,41% de gasto en I+D, ministra Aisén Etcheverry presentó Cuenta Pública 2025 en Rancagua.” https://www.minciencia.gob.cl/noticias/con-anuncio-de-041-de-gasto-en-id-ministra-aisen-etcheverry-presento-cuenta-publica-2025-en-rancagua/
Ministerio de Ciencia, Tecnología, Conocimiento e Innovación. (2024, 6 de agosto). “Encuesta 2022 de I+D del MinCiencia y el INE: Gasto total en I+D sube de 0,36 a 0,39% del PIB.” https://www.minciencia.gob.cl/noticias/encuesta-2022-de-id-del-minciencia-y-el-ine-gasto-total-en-id-sube-de-036-a-039-del-pib/
Organización para la Cooperación y el Desarrollo Económicos. (s. f.). Gasto interno bruto en I+D. Recuperado el 1 de mayo de 2026, de https://www.oecd.org/es/data/indicators/gross-domestic-spending-on-r-d.html


Ángel Aedo Gajardo