Existe la creencia generalizada de que la ciencia y el progreso tecnológico seguirán su avance de forma continua mejorando nuestra calidad de vida y solucionando cualquier problema o situación negativa que se nos plantee en el futuro. Esta creencia, ampliamente sostenida, se denomina tecno-optimismo y se deriva de los increíbles avances de la ciencia y su aplicación tecnológica en los últimos 200 años. La realidad sin embargo es otra, y la ciencia, al igual que el resto del universo del que forma parte, está sujeta a la ley de rendimientos decrecientes.
1. La velocidad de crecimiento de la ciencia
El nacimiento de la ciencia moderna se puede establecer a mediados del siglo XVII con la aparición de las primeras sociedades científicas y el inicio de la costumbre de escribir artículos científicos en vez de libros para comunicar descubrimientos. De acuerdo con diversas medidas de producción científica, como el número de revistas científicas, el número de artículos, o el número de científicos, la ciencia, que crecía con rapidez desde sus inicios, comienza un desarrollo exponencial hacia 1750 que dura ya más de dos siglos y medio.
Figura 1. Medida del crecimiento de la ciencia. A la izquierda según el número de revistas científicas y a la derecha según el número de resúmenes. En ambos casos la escala vertical es logarítmica por lo que un crecimiento constante es exponencial. Fuente: Derek J. de Solla Price, "Little Science, Big Science" Columbia University Press (1965).
El ritmo de crecimiento de la ciencia es asombroso. Cada año el número de artículos publicados y el número de revistas se incrementa en un 3-4 %, y esto ha sido así durante los últimos dos siglos. El tiempo de duplicación es de tan solo 20 años (algo más lento que el calculado por de Solla en 1965, figura 1). La causa es que el número de investigadores ha crecido a un ritmo prodigioso, que en el siglo XXI ha subido al 4-5 % anual gracias al crecimiento de la ciencia en los países en desarrollo, principalmente China. Actualmente hay más de 28.000 revistas científicas en inglés y se publican unos dos millones y medio de artículos científicos cada año. El número de investigadores es variable dependiendo de como se definan, pero según los datos de la UNESCO, extrapolando el crecimiento entre 2007 y 2013, actualmente hay 9,5 millones de investigadores equivalentes a jornada completa en el mundo. Ello hace verdad algo que dijo Derek de Solla Price, el iniciador de la cienciometría, en 1965:
El 90% de todos los científicos que han existido en el mundo están vivos ahora.
Figura 2. La explosión de la ciencia en la segunda mitad del siglo XX. En azul, la financiación en miles de millones de dólares por parte del Instituto Nacional de la Salud (NIH) y la Fundación Nacional de la Ciencia (NSF) de los EEUU. En rosa, el número de doctorados otorgados en EEUU en ciencia e ingeniería. En púrpura, número de artículos en miles publicados. Fuente: The Atlantic.
Esto obviamente ha sido posible porque el dinero que se ha dedicado a la ciencia también ha crecido exponencialmente (figura 2). Según los datos de la National Science Foundation el dinero global gastado en investigación y desarrollo ha crecido en este siglo a una media del 6,75 % anual, con un tiempo de duplicación de 11 años, casi el doble de rápido que el del número de artículos, pasando de 722 mil millones de dólares en 2000 a 1,9 billones en 2015 y estimándose en 2,5 billones de dólares en la actualidad.
2. Los problemas de la ciencia también crecen
Puesto que la financiación crece más deprisa que la producción científica, ello indica que la ciencia se está volviendo más cara al requerirse cada vez más dinero por investigador y artículo, y al mismo tiempo se observa que el número medio de autores por publicación está creciendo desde principios del siglo XX cuando el 80% de los artículos eran de un solo autor, desde entonces el número de firmantes de artículos ha ido creciendo un 17% cada década hasta alcanzar actualmente una media de 5 autores por artículo. Detrás de este incremento en el número de firmantes hay dos causas. Por una parte la ciencia se vuelve progresivamente más difícil y requiere equipos de investigadores más numerosos. Por otra parte la creciente presión por publicar por la dificultad para alcanzar una posición estable de investigador lleva a unir esfuerzos para aumentar las publicaciones. Esta creciente dificultad laboral se manifiesta por ejemplo en que la edad media en la que se obtiene por primera vez un proyecto de investigación del Instituto Nacional de la Salud de EEUU ha subido de 34 a 42 años desde 1970. El desánimo entre los jóvenes científicos por las dificultades para establecer una carrera estable es manifiesto. La ciencia moderna es un esquema piramidal en el que un investigador senior tiene la ayuda de varios investigadores juniors y de un número aún mayor de becarios y estudiantes buena parte de los cuales debe abandonar la ciencia por falta de oportunidades laborales a una edad relativamente avanzada para empezar en el mercado de trabajo tras haber dedicado 5, 10 o incluso 20 años a la ciencia habiendo ganado un salario muy bajo para su nivel de educación. El número de posiciones estables con un salario adecuado en ciencia es mucho menor que el número de investigadores, y crece mucho más despacio.
Figura 3. Edad media de los nuevos investigadores al conseguir su proyecto inicial del Instituto Nacional de la Salud (NIH) de EEUU. Fuente: NIH.
Es obvio que este incremento de la ciencia no es sostenible por mucho que lleve dos siglos sucediendo. La velocidad de crecimiento de la población alcanzó su máximo del 2 % en los años 60, con un tiempo de doblado de 35 años, pero actualmente ha caído al 1,14 %, lo que implica un tiempo de doblado superior a los 60 años, y es dudoso que se duplique de nuevo. El número de científicos no puede seguir doblándose cada 20 años indefinidamente. Con el porcentaje actual de investigadores, una persona de cada 800 a nivel mundial, la ciencia ya acapara el 3 % del PIB mundial (2,5 de 86 billones de dólares) y su presupuesto crece a un 6,75 %, mientras que el PIB lo hace al 2,9 %. Si se mantuviera esa diferencia de velocidad el porcentaje del PIB dedicado a la ciencia se duplicaría cada 20 años y en tan solo 60 años la ciencia acapararía una cuarta parte del producto bruto mundial y en un siglo la totalidad.
De hecho en EEUU, el país líder en ciencia, ya se están dando señales de que hay problemas para seguir creciendo exponencialmente. La investigación biomédica creció muy fuertemente con un presupuesto del Instituto Nacional de Salud (NIH) de EEUU que en 1970 era de 4 mil millones de dólares pasando a ser en 2003 de 28 mil millones de dólares, pero desde entonces se ha estancado, dirigiéndose el incremento de financiación a otras disciplinas que han crecido menos o que están más de moda, como el cambio climático.
Figura 4. Financiación de la ciencia en EEUU con fondos federales en miles de millones de dólares. En el siglo XXI se observa un parón en la financiación biomédica, de ciencias de la vida y ciencias medioambientales. Fuente: (Otro) Vox.
Ello ha provocado una gran angustia entre los investigadores de biomedicina que debido a la naturaleza piramidal de la investigación se habían iniciado en gran número en la disciplina biomédica cuando crecía con rapidez y ahora carecen de oportunidades. La difícil situación se refleja en que el porcentaje de solicitudes de financiación al NIH que tiene éxito ha caído del 30% a casi la mitad, el 18%. Estas solicitudes eran ya tan competitivas que desde los años 90 requieren meses de trabajo para redactarse y meses o incluso años de trabajo de investigación para incluir resultados preliminares que prácticamente aseguren el éxito del proyecto para favorecer su financiación. Las carreras de muchos investigadores se truncan cuando no son capaces de conseguir proyectos financiados y las universidades de EEUU les deniegan la plaza fija y los despiden. En países como el nuestro donde los científicos son funcionarios, los que no tienen financiación consumen recursos (salario y servicios comunes) en muchos casos sin producir nada.
Figura 5. El estancamiento de la financiación del Instituto Nacional de Salud (NIH) de EEUU (area verde) ha vuelto mucho más competitivas las solicitudes de proyectos dificultando grandemente su obtención; en rojo su porcentaje de éxito ha caído al 18 %. Fuente: (Otro) Vox.
La presión por publicar en una profesión que quizá sea la única junto con el deporte en que se compite a nivel mundial ha llevado a una disminución de la calidad de las publicaciones. No solo los investigadores tratan de extraer el máximo número de publicaciones dividiendo un trabajo entre varios artículos (técnica conocida como loncheado del salami) sino que determinadas prácticas parasitarias se han incrementado mucho, como el fraude científico, la publicación mediante pago en revistas depredadoras, y una crisis generalizada de reproducibilidad de resultados, todo ello acompañado de que la mayor parte de los artículos científicos publicados no se los lee casi nadie. De los dos millones y medio de artículos que se publican cada año, el 45 % no ha sido citado por nadie cinco años más tarde, y en torno a un 10-20 % de los que sí han sido citados, lo han sido únicamente por los mismos autores en otros artículos (auto citas). Los científicos tratan de publicitar sus artículos para incrementar su impacto como si fueran coches usados, a través de un uso cada vez más frecuente de palabras positivas en el título o el resumen, y el uso frecuente de la palabra "novedoso" para darle bombo al artículo.
Figura 6. Incremento del marketing en la ciencia. El uso de adjetivos positivos (azul) en el título o el resumen se ha disparado desde mediados de los 80 hasta alcanzar al 20 % de los artículos que se incorporan a la base de bibliografía PubMed. También se ha incrementado mucho el uso de la palabra "novedoso" (gris), mientras que los adjetivos negativos (rojo) no han experimentado un incremento similar. Fuente: (Otro) Vox.
3. La crisis de reproducibilidad
El incremento tan grande en el número y proporción de personas que se dedican a la investigación conlleva inevitablemente un aumento de la mediocridad de los científicos. Parafraseando a la película Ratatouille, hoy en día cualquiera puede investigar. Y todos necesitan publicar. Aunque la falta de reproducibilidad en ciencia siempre ha sido un problema, la voz de alarma sobre los preocupantes niveles que estaba alcanzando la dio John Ioannidis en 2005 con su artículo en PLOS Medicine "Por qué la mayoría de los hallazgos de investigación publicados son falsos", donde decía:
Existe una creciente preocupación de que en la investigación moderna, los resultados falsos pueden ser la mayoría o incluso la gran mayoría de las conclusiones de investigación publicadas. Sin embargo, esto no debería ser sorprendente. Se puede demostrar que la mayoría de los resultados de investigación que se concluyen son falsos. … Además, para muchos campos científicos actuales, los hallazgos de investigaciones que se concluyen a menudo simplemente constituyen una medida precisa del sesgo prevalente.
Ioannidis, J. P. (2005). Why most published research findings are false. PLoS medicine, 2(8), e124.
Por eso no es de extrañar que los científicos climáticos crean que los resultados apoyan una causa exclusivamente humana del calentamiento global. Ese es el sesgo prevalente que dirige la investigación y la publicación hoy en día.
Las compañías farmacéuticas pronto coincidieron en señalar que se estaban gastando fortunas en ensayos clínicos que daban resultados negativos porque se basaban en resultados publicados en revistas prestigiosas que resultaron no ser fiables. El ratio de éxito para ensayos de fase II había caído en unos pocos años del 28 al 14 %. Científicos de Bayer publicaron en Nature Reviews en 2011 que no habían conseguido reproducir el 75 % de los resultados publicados que habían ensayado. En 2012 Amgen seleccionó 53 artículos considerados de referencia y publicó en Nature que solo había conseguido reproducir 6 (11 %).
Pronto el foco se centró en la investigación en psicología, ya sospechosa de por sí. En 2015 el mayor estudio de reproducibilidad en psicología hasta la fecha se publicó en Nature. 270 investigadores intentaron reproducir 98 artículos originales de 3 revistas de psicología y solo lo consiguieron en algo más de un tercio de los casos.
En 2015 Nature llevó a cabo una encuesta entre 1.576 investigadores de diversos campos, y el resultado fue que el 70 % de ellos tenían experiencia en haber fallado en replicar algún resultado publicado por otros investigadores, y que el 90 % de ellos consideraba que había una crisis de reproducibilidad, y más de la mitad pensaba que era una crisis seria. El problema afectaba a todos los campos, aunque algunos más que otros.
Figura 7. Encuesta de Nature sobre la crisis de reproducibilidad. El 90 % de los encuestados respondió que hay una crisis de reproducibilidad, que el 52 % considera seria. Tan solo un 7 % cree que no hay crisis. Fuente: Signs of the Times.
Subyacente a la crisis de reproducibilidad está el sistema de revisión por pares, en el que los artículos son revisados anónimamente y de forma voluntaria sin cobrar por dos o más científicos conocedores del campo antes de ser aceptados, que está claro que no funciona. La ciencia que se publica tras pasar esos filtros es en promedio de baja calidad e irreproducible, es decir falsa. Ello revela el serio problema de que entre el 50 y el 85 % del dinero que se invierte en ciencia se está malgastando (Chalmers & Glasziou, 2009). La sociedad no está obteniendo el rendimiento esperado a cambio del dinero que invierte en ciencia.
4. Prácticas deshonestas
Solapando con el problema de irreproducibilidad está el problema del fraude científico que está mucho más extendido de lo que a los científicos les gusta admitir y es responsable de parte de esa irreproducibilidad. Una encuesta anónima de 140 becarios del MD Anderson Cancer Center de Houston ha revelado que el 40 % habían sido presionados para producir resultados "positivos" incluso cuando los datos no los apoyaban (Boulbes et al., 2018). Yo personalmente fui testigo de como una compañera que había estado intentando durante meses conseguir sin éxito un resultado importante para una publicación, lo consiguió de un día para otro tras una fuerte bronca del jefe, y sé que ese artículo que finalmente se publicó en la mejor revista del campo es fraudulento e irreproducible. El fraude está extendido en ciencia porque el científico tiene la motivación de publicar para afianzar su carrera, tiene los medios y la oportunidad porque es el único que controla los datos y la forma de obtenerlos, y a menudo se autojustifica en que "sabe" que la hipótesis es buena y solo es cuestión de poner los datos que "deberían" salir pero se empeñan en no salir. El fraude científico medianamente bien hecho no puede detectarse y pasa a engrosar la lista de irreproducibilidad. Si alguien apunta en el cuaderno datos distintos de los que da el aparato o cambia las muestras eso no se puede probar. El fraude científico solo se hace público cuando alguien le coge el gusto y se le va la mano cometiendo chapuzas. En España tenemos algunos casos famosos como el de Susana González López, una investigadora del CSIC de brillante carrera, que tras obtener su plaza fue contratada en el Centro Nacional de Investigaciones Cardiovasculares como jefa de grupo y recibió un proyecto de la Unión Europea de 1,86 millones de euros para investigación en regeneración cardíaca. En 2014 Susana fue denunciada por un coautor por reutilizar imágenes como si fueran resultados de experimentos distintos. En la investigación resultante Susana alteró la fecha y el contenido de correos electrónicos que aportó como pruebas en su defensa, lo que fue descubierto. Por el momento 5 de los artículos de Susana han sido retractados, y el proyecto de la UE fue cancelado. Susana fue despedida del CNIC, recurrió a los tribunales y perdió, pero como tiene plaza en propiedad se reintegró al CSIC donde supongo que continúa cobrando su sueldo todos los meses. El coautor que la denunció, que no tenía plaza de funcionario, denunció en la prensa que las peores repercusiones habían sido para él.
La picaresca española también tiene su sitio destacado en un análisis del fraude científico. Artemi Cerdà, catedrático de Ciencias del Suelo en la Universitat de València ha sido acusado por la Unión Europea de Geociencias de manipular su curriculum organizando un "cártel de citas" aprovechando que era editor de tres revistas. Artemi solicitaba a los autores de muchos de los artículos que editaba incluir una serie de referencias entre las que estaban las suyas y las de sus amigos. Con ello sus índice de citaciones se iban por las nubes. Le descubrieron porque como efecto secundario también se disparó el factor de impacto de una de las revistas de la que era editor donde él y sus amigos publicaban con frecuencia, lo que llamó la atención de las revistas competidoras. El presidente del Comité de Publicaciones de la Unión Europea de Geociencias calificó la manipulación de considerable, pero aparte de hacerle dimitir como editor no podían hacer más porque este tipo de corrupción es perfectamente legal.
También es legal publicar en revistas depredadoras. El negocio de las editoriales científicas es uno de los más lucrativos del planeta. Los contribuyentes financian con sus impuestos la investigación y pagan el tiempo que dedica el científico a escribir sus artículos. Las editoriales científicas cobran por publicar el artículo a los autores del dinero de su proyecto, por lo que los contribuyentes vuelven a pagar. Después las editoriales cobran a las bibliotecas de universidades y centros de investigación y a los científicos por suscribirse a las revistas y poder acceder a la literatura científica con un precio altísimo que a menudo se negocia a nivel de país, por lo que los contribuyentes pagan por tercera vez. Y por último si los contribuyentes quieren leer ellos mismos algún artículo tienen que pagar por acceder a él por internet. En total los contribuyentes pagan la ciencia publicada cuatro veces y las editoriales científicas tienen unos márgenes de beneficios que avergüenzan a Apple. Algunas revistas todavía tienen versión en papel, pero la mayoría son solo electrónicas, y el coste de editar una revista en internet es ínfimo, por lo que semejante pastel ha atraído a empresarios de pocos escrúpulos que montan negocios con multitud de revistas "depredadoras' que fingen ser científicas y tratan de atraer a científicos incautos o desesperados bombardeándolos con solicitudes de artículos. Viven de cobrar a los autores bien de su proyecto o de su bolsillo y publicarán cualquier cosa que se les envíe. Todas tienen nombres muy científicos y algunas fingen hacer revisión por pares, pero a menudo el revisor es una simple secretaria que sugiere alguna corrección ortográfica. Por supuesto hay quien engorda su expediente publicando en estas revistas para sacarse la plaza, como Josué Gutiérrez en el departamento de sociología de la Universidad de La Laguna, aunque en este caso su contrincante Aníbal Mesa presentó alegaciones a la comisión que fueron atendidas.
Los artículos en revistas depredadoras pasaron de 53.000 en 2010 a 420.000 en 2014, según un estudio de 2015, lo que muestra la magnitud del problema, porque ya constituyen más de un 15 % de los artículos publicados, atrayendo sobre todo a científicos de Asia y África. Y estas revistas publican literalmente cualquier cosa. David Mazières y Eddie Kohler crearon un artículo con la frase "Quítame de tu jodida lista de correo" repetida múltiples veces para mandarlo a las solicitudes no deseadas de participaciones en conferencias, y Peter Vamplew lo cogió prestado para mandarlo al International Journal of Advanced Computer Technology, una revista depredadora, en respuesta al spam que recibía. Para su sorpresa el artículo fue aceptado, con un revisor anónimo calificándolo de excelente, al tiempo que le pedían $ 150 por publicarlo. Nadie llegó a leer el artículo, ni siquiera el título, todo el proceso se hace de forma automática por ordenador.
Figura 8. El artículo enviado a una revista depredadora que fue aceptado para su publicación, aunque los autores finalmente decidieron no publicarlo y no pagaron, quizá para evitar que figurara en su índice de publicaciones. Fuente: David Mazières, Stanford Computer Science Department.
Todas estas tendencias son extraordinariamente preocupantes y muestran que en cualquier actividad donde hay mucho dinero, una fuerte motivación y poco control florecen el fraude y la corrupción, y la ciencia no es una excepción. La ciencia tiene los problemas inherentes a toda actividad humana, como la iglesia o los partidos políticos, y no hay ningún motivo por el que tengamos a los científicos envueltos en un aura de prestigio, o peor aún que dejemos que decidan en nombre de la sociedad políticas críticas, como las energéticas, como sucede con un grupo de científicos climáticos.
5. El estancamiento de la ciencia
Con todo, la crisis de reproducibilidad en ciencia, la baja calidad generalizada de la producción científica y la dificultad para controlar el fraude no son los peores problemas de la ciencia, y son susceptibles de mejoría con un cambio de sistema y una mejor gestión y control. El problema más grave de la ciencia no tiene solución y es que está sujeta a la ley de rendimientos decrecientes, por lo que cada vez produce menos avance en relación a los recursos que se dedican.
En 1996 el escritor de Scientific American John Horgan publicó un libro muy controvertido "El fin de la Ciencia. Los límites del conocimiento en el declive de la era científica". Es un libro de entrevistas donde preguntaba a científicos famosos sobre el futuro de la ciencia y las posibilidades de que se realicen descubrimientos tan significativos como los del pasado. Horgan utilizaba sus respuestas para apoyar su tesis de que la ciencia no volverá a producir nuevos avances del conocimiento tan profundos como la evolución por selección natural, la doble hélice, el Big Bang, la teoría de la relatividad o el modelo estándar de la mecánica cuántica, porque ya se ha descubierto casi todo el conocimiento fundamental que está a nuestro alcance, y lo que queda es el trabajo de refinar, extender y aplicar el conocimiento obtenido. Los científicos obviamente recibieron muy mal el libro, que en realidad es muy subjetivo y criticable, señalando que en el pasado hubo gente que pensó lo mismo y estuvo equivocada. La famosa cita “No hay nada nuevo que descubrir en física ahora. Todo lo que queda es una medición cada vez más precisa", atribuida a William Thomson, Lord Kelvin, fue en realidad pronunciada por Albert Michelson en una charla en 1894.
Sin embargo la tesis de Horgan no se puede rechazar porque alguien estuviera equivocado en el siglo XIX. Tampoco se puede descartar poniendo ejemplos de grandes descubrimientos recientes, porque si la ciencia está sujeta a la ley de rendimientos decrecientes ello no quiere decir que no se vayan a producir grandes descubrimientos, sino que costará mucho más alcanzarlos y serán menos frecuentes, y esta tesis sí es susceptible de ser analizada. Hace décadas que las investigaciones sugieren que la carga del conocimiento se incrementa con el tiempo, que se incrementa la edad a la que los investigadores completan sus doctorados, solicitan su primera patente, la frecuencia de postdoctorados necesarios para alcanzar una posición, indicando que cada vez cuesta más transitar el camino que lleva a las fronteras de la ciencia donde se realizan los descubrimientos. En 2005 Benjamin Jones del National Bureau of Economic Research (NBER) escribió un artículo analizando las estadísticas de patentes de los EEUU titulado "La carga del conocimiento y la "muerte del hombre del renacimiento": ¿se está haciendo más difícil la innovación?" Jones muestra que la relación de patentes a número de investigadores ha caído un 50 % en 30 años (1975-2005), consistente con el aumento del número de firmantes por patente. El aumento de la carga del conocimiento explica la tendencia a una mayor especialización y al requerimiento de un mayor nivel educativo que conducen a una mayor edad antes de realizar contribuciones significativas y a un incremento del tamaño de los equipos que refleja una disminución de la productividad científica.
Esta disminución de la productividad va acompañada de un fuerte encarecimiento de la obtención de resultados. Ya hemos visto más arriba que la proporción de ensayos clínicos que tienen éxito ha descendido drásticamente en los últimos años. En 2012 Jack Scannell y colaboradores publicaron su artículo sobre el declive de la eficiencia de la investigación y desarrollo en la industria farmacéutica:
Scannell, Jack W., et al. "Diagnosing the decline in pharmaceutical R&D efficiency." Nature reviews Drug discovery 11.3 (2012): 191.
En él demostraban que el número de nuevos medicamentos aprobados por cada mil millones de dólares gastados en I+D, ajustados a la inflación, se ha reducido a la mitad aproximadamente cada 9 años desde 1950, cayendo alrededor de 80 veces. Lo denominaron la ley de Eroom, por ser opuesta a la ley de Moore.
Figura 9. Caída exponencial en la productividad de I+D en la industria farmacéutica mundial. Número de nuevas moléculas aprobadas por la Food & Drug Administration (FDA) en Farma y Biotec por cada mil millones de dólares de gasto en I+D global. La escala vertical es logarítmica. En los años 50, mil millones de dólares (a precio constante) eran capaces de producir más de 60 nuevas drogas, cuando hoy producir una ya cuesta más. Figura de Scannell et al., 2012 actualizada por el autor. Fuente: Soft Machines.
De hecho, la propia ley de Moore, enunciada por Gordon Moore, cofundador de Intel, que indica que el número de transistores en un microprocesador se duplica cada 2 años, se ha puesto como ejemplo de tecno-optimismo.
Figura 10. La ley de Moore. Número de transistores en los circuitos integrados de los chips entre 1971 y 2018. Fuente: Our World in Data.
Sin embargo Bloom y colaboradores del NBER han mostrado que para conseguir esa velocidad de crecimiento exponencial a un ritmo constante de incremento del 35 % anual, el número de investigadores requerido ha tenido que multiplicarse por 18, por lo que se puede decir que duplicar el número de transistores en un microprocesador es hoy 18 veces más difícil que en 1970. El propio Moore dijo que el coste de cumplir su ley también crecería exponencialmente, lo que se conoce como la segunda ley de Moore o ley de Rock, que dice que el coste de una fábrica de microprocesadores se dobla cada 4 años y en 2015 había alcanzado ya los 14 mil millones de dólares.
Figura 11. Incremento del esfuerzo investigador para cumplir la ley de Moore. En azul el ritmo de crecimiento constante del número de transistores en un microprocesador que da como resultado una duplicación cada dos años. En verde el número efectivo de investigadores necesario para conseguirlo, medido a partir de los gastos en I+D de las 30 marcas principales de semiconductores divididos por el salario medio de un investigador. Fuente: Bloom et al., 2019.
Y parece que la ley de Moore ya no se aplica. A Intel le ha costado bastantes más de dos años desarrollar su proceso de 10 nm (similar al 7 nm de Samsung) que inicialmente anunció para 2015, y aunque ahora anuncia un mapa de recorrido que lleva a 1,4 nm para 2029 ello resulta extremadamente difícil de creer. No solo el límite teórico anda por los 3 nm, cuando los efectos cuánticos empiezan a hacer de las suyas, sino que algunos expertos, como el CEO de Nvidia Jensen Huang, opinan que la ley de Moore está muerta. Está claro que si no lo está, pronto lo estará.
En cuanto al desarrollo de las tecnologías de la información, se hace necesario mencionar la paradoja de la productividad, o paradoja de los ordenadores de Solow, quien en 1987 comentó que la era de los ordenadores era visible en todas partes excepto en las estadísticas de productividad, refiriéndose al sorprendente hecho de que los avances e inversiones en las tecnologías de la información de los años 70 y 80 coincidían con un menor crecimiento de la tasa de productividad en los EEUU.
6. Detectando y midiendo el decreciente rendimiento de la ciencia
El avance científico y tecnológico de la humanidad se ha ido enlenteciendo. Esta tesis es fácil de demostrar.
En el periodo de 70 años que va de 1880-1950 la gente de clase media alta urbana de un país avanzado vivió el progreso en sus hogares en forma de agua corriente, iluminación por gas, horno, máquina de lavar manual, telegrafía, fotografía, tren, electricidad, teléfono, nevera, lavadora eléctrica, aspiradora, máquina de coser, coche, vacunas, tranvías, cine, calentador de agua, radiadores, congelador, cámara fotográfica, radio, antibióticos, viajes en avión, lavaplatos, televisión y películas domésticas. Una persona de 1880 llevada a 1950 no entendería casi nada porque la mayoría de las cosas no existían.
Entre 1950 y 2020, otros 70 años, apareció el microondas, la televisión se volvió en color, es posible recibir un transplante, se viaja en avión a reacción, se pueden grabar y reproducir imágenes digitales, hay teléfonos móviles, ordenadores personales e internet, se han desarrollado las técnicas de imagen en medicina y han aparecido las redes sociales. Una persona de 1950 vería la mayoría de los cambios en 2020 como mejoras de lo que ya había. En general se le ha puesto un procesador a todo lo que lo puede llevar y se ha potenciado la comunicación, pero ni coches voladores, ni ciudades en el espacio, ni robots domésticos. Es incluso posible que alguien de 1950 se sintiera decepcionado con los avances obtenidos hasta 2020.
Jonathan Huebner hizo esto mismo que he hecho yo de una forma más sistemática y llega al mismo resultado en su artículo: "Una posible tendencia decreciente para la innovación mundial".
Huebner, J. (2005). A possible declining trend for worldwide innovation. Technological Forecasting and Social Change, 72 (8), 980-986.
Huebner se basa en el libro "The History of Science and Technology" de Bryan Bunch y Alexander Hellemans, que es una base de datos de descubrimientos e invenciones desde el principio de la humanidad hasta el 2003 que contiene 8.583 eventos importantes, de los que él utiliza los 7.198 que tuvieron lugar desde 1450 para calcular la tasa de innovación, definida como el número de desarrollos tecnológicos importantes por año dividido por la población mundial, que luego agrupa por décadas. Según esta metodología la tasa de innovación alcanzó su máximo en 1873 iniciando un rápido declive, y solo el fuerte aumento de población y recursos permitió que el siglo XX tuviera más innovaciones que el XIX.
Figura 12. Evolución de la tasa de innovación entre 1450 y 2000. Fuente: Huebner 2005.
Huebner asume que lo que limita la tasa de innovación es el creciente coste económico (recursos materiales y humanos) de los descubrimientos y no un límite físico de la ciencia, y puesto que el número de eventos tecnológicos por año es el producto de la población por la tasa de innovación, la integración de dicho producto con respecto al tiempo permite calcular el porcentaje del límite económico de la innovación que se ha alcanzado en cada momento. Huebner defiende que hemos alcanzado el 90 % del límite económico de la innovación, y que el 100 % se debería alcanzar antes de finales de siglo, lo que supondría que la tasa de innovación alcanzaría el valor cero y cesaría el progreso tecnológico. Por supuesto se trata de un cálculo poco fiable, que de entrada depende de la calidad y homogeneidad de la base de datos de descubrimientos utilizada, así como del ajuste gaussiano que realiza el autor a los datos. Pero la caída de la tasa de innovación parece ser un hecho indiscutible como apoyan todas las investigaciones presentadas en este artículo.
Bloom y colaboradores llegan a un resultado similar utilizando la productividad total de los factores (TFP), el remanente de la tasa de producción no explicado por la tasa de los factores (trabajo, capital, otros) como medida de la producción científica, dado que la mejora tecnológica es uno de los factores que más contribuyen al TFP. Su artículo para el NBER se titula "¿Son las ideas cada vez más difíciles de encontrar?" A partir de aquí lo denominaremos BJVW2017.
BJVW2017 muestran evidencia desde campos muy diversos de que el esfuerzo de investigación se está incrementando considerablemente, mientras que la productividad de la investigación declina fuertemente.
Figura 13. Evolución del número de investigadores (verde) y de la productividad de la investigación (azul) en EEUU. La productividad se obtiene dividiendo el crecimiento del TFP por el número de investigadores. Fuente Bloom et al., 2017.
En agricultura la productividad de la investigación ha caído por un factor de cuatro entre 1970 y 2007 en EEUU debido a que la productividad total de los factores agrícolas cayó a la mitad, mientras que el número efectivo de investigadores se duplicó.
Figura 14. Tasa de crecimiento de los factores totales de productividad (TFP) para el sector agrícola (azul) e incremento en el número de investigadores del sector agrícola (verde), calculado dividiendo el gasto en I+D público y privado del sector agrícola por el salario medio de un investigador. Fuente: Bloom et al., 2017.
A partir de la esperanza de vida al nacer, que ha ido creciendo de forma prácticamente lineal desde 1900, y de los datos de mortalidad específica por enfermedad, BJVW2017 calculan los años de vida salvados por año debidos al descenso de la mortalidad por determinadas enfermedades, que atribuyen al progreso médico, y lo comparan con el esfuerzo investigador medido por las publicaciones que mencionan la enfermedad como palabra clave, y las que son informes de ensayos clínicos para esa enfermedad. En el caso de todos los tipos de cáncer, la tasa de mortalidad ha ido cayendo desde 1975, pero lo ha hecho con forma sigmoide, más acelerada entre mediados de los 80 y mediados de los 90, lo que se traduce en que los años de vida salvados alcanzaron un máximo a finales de los 80. La productividad investigadora resultante de dividir los años de vida salvados por el esfuerzo investigador muestra un claro decrecimiento desde 1990.
Figura 15. Mortalidad (azul, izquierda), años de vida salvados (verde, izquierda) y productividad de la investigación biomédica medida en número de publicaciones (azul, derecha) y número de publicaciones reportando ensayos clínicos (verde, derecha) para todos los tipos de cáncer. El máximo de años de vida salvados se alcanzó a finales de los 80, y desde entonces la productividad de la investigación biomédica en cáncer está cayendo. Fuente: Bloom et al., 2017.
BJVW2017 analizan también la producción industrial, y su conclusión tras todos estos análisis demuestra una vez más que cada vez resulta más difícil mantener la tasa de progreso científico, y al ser los resultados consistentes en diversas áreas de la ciencia y la tecnología concluyen que "las ideas, y el crecimiento exponencial que implican, son cada vez más difíciles de encontrar. El crecimiento exponencial resulta de grandes aumentos en el esfuerzo de investigación que compensan la disminución de la productividad investigadora." Constituye una definición de la ley de rendimientos decrecientes.
7. Es improbable que haya otro Einstein
Patrick Collison y Michael Nielsen pidieron a 93 físicos de los mejores departamentos de física según un ranking de universidades que juzgaran y puntuaran la importancia de 1.370 descubrimientos que merecieron el Premio Nobel de física desde 1900 y tabularon las respuestas por décadas de acuerdo al año del descubrimiento, no del premio. La puntuación final de una década corresponde a la probabilidad de que un descubrimiento de esa década se considere más importante que los descubrimientos de otras décadas.
Figura 16. Probabilidad de que un descubrimiento realizado en una década merecedor del Premio Nobel en física sea considerado más importante por un panel de 93 físicos que otro descubrimiento que recibió el mismo premio realizado en otra década. Fuente: The Atlantic: Science Is Getting Less Bang for Its Buck.
El resultado manifiesta que la edad de oro de la física tuvo lugar entre 1910 y 1940. Fue cuando se descubrió la mecánica cuántica, la cristalografía de Rayos X que permite mirar al mundo de los átomos, el neutrón, la antimateria y mucho de lo que se sabe de la radiactividad y las fuerzas nucleares. A partir de entonces tuvo lugar un declive significativo, con un repunte importante en los 60 debido a dos descubrimientos, la radiación de fondo cósmica de microondas y el modelo estándar de partículas. A pesar de ello los físicos consideraron los descubrimientos de todas las décadas desde 1940 hasta 1990 como menos importantes que los de cualquiera de las tres décadas entre 1910 y 1940. La gráfica se ve obligada a terminar en 1990 porque en los últimos años el Comité Nobel ha preferido premiar trabajos realizados en los 70 y los 80 y solo tres trabajos desde 1990 han sido premiados, lo que no permite un dato fiable. El hecho de que el Comité no esté premiando trabajos realizados desde 1990 y prefiera trabajos de los 70 y de los 80, que tampoco muestran una alta puntuación es muy mala noticia para la física.
La misma encuesta fue hecha para la química y la biomedicina, donde los resultados son algo mejores con un incremento en la segunda mitad del siglo XX, pero no mucho, y de nuevo se observa que las tres últimas décadas reciben muy pocos premios. A pesar del tremendo incremento de los recursos dedicados a la investigación a lo largo de los últimos cien años los grandes descubrimientos no están llegando más deprisa sino al contrario. Los físicos atacan esta conclusión diciendo que se han hecho grandes descubrimientos recientes como el bosón de Higgs y las ondas gravitacionales. Sin embargo esos descubrimientos son destacables porque nos retrotraen a otra época anterior cuando tales descubrimientos eran más habituales.
También vemos que la dificultad de realizar grandes descubrimientos se está incrementando. En los primeros años del Premio Nobel la edad media del premiado cuando hizo el descubrimiento que le valió el premio era de 37 años. En los últimos años esa edad media ha subido a 47 años. Los científicos necesitan una cuarta parte más de su carrera profesional para llegar a la cima. Ernest Rutherford publicó el descubrimiento del núcleo del átomo como autor único, mientras que los dos artículos de 2012 que anunciaron el descubrimiento del bosón de Higgs tenían 2.915 y 2.890 autores cada uno.
8. Tirando el dinero en ciencia
Cuando nos enfrentamos a una situación de retornos decrecientes es muy importante reconocerlo para asegurarse de que las inversiones tienen un retorno adecuado. Los recursos que se dedican a la investigación no se dedican a atender las necesidades de la población y la creencia generalizada de que la ciencia progresa más deprisa que nunca y es necesario dedicar más y más recursos para no perder el tren del progreso quizá no sea la postura más inteligente.
Volviendo a la física, que es la más madura de las ciencias y por tanto la que menores retornos presenta, observamos un claro ejemplo de mínimos retornos obtenidos tras una inversión enorme, el Gran Colisionador de Hadrones (LHC). El Modelo Estándar de la física de partículas se desarrolló en los años 60 y se concluyó a mediados de los 70 tras la confirmación de la existencia de los quarks. La validez del modelo estándar ha sido confirmada en multitud de experimentos incluyendo los descubrimientos del quark top (1995) y el neutrino tau (2000). Sin embargo el modelo estándar tiene fuertes limitaciones al no incorporar la gravitación universal y la masa del neutrino, y no tener nada que decir sobre la materia y la energía oscuras. Pero salvo que se encuentre una puerta más allá del modelo estándar la física de partículas está esencialmente tan acabada como la tabla periódica de los elementos y la tan deseada unificación de lo muy grande y lo muy pequeño en una sola teoría no será posible. Para buscar esa puerta se construyó entre 1998 y 2008 el LHC con un coste de 6 mil millones de euros, y el aparato tiene un coste operativo de unos mil millones de euros anuales. Solo en electricidad gasta más de 20 millones de euros al año. El coste de encontrar el bosón de Higgs superó los 12 mil millones de euros. Pero el bosón de Higgs lo único que hace es confirmar una vez más el modelo estándar. Ya se suponía que existía desde el descubrimiento de los bosones W y Z en 1983, y se le ha encontrado exactamente en el nivel energético donde se le esperaba encontrar.
Tras varios años funcionando a plena potencia y unos 20 mil millones de euros gastados el LHC ha fracasado en encontrar indicios de una nueva física y solo ha servido para requeteconfirmar el modelo estándar. El último anuncio triunfalista, que el decaimiento del bosón de Higgs también sigue el modelo estándar, también esconde ese fracaso. El LHC ha sido un carísimo ejercicio de confirmación de algo que ya se sabía y no ha producido ciencia nueva de importancia. Es improbable que se construya un acelerador de partículas mayor que el LHC puesto que los costes no son proporcionales a la longitud sino que crecen de forma no lineal. De los 20 mil millones de euros gastados y en general malgastados en el LHC, unos dos mil millones los puso España a través de su contribución al CERN.
9. Errando el camino en ciencia
La física lleva unos 40 años sin lograr un gran avance a pesar de saberse que nuestra comprensión del universo es incompleta porque los modelos confirmados no explican las observaciones. La respuesta de los científicos cuando no logran grandes avances parece ser inventárselos. En los años 60 y 70 se había desarrollado de forma marginal una extraña teoría que explicaba la materia y la energía como aspectos de la vibración de unas cuerdas a través de múltiples dimensiones. A partir de 1984 la teoría de cuerdas se volvió muy popular por su capacidad para explicar todas las partículas y sus interacciones, atrayendo a multitud de investigadores. Pronto hubo diferentes teorías de cuerdas cada una con múltiples dimensiones, pero al parecer las cuerdas dejaban de existir al llegar a la undécima dimensión donde en vez de cuerdas hay membranas. En 1994 las diferentes teorías se unificaron en la Teoría-M que es 11-dimensional. A partir de entonces la teoría de cuerdas se convirtió en la teoría dominante, atrayendo la mayor parte de la financiación y dominando la mayoría de los departamentos académicos hasta convertirse según sus defensores en la única teoría viable.
Esto recuerda mucho a cómo la hipótesis del CO2 se ha convertido en la dominante en la ciencia del clima y la falta de financiación y la presión académica reducen el desarrollo de cualquier alternativa hasta convertirse en la única hipótesis viable según sus defensores. Después empiezan los problemas.
En el caso de la teoría de cuerdas el problema es que no predice nada que se pueda testar. Según la teoría hay al menos 10^500 (sí, un 10 y 500 ceros) universos distintos (el multiverso) y entre ellos algunos muy parecidos y otros muy distintos, y el que nos ha tocado es como es. Es un callejón sin salida, una teoría filosófico-matemática sin ningún contacto con la realidad y empieza a crecer entre los físicos teóricos que no se han casado con esa teoría la sospecha de que centenares de las mentes más brillantes del planeta durante dos generaciones de físicos han desperdiciado sus carreras en una teoría que no es científica. Eso es lo que defiende la física Sabine Hossenfelder en su libro "Perdidos en las matemáticas Cómo la belleza confunde a los físicos."
Los físicos, cuando piensan en los agujeros negros o predicen descubrimientos en el CERN, creen que las mejores teorías son hermosas y elegantes, y por eso no hemos visto un gran avance en los fundamentos de la física en las últimas cuatro décadas. La creencia en la belleza se ha vuelto tan dogmática que entra en conflicto con la objetividad científica: la observación no ha podido confirmar teorías como la supersimetría o la gran unificación, desarrolladas por físicos basados en criterios estéticos; peor aún, estas teorías «demasiado buenas para no ser ciertas» son en realidad imposibles de probar y han dejado el campo en un callejón sin salida. Para escapar, los físicos deben repensar sus métodos. Solo abrazando la realidad tal como es, la ciencia puede descubrir la verdad. ¿Acaso creer no es algo que un científico no debería hacer nunca?
El premio Nobel Robert Laughlin, y los físicos Peter Woit y Lee Smolin han escrito también un libro cada uno criticando que la teoría de cuerdas es errónea y estéril, y el nivel de discusión ha llegado al punto de que frente a las acusaciones de que dicha teoría no entra dentro de lo que constituye ciencia, los defensores de las cuerdas pretenden que se cambie la definición de ciencia. Tanto es así que en 2014 George Ellis y Joe Silk publicaron un artículo en Nature defendiendo el método científico y la integridad de la física, diciendo que "Los intentos de eximir las teorías especulativas del Universo de la verificación experimental socavan la ciencia".
Entre tanto John Horgan, el escritor de "El fin de la ciencia" del que hablábamos más arriba, ha ganado una apuesta de 2.000 dólares que hizo en 2002 con el físico Michio Kaku de que antes del 2020 ni la teoría de cuerdas ni ninguna teoría unificada de la física habría ganado un premio Nobel.
10. Cuando la realidad se ajusta a la teoría y no al revés
Ya en 1884 Lord Kelvin aventuraba la existencia de cuerpos oscuros para explicar la discrepancia entre la masa estimada de la galaxia y la masa de las estrellas visibles. Pronto a la masa de estos cuerpos oscuros se le llamó materia oscura. En los años 70 y 80 la comunidad de astrofísicos llegó a la convicción de que un gran número de observaciones, como la velocidad de rotación de galaxias y grupos de galaxias, así como la magnitud de la lente gravitacional y la velocidad de las galaxias más lejanas solo podían explicarse por la existencia de mucha más materia de la que se podía observar. Sin embargo la luz proveniente de las galaxias más lejanas no parecía interactuar con toda esa materia que debía constituir el 85 % de la materia del universo. Tanta materia y que no interactuase con la luz no se podía encajar en el tipo de materia conocida, la materia bariónica (protones y neutrones), así que se inventó un nuevo tipo de materia no-bariónica compuesta por partículas imaginarias, lo que demuestra que realmente no hay límites a lo que los científicos son capaces de creer siempre que apoye la hipótesis más popular. Son mucho más escépticos con las hipótesis desfavorecidas.
El problema es que 35 años más tarde y tras incontables experimentos y miles de millones de dólares gastados no han sido capaces de encontrar evidencia de que las partículas de materia oscura existan. Ya sé que esto suena extraño para los que siguen la ciencia a través de los medios, pero tras más de tres décadas no se ha demostrado que la materia oscura y su alter ego la energía oscura existan, y siguen a día de hoy siendo producto de la imaginación de los científicos. Y como la materia oscura es inventada su ajuste a la teoría es muy bueno. Obviamente se inventa con las propiedades adecuadas. Sin embargo la teoría de la materia oscura tiene serios problemas para explicar algunas observaciones. Un estudio de 2016 reveló que la gravedad calculada en galaxias de muy distintas características era siempre proporcional a la gravedad calculada para la materia visible y es muy difícil explicar esa proporcionalidad en galaxias muy distintas que tienen masas y formas muy diversas suponiendo que la materia visible y la oscura son independientes. La teoría de la materia oscura también falla en explicar los núcleos galácticos, donde predice picos de densidad que las observaciones desmienten, predice muchas menos galaxias enanas de las que se observan, y falla en predecir cómo las galaxias que tienen galaxias satélites se alinean con ellas en un plano. Sabine Hossenfelder y Stacy McGaugh explican todos estos problemas en un artículo titulado "¿Es la materia oscura real?" en Scientific American (versión escaneada) mientras defienden una de las teorías alternativas basada en modificar la relatividad general. El comportamiento de la gravedad ha sido bien estudiado a la escala del Sistema Solar, pero su validez a las escalas galáctica y cosmológica no está tan bien probada. Modificando la relatividad general se podría eliminar la necesidad de la materia oscura que tanto elude nuestra detección.
Y lo que pone más nerviosos a los miles de científicos que han construido sus carreras con la materia y la energía oscuras es la posibilidad de que simplemente estemos usando mal la ecuación de la relatividad general. Para trabajar con la masa de una galaxia no es posible usar la masa de cada cuerpo en su posición, así que se trabaja con una media, promediando la estructura. Pero la ecuación de la relatividad general es no-lineal y al promediar ambos lados de la ecuación cometemos un error porque el promedio de la función de una variable no es lo mismo que la función del promedio de una variable. Ese error se asume pequeño pero podría ser lo suficientemente grande como para alterar el valor de la constante cosmológica y eliminar la necesidad de la materia oscura. Un pequeño grupo de físicos está intentando que se le dé importancia al problema del promediado, y Sabine Hossenfelder manifiesta en su blog su acuerdo, sin embargo los defensores de la materia oscura no están dispuestos a que les arruinen la fiesta, y son mayoría.
11. Conclusiones
El 90 % de los científicos que han existido están vivos hoy, pero los mayores descubrimientos fueron realizados por el 10 % que no lo está. Cuando se trabaja con un problema de rendimientos decrecientes, el arrojar más dinero disimula el problema durante un tiempo, pero cuando la situación se vuelve insostenible y es necesario recortar la inversión, el problema se multiplica de golpe. No podemos esperar que el progreso de la ciencia y la tecnología resuelvan la seria situación energética a la que nos enfrentaremos en un futuro próximo. A pesar de ser una creencia central para la mayoría, el tecno-optimismo no está justificado por la evidencia.
Por otra parte, a pesar del enorme incremento en financiación, y en respuesta a la creciente dificultad para producir avances significativos, la ciencia se está volviendo menos fiable, inmersa en una crisis de reproducibilidad que esconde un extendido fraude de bajo nivel. Es un problema adicional al que los propios científicos no saben ni quieren enfrentarse por el problema reputacional que les causa. Para que la sociedad se enfrente a ese problema es necesario que se haga consciente de él, lo que viene dificultado por el injustificado prestigio de los científicos en la sociedad, acostumbrada a que la ciencia sea utilizada por intereses políticos y económicos como una especie de prueba del algodón que no engaña. Debemos ser tan escépticos con la ciencia como con todo lo demás, si no más, porque la ciencia esencialmente carece de controles de calidad fiables.
La ciencia como actividad humana en la que priman los egos e intereses particulares presenta una preocupante tendencia al pensamiento grupal, donde teorías dominantes se adueñan del campo científico y activa o pasivamente suprimen a las teorías competidoras y a los que las defienden, provocando que la ciencia yerre el camino durante una generación o dos. Es lo que sucedió cuando los geólogos decidieron ignorar y rechazar, en vez de estudiar, la teoría de la deriva continental de Alfred Wegener, propuesta en 1920 y que no sería aceptada hasta 1965 con la tectónica de placas. Es lo que ha sucedido en física con la teoría de cuerdas y con la materia oscura, que llevan camino de ser dos monumentales fiascos que la van a dejar muy maltrecha. Y es lo que está sucediendo con la teoría de que el CO2 controla el clima, que podría tardar décadas en ser refutada por lo difícil que han hecho que un científico que no la suscriba pueda tener no solo una carrera científica sino una vida libre de ataques y denigraciones constantes. En todos los casos son décadas perdidas y recursos malgastados, pero en el caso del cambio climático van a ser también políticas erróneas con un alto coste económico para la sociedad y la posibilidad de causar un grave daño a las personas en situación más vulnerable.
La ciencia no necesita fe, por lo que no hay que tener fe en la ciencia.