Desmontando la “religión científica”

En este blog ya he incidido repetidamente en el carácter corrupto y manipulador de la ciencia moderna, siendo esta una tendencia que –en lugar de disminuir– parece ir a más. De ahí que no me sorprenda que, a pesar de todo el poder de esa ciencia, aparezcan cada vez más críticas por parte de científicos dignos y honestos que se oponen a la creciente marea de intoxicación, mentira y fraude que inunda el estamento académico. De este modo, se está empezando a cuestionar la legitimidad de una ciencia pervertida y controlada por poderes políticos y económicos que de hecho ejerce ya como una auténtica religión científica (el cientifismo) capaz de vender verdades indiscutibles ante los ciudadanos por obra y gracia de la implantación de las políticas oficiales y del impacto demoledor de la educación y los medios de comunicación.

En una línea similar al artículo que presenté del profesor de química Henry Bauer, me complace incluir ahora la traducción que he realizado de un muy reciente artículo de William A. Wilson, ingeniero de software en el área de la Bahía de San Francisco, que viene a incidir en el carácter corporativista e interesado de la práctica científica, que conduce a la directamente a la falsedad y al engaño, en un contexto en que el cientifismo se ha instaurado como una fe irrefutable por encima de toda crítica objetiva. Y así como durante muchos siglos los buscadores de la verdad sufrieron la intromisión y la persecución del dogmatismo religioso como elemento paralizador y censurador de las investigaciones científicas, ahora se impone una seria reflexión sobre el actual paradigma científico que no sólo está instalado en el error y la arrogancia sino que es directamente perjudicial (¿conscientemente?) para la población en la mayoría de ámbitos de la vida.

Y la situación es más grave de lo que podríamos pensar. Como dice el propio Wilson: “Al mismo tiempo que una burocracia científica cada vez más hinchada produce en serie masas de resultados de investigación, la mayoría de los cuales son probablemente del todo falsos, los propios científicos son elogiados como héroes y la ciencia se mantiene como la única base legítima para la formulación de políticas.”

Involución científica

El problema de la ciencia es que gran parte de ella simplemente no lo es. El verano pasado, la Open Science Collaboration (“Colaboración Científica Abierta”) anunció que había tratado de reproducir un centenar de experimentos de psicología publicados, extraídos de tres de las revistas de mayor prestigio en el campo. Las afirmaciones científicas se basan en la idea de que los experimentos repetidos en condiciones casi idénticas deberían producir aproximadamente los mismos resultados, pero hasta muy recientemente muy pocos se habían tomado la molestia de comprobar de manera sistemática si esto era así realmente. La OSC ha sido, hasta ahora, el mayor intento de comprobar un resultado de campo, y el más impactante. En muchos casos se emplearon los materiales experimentales originales, e incluso a veces los experimentos se realizaron bajo la dirección de los investigadores originales. De los estudios que habían arrojado inicialmente resultados positivos, un asombroso 65% no mostró significación estadística en la replicación, y muchos de los restantes apenas mostraron efectos muy reducidos.

Estos hallazgos fueron noticia, y rápidamente se convirtieron en un garrote con el que golpear a las ciencias sociales. Pero el problema no sólo radica en la psicología. Hay una regla no escrita en la industria farmacéutica según la cual la mitad de toda la investigación biomédica académica resulta ser falsa en última instancia, y en 2011 un grupo de investigadores de la Bayer decidió comprobarlo. Así, observando los últimos 67 proyectos de nuevos fármacos basados en la investigación preclínica biológica del cáncer, encontraron que en más del 75% de los casos los datos publicados no coincidían con sus propios intentos para replicarlos. Y no se trataba de estudios publicados en revistas de oncología poco fiables, sino de investigación exitosa presentada en Science, Nature, Cell, y similares. Los investigadores de la Bayer se estaban moviendo en estudios deficientes, y fue por esta razón, en parte, por la que atribuyeron los misteriosos rendimientos decrecientes en los proyectos de fármacos. Tal vez muchos de estos nuevos fármacos habían fracasado en su efecto debido a que la investigación básica sobre la que se había basado su desarrollo no era válida.

farmacos
Cada vez se retiran más fármacos por fraudulentos, ineficaces o dañinos

Cuando un estudio no se replica, hay dos interpretaciones posibles. La primera es que, sin el conocimiento de los investigadores, exista una diferencia real en la configuración experimental entre la investigación inicial y la replicación fallida. Esto se conoce coloquialmente como “efectos del papel pintado”, tomando a broma el hecho de que el experimento se vio afectado por el color del papel de la habitación. Esta es la explicación más feliz posible para el fallo de replicación: representa que ambos experimentos han revelado hechos sobre el universo, y que ahora tenemos la oportunidad de aprender cuál era la diferencia entre ellos e incorporar una nueva y más sutil distinción a nuestras teorías.

La otra interpretación es que la conclusión inicial era falsa. Por desgracia, un ingenioso argumento estadístico muestra que esta segunda interpretación es mucho más probable. Formulado por primera vez por John Ioannidis, profesor de la Facultad de Medicina de la Universidad de Stanford, este argumento procede de una simple aplicación de la estadística bayesiana[1]. Supongamos que hay 101 piedras en un campo determinado. Una de ellas tiene un diamante en su interior, y, por suerte, usted dispone de un dispositivo de detección de diamantes, al que se atribuye un 99% de exactitud. Después de más o menos una hora de mover el dispositivo por el área, examinando cada piedra, de repente se encienden las alarmas y suenan las sirenas mientras el dispositivo está orientado hacia una piedra de aspecto prometedor. ¿Cuál es la probabilidad de que la piedra contenga un diamante? La mayoría diría que si el dispositivo proclama un 99% de precisión, entonces hay un 99% de posibilidades de que el dispositivo distinga correctamente un diamante, y un 1% de posibilidades de que haya dado una falsa lectura positiva. Pero tengamos en cuenta: De las 101 piedras en el campo, sólo una es verdaderamente un diamante. Por supuesto, nuestra máquina tiene una probabilidad muy alta de determinar correctamente que sea un diamante. Pero hay muchas más piedras sin diamantes, y si bien la máquina sólo tiene una probabilidad del 1% de determinar falsamente que una de ellas sea un diamante, hay un centenar de ellas. Así que si tuviéramos que pasar el detector por cada piedra del campo, en promedio sonaría dos veces, una para el diamante real y una falsa lectura provocada por una piedra. Si sólo sabemos que ha sonado la alarma, estas dos posibilidades son más o menos igualmente probables, lo que nos da una probabilidad de aproximadamente el 50% de que la piedra contenga realmente un diamante.

Esta es una versión simplificada del argumento que Ioannidis aplica al proceso de la ciencia misma. Las piedras en el campo son el conjunto de todas las posibles hipótesis comprobables, el diamante es una conexión hipotética o efecto que resulta ser cierto, y el dispositivo de detección de diamante es el método científico. Una enorme parte depende de la proporción de las posibles hipótesis que resultan ser verdad, y en la precisión con la que un experimento puede discernir la verdad de la falsedad. Ioannidis muestra que –para una amplia variedad de entornos y campos científicos– los valores de estos dos parámetros no son en absoluto favorables.

Por ejemplo, considere un equipo de biólogos moleculares que investigan si una mutación en uno de los incontables miles de genes humanos está relacionada con un mayor riesgo de enfermedad de Alzheimer. La probabilidad de que una mutación seleccionada al azar en un gen seleccionado al azar tenga precisamente ese efecto es bastante baja, por lo que –al igual que con las piedras en el campo– un hallazgo positivo es más probable que sea falso, a menos que el experimento sea increíblemente exitoso a la hora de discernir el grano de la paja. De hecho, Ioannidis considera que, en muchos casos, incluso acercarse al 50% de verdaderos positivos requiere una precisión inimaginable. De ahí el llamativo título de su artículo: “Por qué la mayoría de los hallazgos de investigación publicados son falsos”.

¿Qué pasa con la precisión? Aquí tampoco las noticias son buenas. En primer lugar, en muchos campos existe un estándar de facto de usar uno de cada veinte como descarte aceptable para la tasa de falsos positivos. Para el oído ingenuo, eso puede sonar prometedor: ¿significa esto, sin duda, que sólo el 5% de los estudios científicos informan de un falso positivo? Pero esto es precisamente el mismo error que pensar que una piedra tiene una probabilidad del 99% de contener un diamante sólo porque el detector ha sonado. Lo que realmente significa es que, para cada una de las innumerables hipótesis falsas contempladas por los investigadores, aceptamos una probabilidad del 5% que se contará falsamente como verdadera, una decisión con un efecto mucho más perjudicial sobre la proporción de estudios correctos.

ciencia
Disponer de más investigadores no supone un mayor avance  científico

Paradójicamente, la situación en realidad es más grave por el hecho de que una conexión prometedora a menudo es estudiada por varios equipos independientes. Para ver por qué, supongamos que tres grupos de investigadores están estudiando un fenómeno, y cuando se analizan todos los datos un grupo anuncia que ha descubierto una conexión, mientras que los otros dos no han encontrado nada destacable. Suponiendo que todos los ensayos relacionados tengan un alto poder estadístico, el hallazgo positivo en solitario casi seguro que es falso. Sin embargo, cuando llega el momento de informar de sus conclusiones, ¿qué sucede? Los equipos que dieron con un resultado negativo ni siquiera se molestan en comunicar su no-descubrimiento. A fin de cuentas, el informe de que una conexión rocambolesca probablemente no sea cierta no es la materia de la cual están hechos los premios científicos, las concesiones de dinero, y las decisiones de promoción.

E incluso si se reportaron (los resultados negativos), probablemente no serán aceptados para su publicación. Las revistas compiten entre sí por llamar la atención y por el “factor impacto”, y siempre están más dispuestas a informar de un hallazgo nuevo y emocionante que de un fallo aguafiestas a la hora de encontrar una asociación. De hecho, estos dos efectos se pueden cuantificar. Dado que la mayoría de las hipótesis investigadas son falsas, y si las pruebas positivas y negativas fueron reportadas y aceptadas para su publicación en proporciones iguales, entonces la mayoría de los artículos de las revistas científicas deberían tratar de los no-hallazgos. Sin embargo, cuando se realizan los recuentos, ocurre exactamente lo contrario: Casi cada artículo científico publicado informa de la presencia de una asociación. Tiene que haber un sesgo masivo funcionando.

El argumento de Ioannidis sería poderoso incluso si todos los científicos fuesen ángeles motivados por la mejor de las intenciones, pero cuando se considera el elemento humano, la imagen se vuelve verdaderamente triste. Los científicos están bien al corriente desde hace tiempo de algo eufemísticamente llamado “efecto del experimentador”, esto es, el curioso hecho de que cuando un fenómeno es investigado por un investigador que resulta creer en tal fenómeno, es bastante más probable que se detecte. Gran parte del efecto se puede explicar probablemente porque los investigadores –inconscientemente– dan consejos o sugerencias a sus sujetos humanos o animales, tal vez mediante algo tan sutil como el lenguaje corporal o el tono de voz. Incluso aquellos que tienen las mejores intenciones han sido pillados omitiendo mediciones, o cometiendo pequeños errores en el redondeo o en el análisis estadístico, los cuales acaban por ofrecer un resultado más favorable. Muy a menudo, esto es sólo el resultado de un error estadístico honesto que conduce a un resultado deseable, y por lo tanto no ha sido comprobado tan deliberadamente como podría haber sido si se hubiera dado en la dirección opuesta.

Pero además, hay que decirlo así, el fraude deliberado está mucho más extendido de lo que la comunidad científica está generalmente dispuesta a admitir. Una forma por la que sabemos que hay una gran cantidad de fraude es que si planteamos la pregunta de manera correcta, los científicos lo confesarán. En una encuesta sobre dos mil psicólogos de investigación llevada a cabo en 2011, más de la mitad de los encuestados admitió abiertamente que reportaban selectivamente aquellos experimentos que habían dado el resultado que buscaban. A continuación, los investigadores pidieron a los encuestados que estimaran de forma anónima cuántos de sus colegas científicos habían tenido un comportamiento fraudulento, y les aseguraron que cuanto más precisas fueran sus estimaciones, mayor contribución se haría a la organización benéfica de su elección. A través de varias rondas de estimaciones anónimas, refinadas con las declaraciones de los científicos que admitían su propio fraude y otras mediciones indirectas, los investigadores concluyeron que alrededor del 10% de los psicólogos de investigación han participado en la pura y dura falsificación de los datos, y más de la mitad han participado en un comportamiento menos vergonzoso, pero todavía fraudulento, como reportar un resultado estadísticamente significativo cuando no lo era, o decidir entre dos técnicas de análisis de datos diferentes después de ver los resultados de cada uno y elegir la más favorable.

stick_mann
Famosa estadística manipulada (cambio climático)

Muchas formas de falsificación estadística son endiabladamente difíciles de atrapar, o están lo suficientemente cerca de un dictamen genuino como para ofrecer una negación plausible. El análisis de los datos es mucho más que un arte, que permite incluso a sus practicantes más escrupulosos un amplio margen de maniobra. ¿Cuál de estas dos pruebas estadísticas, ambas aplicables a esta situación, se debe utilizar? ¿Debería tomarse y reanalizarse una subpoblación de la muestra de investigación con algún criterio común como si fuera la totalidad? ¿Cuáles de los cientos de factores coincidentes medidos deben ser controlados, y cómo? La misma libertad que permite a un estadístico identificar una señal verdadera entre el ruido también permite a un científico deshonesto fabricar casi cualquier resultado que desee. Presentar relevancia estadística cuando en realidad no la hay, una práctica conocida comúnmente como “piratería-p”[2], es particularmente fácil de lograr y difícil de detectar en un contexto de caso por caso. Y dado que la gran mayoría de los estudios aún no expone sus datos en bruto junto con sus conclusiones, a menudo no hay nada que volver a analizar y comprobar incluso en el caso de que hubiera voluntarios con el tiempo y la voluntad de hacerlo.

Para estimar cuán ampliamente está extendida realmente la falta de honradez, el autor Daniele Fanelli ha propuesto un intento creativo que implica realizar comparaciones entre campos de variable dureza[3]. Fanelli teoriza que cuanto más lejos se sitúa uno de la física, más libertad se desliza en la metodología experimental, y hay menos restricciones en los sesgos conscientes e inconscientes de un científico. Si todos los científicos estuvieran constantemente tratando de influir en los resultados de sus análisis, pero tuvieran más oportunidades de hacerlo cuanto más suave fuera la ciencia, entonces podríamos esperar que las ciencias sociales tuvieran más números que confirmasen una hipótesis codiciada que las ciencias físicas, con la medicina y la biología en algún punto intermedio. Esto es exactamente lo que descubrió el estudio: Un artículo de psicología o psiquiatría es aproximadamente cinco veces más propenso a reportar un resultado positivo que uno de astrofísica. Esto no necesariamente es prueba de que los psicólogos estén todos manipulando –consciente o inconscientemente– sus datos, pues también podría ser prueba de un sesgo masivo de publicación, pero en cualquier caso el resultado es inquietante.

cientifico
Cierta ciencia vive del impacto y del sensacionalismo

Hablando de física, ¿cómo van las cosas con la más dura de todas las ciencias duras? Mejor que en cualquier otra parte, podría parecer, y no es sorprendente que aquellos que dicen que todo está bien en el mundo de la ciencia recurran de manera tan segura e insistente a ejemplos de la física, preferiblemente del tipo más teórico. Las historias populares de la física combinan un prestado brillo matemático y un triunfalismo liberal de un modo tal que parece ser irresistible para los periodistas. Los resultados de los experimentos de física y las observaciones astronómicas parecen tan directos, tan concretos y claramente conectados a la realidad subyacente, que podrían hacernos eludir cautelosamente todas estas cuestiones relacionadas con un motivado o descuidado análisis e interpretación. “E pur si muove”, se dice que comentó Galileo, y uno casi puede escuchar en su suspiro la esperanza de un centenar de periodistas científicos para los cuales sería muy conveniente que la Naturaleza siempre estuviera dispuesta a decirnos de quién es la teoría más correcta.

Sin embargo, el vuelo a la física más bien nos revela el juego, ya que –mídase en la forma que desee (volumen de artículos, número de investigadores, cantidad total de financiación)– la física deductiva y creadora de teorías de Newton y Lagrange, Maxwell y Einstein, no es sino una pequeña fracción de la ciencia moderna en su conjunto. De hecho, no es más que una pequeña fracción de la física moderna. Mucho más común es el delicado y sutil arte de rastrear inconcebiblemente grandes volúmenes de ruido con software avanzado y herramientas matemáticas en busca de la señal más débil de la hipótesis de algún fenómeno nunca antes observado, tanto si es un evento astrofísico o la desintegración de una partícula subatómica. Este tipo de trabajo es difícil y hermoso a su manera, pero no es en absoluto evidente por sí mismo en la forma de una manzana que cae o una órbita planetaria elíptica, y es muy sensible a los mismos tipos de contaminación accidental, fraude deliberado y sesgo inconsciente como en los estudios médicos y científico-sociales que hemos discutido. Dos de los resultados de la física más aclamados de los últimos años –el anunciado descubrimiento de la inflación cósmica y de las ondas gravitacionales en el experimento BICEP2 en la Antártida, y el supuesto descubrimiento de los neutrinos superlumínicos en el frontera suizo-italiana– ahora se han retirado, con mucha menos fanfarria que cuando fueron publicados por primera vez.

Muchos defensores de la comunidad científica admiten este problema, y a continuación ofrecen himnos a la naturaleza auto-correctiva del método científico. Sí, el camino es rocoso, dicen, pero la revisión por pares, la competencia entre los investigadores y el hecho reconfortante de que existe una realidad objetiva por ahí cuya prueba toda teoría debe apoyar o rechazar, todo ello se conjura para mostrar que la dejadez, la mala suerte, e incluso el fraude son descubiertos y arrastrados por los avances en el campo científico.

Y así va el dogma. Pero estas afirmaciones son raramente tratadas como hipótesis a contrastar. A los partidarios del nuevo cientifismo les gusta explicar el fraude de Sokal: el físico Alan Sokal presentó un artículo de jerga pesada pero lleno de declaraciones falsas y sin sentido a la publicación posmoderna de estudios culturales Social Text, que lo aceptó y lo publicó sin objeción, pero es improbable que mencionen un experimento similar llevado a cabo por los revisores del prestigioso British Medical Journal. Los experimentadores modificaron deliberadamente un documento para incluir en él ocho errores de bulto diferentes en el diseño del estudio, metodología, análisis de datos e interpretación de los resultados, y ni uno solo de los 221 encuestados que participaron reconoció todos los errores. En promedio, identificaron menos de dos errores, e increíblemente estos resultados se mantuvieron incluso en el subconjunto de los encuestados que habían sido específicamente advertidos de que estaban participando en un estudio y que podía haber algo un poco extraño en el artículo que estaban revisando. Al final, sólo el 30% de los revisores recomendaron que se rechazase el artículo intencionadamente erróneo.

Si la revisión por pares es buena para todo, parece estar evitando que las ideas impopulares sean publicadas. Considere el hallazgo de otro (sí, otro) de estos estudios de replicabilidad, esta vez de un grupo de investigadores del cáncer. Además de llegar a la conclusión ahora nada sorprendente de que sólo un triste 11% de la investigación sobre el cáncer preclínico que examinaron podía ser validada por los hechos, los autores identificaron otro patrón horrible: ¡Los artículos malos que no pudieron replicar fueron citados, en promedio, con mucha más frecuencia que los papeles que sí! Como dicen los autores, “unos artículos preclínicos no reproducibles habían dado lugar a un campo completo, con cientos de publicaciones secundarias que se expandieron en los elementos de la observación original, pero que en realidad no trataban de confirmar o falsificar su base fundamental.”

Lo que no mencionan es que una vez que se ha creado un campo entero, con carreras, financiación, nombramientos y prestigio –y todo basado en un resultado experimental que era totalmente falso, ya sea debido al fraude o simplemente a la mala suerte– remarcar este hecho no es probable que sea muy popular. La revisión por pares pasa de ser simplemente inútil a ser activamente perjudicial. Puede ser ineficaz en el mantenimiento para su publicación de artículos con defectos metodológicos o analíticos, pero puede ser mortalmente efectiva a la hora de suprimir la crítica a un paradigma de investigación dominante. Incluso si un crítico consigue que se publique su trabajo, señalar que la casa que ha construido está situada sobre un abismo no le granjeará la simpatía de sus colegas o, más importante aún, de sus mentores y patrocinadores.

Los científicos más veteranos contribuyen a la propagación de los campos científicos en formas que van más allá de la educación y orientación de una nueva generación. En muchos campos es habitual que un investigador establecido y respetado ejerza como “autor principal” en las primeras publicaciones de una brillante joven estrella, prestando su prestigio y credibilidad al resultado, y señalando a los revisores que están detrás de él. En las ciencias naturales y en la medicina, los científicos de alto nivel son con frecuencia los controladores de recursos –que en estos días incluyen no sólo los instrumentos científicos, sino también personal especializado como los redactores de peticiones de becas y los expertos en cumplimiento de normativas– sin los cuales un joven científico no tiene ninguna esperanza de llevar a cabo una investigación significativa.

Asimismo, los científicos más veteranos controlan el acceso al prestigio científico formando parte de los consejos editoriales de las principales revistas y de los comités de revisión de cargos de la universidad. Por último, los organismos gubernamentales que otorgan la mayor parte de la financiación científica están gestionados o asesorados por profesionales destacados en el campo.

Planck
Max Planck

Todo ello hace más irritante el hecho de que, en el paradigma de investigación reinante, lo más probable es que se invierta en los científicos de mayor edad, aunque todo se base en un viejo experimento que nunca ha sido replicado con éxito. El famoso físico cuántico Max Planck bromeó: “Una nueva verdad científica no triunfa convenciendo a sus oponentes y haciéndoles ver la luz, sino más bien porque sus oponentes finalmente mueren, y crece una nueva generación que está familiarizada con ella.” Planck quizá fue demasiado optimista. Un reciente documento de la Oficina Nacional de Investigación Económica estudió lo que ocurre con los subcampos científicos cuando los investigadores estrellas mueren repentinamente en la cima de sus capacidades, y establece que existen considerables pruebas de que los jóvenes investigadores son reticentes a desafiar a las superestrellas científicas y que una inesperada y repentina muerte no mejora significativamente la situación, sobre todo cuando “los colaboradores clave de la estrella están en posición de canalizar recursos (como la publicación o la financiación) a los implicados.”

En la idealizada visión de Popper del progreso científico, se proponen nuevas teorías para explicar las nuevas pruebas que contradicen las predicciones de las viejas teorías. El filósofo herético de la ciencia Paul Feyerabend, por el contrario, afirmó que las nuevas teorías contradicen con frecuencia las mejores pruebas disponibles, al menos al principio. A menudo, las antiguas observaciones eran imprecisas o irrelevantes, y fue la invención de una nueva teoría lo que estimuló a los experimentadores a ir en busca de nuevas técnicas de observación para demostrarla. Sin embargo, el éxito de este proceso no oficial radica en una despreocupada indiferencia ante las pruebas, mientras la joven y vulnerable teoría soporta una tormenta inicial de escepticismo. Sin embargo, si Feyerabend está en lo cierto, y una nueva teoría impopular puede ignorar o rechazar los datos experimentales durante el tiempo suficiente para conseguir su equilibrio, ¿por cuánto tiempo puede una vieja y chirriante teoría –respaldada por la reputación, influencia y poder político de cientos de profesionales establecidos– mantenerse en el aire aun cuando los resultados sobre la que se asienta se han mostrado como falsos?

Las hagiografías de la ciencia están llenas de loas a la naturaleza auto-correctiva y auto-sanadora de la actividad científica. Pero si los primeros resultados son a menudo tan falsos, los mecanismos de filtrado tan ineficaces, y los mecanismos de auto-corrección tan comprometidos y lentos, entonces el enfoque de la ciencia hacia la verdad puede incluso no ser monocorde. Es decir, las teorías anteriores, ahora “refutadas” por las pruebas y reemplazadas por nuevos enfoques, pueden estar más cerca de la verdad de lo que pensamos ahora. Tal retroceso ha ocurrido antes: En el siglo XIX, la (correcta) teoría de la deficiencia de vitamina C en el escorbuto fue reemplazada por la falsa creencia de que el escorbuto estaba causado por la proximidad de alimentos en mal estado. Muchos astrónomos antiguos creían en el modelo heliocéntrico del sistema solar antes de que fuera suplantado por la teoría geocéntrica de Ptolomeo. La visión liberal de la historia científica es hoy tan dominante que esta posibilidad apenas es susurrada, pero el nuestro es un mundo en el que las cosas que una vez fueron conocidas pueden ser perdidas y enterradas.

Pero incluso si tiene lugar la auto-corrección y las teorías se mueven estrictamente a lo largo de un ciclo de vida de menor a mayor precisión, ¿qué pasa con el flujo incesante de nuevos resultados, en su mayoría falsos, que llega a raudales más rápidamente? ¿Demasiado deprisa para que operen los escleróticos mecanismos comprometidos que disciernen la verdad de la ciencia? El resultado podría ser un creciente cuerpo de teorías verdaderas completamente abrumado por una maraña cada vez mayor de teorías sin fundamento, de tal manera que la proporción de creencias científicas verdaderas se contrajera, aun cuando el número absoluto de ellas siguiera en aumento. La Biblioteca de Babel de Borges contenía todo verdadero libro que se pudiera escribir jamás, pero era inútil, ya que también contenía todos los libros falsos, y entonces lo verdadero y lo falso se perdían en un océano sin sentido.

Lo que nos lleva al extraño momento en el que vivimos. Al mismo tiempo que una burocracia científica cada vez más hinchada produce en serie masas de resultados de investigación, la mayoría de los cuales son probablemente del todo falsos, los propios científicos son elogiados como héroes y la ciencia se mantiene como la única base legítima para la formulación de políticas. Hay razones para creer que estos fenómenos están vinculados. Cuando una disciplina antes ascética alcanza de repente un cierto grado de influencia, tiende a inundarse de oportunistas y charlatanes, tanto si se trata de la Academia Nacional de Ciencias o del monasterio de Cluny.

Esta comparación no es tan extravagante como parece: Al igual que el monacato, la ciencia es una empresa con un objetivo sobrehumano cuya consecución está siempre más allá de las capacidades de los imperfectos seres humanos que aspiran a ese objetivo. Los mejores científicos saben que tienen que practicar una especie de mortificación del ego y cultivar una falta de pasión que les permita informar sobre sus hallazgos, incluso cuando esos hallazgos pudieran significar el fracaso de las esperanzas, el agotamiento de los recursos financieros, o la pérdida del prestigio profesional. No resulta ninguna sorpresa que incluso después de dejar atrás a los monasterios, la práctica de la ciencia ha atraído almas impulsadas a buscar la verdad sin importar el costo personal y –en la mayor parte de su historia– a pesar de una clara falta de recompensa económica o de posición. Ahora, sin embargo, la ciencia, y en especial la burocracia científica, es una carrera susceptible de ascenso social. Carreras que atraen a los arribistas, en palabras de Feyerabend: “carentes de ideas, llenos de miedo, tratan de producir algún resultado insignificante que puedan añadir a la inundación de papeles estúpidos que ahora constituyen el progreso científico en muchas áreas.”

Si la ciencia no estaba preparada para la afluencia de los arribistas, aún menos preparada estaba para el florecimiento del culto de la ciencia. El culto se relaciona con el fenómeno descrito como “cientifismo”; ambos tienen la tendencia a tratar el cuerpo del conocimiento científico como un libro sagrado o una revelación no religiosa que ofrece resoluciones simples y decisivas a las preguntas más profundas. No obstante, a esto se añade una pizca de frivolidad simplista y una pizca de ignorancia desvergonzada. Sus tics retóricos incluyen un entusiasmo forzado (una búsqueda en Twitter del hashtag “#sciencedancing” dice mucho) y una inclinación a la profanidad. Aquí, en Silicon Valley, uno apenas puede pasar un día sin ver una camiseta que pone “¡La ciencia funciona, p…s!” El héroe de la popular reciente película The martian (“El marciano”) se jacta de que él “cientificará la m… de una situación”. Uno de los grupos más grandes de Facebook lleva por nombre “¡Amo j…mente la ciencia!” (nombre que, combinado con la inclinación del grupo a publicar apenas ningún material científico real, sino una gran cantidad de fotos de fenómenos naturales, ha llevado a más de un verdadero científico de mi entorno a murmurar en voz baja: “Lo que aman de verdad son las fotos”). A algunos de los líderes de este culto les gusta disfrazarse de científicos –Bill Nye y Neil deGrasse Tyson son dos ejemplos particularmente prominentes– pero casi ninguno de ellos ha aportado un resultado de investigación notable. Antes bien, el liderazgo del Culto apunta fuertemente en la dirección de educadores, divulgadores y periodistas.

Idealmente, la ciencia es una empresa humana con un objetivo sobrehumano: el descubrimiento de regularidades en el orden de la naturaleza y el discernimiento de las consecuencias de esas regularidades. Hemos visto ejemplo tras ejemplo de cómo el elemento humano de esta empresa daña y perjudica su progreso, a través de la incompetencia, el fraude, el egoísmo, los prejuicios o la simple combinación de un descuido sin mala fe o de la pura mala suerte. Estos defectos no tienen por qué hacer cojear la empresa científica concebida en términos generales, pero sólo si los científicos son hiperconscientes y vigilan incesantemente los errores de sus colegas… y los suyos propios. Cuando las tendencias culturales tratan de convertir la ciencia en una especie de clericalismo sin religión, los científicos tienden a olvidar que están hechos de la misma pasta que el resto de la humanidad, lo cual necesariamente pondrá en peligro el trabajo que hacen. Los mejores amigos del Culto de la Ciencia son los peores enemigos de la práctica auténtica de la ciencia.

© William A. Wilson 2016

 Fuente original: http://www.firstthings.com/article/2016/05/scientific-regress

[1] Se trata de un teorema propuesto por el filósofo inglés Thomas Bayes en el siglo XVIII. Según definición de Wikipedia, la estadística bayesiana es “un subconjunto del campo de la estadística en la que la evidencia sobre el verdadero estado del mundo se expresa en términos de grados de creencia o, más específicamente, las probabilidades bayesianas . Tal interpretación es sólo una de una serie de interpretaciones de la probabilidad y hay otras técnicas estadísticas que no se basan en grados de creencia.” (n. del t.)

[2] “p-hacking” en inglés. Se refiere a la manipulación del llamado valor p, que –según Wikipedia– “está definido como la probabilidad de obtener un resultado al menos tan extremo como el que realmente se ha obtenido (valor del estadístico calculado), suponiendo que la hipótesis nula es cierta.” (n. del t.)

[3] En la terminología científica anglosajona se suele aludir a la diferencia entre ciencias “duras” y “suaves”. A las primeras se las considera más objetivas por cuanto sus métodos, experimentos y pruebas se atienen a la realidad física observable, medible y reproducible (como por ejemplo, la física, la química, las matemáticas, etc.) mientras que las segundas, generalmente las ciencias sociales, no tienen tal consideración, al ser más subjetivas o interpretables por la propia materia de su estudio. (n. del t.)

Anuncios

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión / Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión / Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión / Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión / Cambiar )

Conectando a %s