Un hallazgo pone en crisis nuestro conocimiento sobre el cerebro humano

Pensar la Ciencia implica reconocer sus alcances, identificar sus límites y entender como desde su propia construcción genera estructuras que le alejan de su esencia. Hoy en día, la información que genera la comunidad científica sobrepasa la cantidad de datos que podemos procesar y la vertiginosa competencia de patentes y publicaciones, conduce a los investigadores a comportamientos mecánicos que les impiden comprobar la información que generan. En este sentido, la confianza ciega que muchos de los científicos deben depositar en las herramientas tecnológicas puede ser contradictoria con el carácter escéptico que les conduce durante sus investigaciones.

La imagen por resonancia magnética funcional (fMRI, por sus siglas en inglés) es el método más extendido para estudiar el esfuerzo que realiza una región determinada del cerebro cuando se le asigna una tarea. La fMRI detecta qué zonas están reclamando más energía del flujo sanguíneo gracias al oxígeno que transporta. El resultado son esos mapas en 3D de la materia gris con unas zonas iluminadas que identifican las zonas de nuestro cerebro que funcionan cuando hacemos cualquier actividad (incluso algunas tan etéreas como descansar, meditar e imaginar).

Ahora, un equipo de científicos liderados por Anders Eklund ha destapado que muchas de esas zonas se pudieron iluminar por error, por un fallo del software y el escaso rigor de algunos colegas. En su estudio, publicado en PNAS, cogieron 500 imágenes del cerebro en reposo, las que se usan como punto de partida para ver si a partir de ahí el cerebro hace algo. Usaron los programas más comunes para realizar tres millones de lecturas de esos cerebros en reposo. Esperaban un 5% de falsos positivos y en algunos casos dieron hasta con un 70% de situaciones en las que el programa iluminaba una región en la que no pasaba nada, dependiendo de los parámetros.

Estos programas dividen el cerebro humano en 100.000 voxels, que son como los píxeles de una foto en versión tridimensional. El software interpreta las indicaciones de la resonancia magnética e indica en cuáles habría actividad, a partir de un umbral que en muchos casos ha sido más laxo de lo que debiera, propiciando falsos positivos. Además, los autores de la revisión analizaron 241 estudios y descubrieron que en el 40% no se habían aplicado las correcciones de software necesarias para asegurarse, agravando el problema de los falsos positivos.

El revuelo ha sido sobresaliente en el campo de la neuroimagen, aunque se está matizando la dimensión del problema (un fenómeno que ilustra también la forma en el que la comunidad científica se autoprotege). Inicialmente, Eklund y su equipo cuestionaban la validez de unos 40.000 estudios. Ahora han anunciado una corrección: Thomas Nichols, otro de los autores del estudio, calcula que son solo unos 3.500 los trabajos que serían papel mojado. Pero es imposible saber cuáles son o cuántos exactamente, lo cierto es que a partir de esto hay tres lustros de ciencia con una sombra de duda sobre ellos.

En realidad, este estudio ha sido como el niño que grita que el emperador está desnudo en el cuento de Andersen: en numerosas ocasiones se había denunciado que algunas de estas resonancias carecen de fortaleza estadística y que se estaban sobrevalorando. “Esto ya se sabía. Hace 20 años que se había alertado de este problema. Y encima se ha ido haciendo más y más laxo el trabajo en este campo, con los resultados que ahora vemos”, lamenta Bryan Strange, director del departamento de neuroimagen de la Fundación CIEN (Centro de Investigación de Enfermedades Neurológicas). Strange considera que “tiene todo el sentido” lo que denuncia el estudio y es “muy bueno que se advierta de este peligro”.

La revisión demuestra que muchos científicos se han acercado al mundo de la neuroimagen sin conocer bien el proceso que estaban realizando, algo que seguramente pasa con la mayor parte de la investigación científica, ya que el desarrollo tecnológico está dirigido por grupos muy específicos y adentrarse con mucho detalle en el funcionamiento del equipo de laboratorio resulta imposible. Es por esto que algunos especialistas coinciden en que detrás de este problema también está otro más general de la ciencia: no se están replicando los estudios, nadie está comprobando que lo que publican los demás científicos es correcto tratando de obtener los mismos resultados con los mismos métodos.

_____

_____

Es muy pronto para visualizar el impacto que tendrá este hallazgo no sólo en las neurociencias sino en la forma en la que se desarrolla la investigación científica en general (después de todo modificar nuestro conocimiento del cerebro humano implica transformar el conocimiento de todo lo que pensamos sobre nosotros mismos), pero por ahora podemos rescatar algo muy valioso de esta experiencia; el sello distintivo del carácter crítico y escéptico del relato científico. Aún cuando resulta muy grave en términos de producción y aplicación del conocimiento, lo cierto es que el propio método científico es el que permitió identificar la problemática y exigir una solución; algo que difícilmente puede alcanzarse con otras formas de explorar el mundo.

Nota comentada por Jesús Vergara-Huerta (del Proyecto Alterius) y realizada con información de El País 

Previo

Investigadores de la UNAM llevan talleres de Ciencia a comunidades indígenas

Siguiente

Salvador Novo y las locas

Sin comentarios

Deja un comentario