Un estudio del Instituto de Investigación Santiago Gregorio Marañón analiza cómo la experiencia de parto y postparto cambia el cerebro de la mujer influyendo en su salud

El grupo de investigación Neuromaternal revela una asociación entre una experiencia de parto más difícil con un aumento en niveles de depresión, afectando al vínculo con el bebé y la resiliencia psicológica. Este estudio subraya la importancia de abordar la salud mental en el periodo perinatal.

PxHere. (s.f.). [Imagen de una mujer embarazada con ecografía en blanco y negro].Licencia: Creative Commons CC0.

El reciente estudio que se publicó en Sciencie Advance en marzo del 2025 titulado «Vinculando la experiencia del parto y los síntomas de depresión perinatal con cambios neuroanatómicos en el hipocampo y la amígdala», examina cómo el parto y los síntomas de depresión durante el período perinatal pueden estar relacionados con cambios en dos áreas clave del cerebro: el hipocampo y la amígdala. Estructuras responsables de procesos como la memoria y la emoción. 

Un estudio publicado anteriormente en Medicina Clínica determinó que la prevalencia de depresión posparto en madres españolas es del 10,15%, con un 3,6% correspondiente a depresión mayor y un 6,5% a depresión menor. Con la idea de profundizar en este estudio de base, el equipo de Neuromaternal detectó que un aumento en los síntomas depresivos durante el período perinatal se correlacionó positivamente con cambios en la amígdala derecha. Esto sugiere que las mujeres que experimentan más síntomas de depresión pueden presentar modificaciones específicas en esta región del cerebro.​ 

En cuanto a la experiencia de parto, una percepción de parto más desafiante se asoció con incrementos bilaterales en el volumen del hipocampo (el hipocampo es una estructura cerebral conocida por tener forma de caballito de mar, cuya función principal es la memoria). Estos incrementos implican que las dificultades durante el parto podrían estar relacionadas con cambios estructurales en el hipocampo acompañado de un aumento de trastorno de estrés postraumático. 

El estudio se realizó con 88 mujeres que iban a ser madres por primera vez. Se les evaluó al final del embarazo y poco después del parto. En cada sesión, realizaron resonancias magnéticas de alta resolución para medir el tamaño del hipocampo, la amígdala y subestructuras. También completaron cuestionarios sobre su experiencia en el parto y síntomas de depresión antes y después de dar a luz. Además, se incluyeron a 30 mujeres que no habían estado embarazadas como grupo de comparación.

Se observó que el tipo de parto; vaginal, cesáreas programadas o cesáreas de urgencia, influyen en los resultados, pero no de forma significativa. En cuanto a la salud mental, sí se revela una asociación entre una experiencia de parto más difícil con un aumento en niveles de depresión y a su vez un aumento en el volumen del hipocampo y la amígdala derecha. 

Esta investigación arroja luz sobre datos que no se habían estudiado hasta ahora y es muy importante, ya que la depresión es una enfermedad que, aunque debilitante para quienes la padecen, no presenta síntomas físicos evidentes. Esta falta de manifestaciones externas lleva a una incomprensión por parte de la sociedad, los familiares e incluso de las mismas personas que la sufren. Esto puede generar percepciones erróneas sobre sí mismas, haciéndoles creer que se trata de un problema de actitud, voluntad o falta de fortaleza. Además, suele conllevar al aislamiento social.

Según la doctora Carmona, “el embarazo es un período de neuroplasticidad único en la vida adulta, similar a la adolescencia, que conlleva cambios significativos en la anatomía cerebral de la mujer. Estos cambios pueden interpretarse como adaptaciones a los desafíos del parto y la maternidad, pero también podrían indicar vulnerabilidades a trastornos como la depresión posparto”. Estos hallazgos destacan la importancia de comprender los efectos del parto en el cerebro y la salud mental de las madres. La investigación podría contribuir al desarrollo de estrategias para prevenir y tratar la depresión perinatal, mejorando el bienestar de las madres y sus familias. 

Alerie Guzmán de la Fuente, neurocientífica. “Con la edad, el cerebro pierde su capacidad de reparación: entender por qué es nuestro gran reto”

La investigadora, estudia la compleja interacción entre el sistema inmune y el sistema nervioso central en los procesos de reparación de la mielina, un avance para entender y tratar enfermedades neurodegenerativas como la esclerosis múltiple.

Alerie Guzmán de la Fuente: Instituto de Neurociencias UMH-CSIC

Alerie Guzmán de la Fuente comenzó su camino en la neurociencia estudiando Biología y Bioquímica en la Universidad de Navarra. Tras la carrera, durante una estancia en un laboratorio en Italia, corroboró que su verdadera vocación estaba en la investigación. Con esa certeza, se mudó a Cambridge, donde hizo su doctorado en Neurociencias. Pasó allí ocho años —casi un tercio de su vida en aquel momento— siendo una etapa muy especial. Luego, continuó su recorrido científico durante cuatro años en Belfast. Hoy, Alerie Guzmán sigue dedicada a lo que le apasiona, trabajando como investigadora Ramón y Cajal en el Instituto de Neurociencias de Alicante (UMH-CSIC).

Su trabajo se enfoca en entender cómo interaccionan el sistema inmune, que es un sistema esencial para procesos inflamatorios y, el sistema nervioso central. En concreto, cómo estas dos vías se relacionan para fomentar, inhibir o limitar la regeneración de la mielina. La mielina es esencial para que las señales del cerebro se transmitan de manera eficiente y, Guzmán ha dedicado su investigación a comprender cómo ésta se regenera, un proceso que se ve alterado en enfermedades como la esclerosis múltiple.

En esta entrevista, cuenta más sobre sus hallazgos más recientes, los posibles avances en el tratamiento de enfermedades neurodegenerativas y, además, reflexionará sobre la importancia de compartir el conocimiento científico con la sociedad.

¿En qué consiste su trabajo?

Estudio el sistema nervioso central, concretamente una sustancia que se llama mielina. La mielina es como una capa que recubre y protege las fibras nerviosas —algo así como el plástico que envuelve un cable eléctrico— y es esencial para que las señales del cerebro se transmitan rápido y bien. Sin mielina, esa comunicación se vuelve lenta y desordenada.

Me interesé en esto por las enfermedades neurodegenerativas, como la esclerosis múltiple, donde se ha visto que se pierde mielina. Durante mi doctorado me centré en entender cómo se forma esta capa, sobre todo porque no se habla tanto de ella cuando estudiamos el cerebro durante la carrera. Generalmente se pone el foco en las neuronas, que sin duda son esenciales, pero hay mucho más alrededor que también es importante.

Lo interesante es que, a diferencia de las neuronas, la mielina sí se puede regenerar, especialmente cuando somos jóvenes. Eso ocurre gracias a unas células madre que tenemos en el cerebro. El problema es que, con el envejecimiento, este proceso se vuelve más lento y menos eficaz. Ahí es donde se ha centrado mi estudio: entender qué falla en los cerebros envejecidos y qué hace que la mielina no se regenere bien.

¿Y se conoce por qué sucede?

Sabemos muchas cosas, pero también hay muchas preguntas abiertas. Lo que sí hemos visto, es que el envejecimiento no afecta solo a las células madre del cerebro, sino a todo el entorno: el sistema inmune, las neuronas, los mecanismos de limpieza… Por ejemplo, cuando se pierde mielina, se generan restos, como una especie de “basura”, que hay que limpiar para que se pueda volver a formar. Y las células que hacen esa limpieza también envejecen y lo hacen peor, lo que ralentiza todo el proceso.

Aunque parezca contradictorio, en la regeneración un poquito de inflamación sí que es necesaria. Pero con la edad aumenta la inflamación crónica en el cerebro, y esta inflamación crónica en cambio, frena la regeneración.

¿Cómo puede ser que la inflamación, que en teoría daña, también sea necesaria para regenerar?

Es curioso, pero sí, se necesita un poco de inflamación para que la regeneración comience. Las señales que se generan en ese proceso inflamatorio son como una chispa que activa a las células madre y les indica que hay un daño que reparar. El problema es que, si esa inflamación no se controla, se vuelve crónica y entonces bloquea el proceso en lugar de ayudar. En realidad, lo difícil es encontrar ese equilibrio: suficiente inflamación para activar la reparación, pero no tanta como para que se vuelva dañina.

Alerie Guzmán de la Fuente: Instituto de Neurociencias UMH-CSIC

Relacionado con la inflamación, recientemente participaste en un estudio publicado en Nature Communications. «Ageing impairs the regenerative capacity of regulatory T cells in central nervous system remyelination.»  ¿Nos puedes contar en qué consistió?

El estudio se basa en un trabajo anterior de mi mentora, donde se descubrió que unas células del sistema inmune, los linfocitos T reguladores, no sólo frenan la inflamación, sino que también ayudan a regenerar la mielina. En nuestro trabajo quisimos ver qué pasaba con estas células durante el envejecimiento, ya que las personas mayores tienen más linfocitos T reguladores, pero aun así no se regenera la mielina.

Hicimos un experimento interesante: obtuvimos linfocitos T reguladores de ratones jóvenes y viejos, y los inyectamos en ambos grupos, tanto células jóvenes cómo las obtenidas de ratones viejos se inyectaron en ratones receptores jóvenes como viejos. Lo que observamos fue revelador: los linfocitos viejos, cuando se ponían en un entorno joven, recuperaban su función regeneradora, la cual era similar a la de las células jóvenes. En cambio, los linfocitos jóvenes en un entorno envejecido no funcionaban igual de bien. Esto nos dice dos cosas: por un lado, que las propias células envejecen y por otro, que el entorno envejecido también dificulta el proceso regenerativo.

Pero lo más esperanzador es que vimos que la pérdida de la capacidad de estas células de ayudar al proceso regenerativo no es definitiva: se puede revertir. Si entendemos qué señales del entorno joven las reactivan, podríamos encontrar formas de “rejuvenecerlas” incluso en un organismo envejecido. Ese sería el siguiente paso: averiguar qué cambia y cómo modificarlo para restaurar su capacidad de regenerar mielina.

¿Qué tipo de pacientes podrían beneficiarse de los avances en este tipo de investigaciones sobre la regeneración de mielina?

Nos centramos en la esclerosis múltiple porque es el ejemplo clásico de una enfermedad en la que se pierde la mielina y falla su regeneración, especialmente con el envejecimiento. Aunque nuestro trabajo es investigación básica, los mecanismos que estudiamos podrían ser útiles también en otras enfermedades neurodegenerativas donde hay daño en la mielina. A día de hoy no existe ninguna terapia aprobada que potencie la regeneración de la mielina, pero hay ensayos clínicos en marcha. En el futuro, en el caso de la esclerosis múltiple, lo más efectivo probablemente sea combinar tratamientos que frenen los ataques inflamatorios con otros que regeneren la mielina y protejan fibras nerviosas.

¿Cómo es el salto del laboratorio a la práctica clínica y qué interacción tiene con los pacientes?

Aunque no tengo una interacción directa ahora mismo con pacientes, sí formo parte de comités donde se evalúan tratamientos potenciales para ensayos clínicos, y en ellos participan personas con esclerosis múltiple. Esa conexión es fundamental, porque te ayuda a mantener el foco: recordar para quién estás investigando y por qué es importante. También aporta una perspectiva muy valiosa, ya que algo que en el laboratorio parece prometedor, puede no ser viable desde el punto de vista del paciente. Escuchar sus experiencias da motivación y sentido a lo que hacemos y, te recuerda que la ciencia es una carrera de fondo, no un sprint.

Alerie Guzmán de la Fuente: Instituto de Neurociencias UMH-CSIC

¿Cuáles son sus próximos proyectos?

Ahora mismo estamos centrados en entender cómo distintos tipos de inflamación y su duración afectan a las células madre responsables de regenerar la mielina. Queremos descubrir no solo cómo reciben señales del sistema inmune, sino también cómo se comunican con él. A partir de ahí, el objetivo es aplicar ese conocimiento a contextos de enfermedad como por ejemplo la esclerosis múltiple.

He visto que has participado en actividades de divulgación científica. ¿Qué papel cree que juega la divulgación en su trabajo y cómo ve el reto de trasladar el conocimiento científico desde el laboratorio hacia la sociedad?»

Creo que la divulgación científica es fundamental, aunque durante mucho tiempo no se le ha dado el valor que merece. Muchas veces, como científicos, nos cuesta salir del lenguaje técnico y traducir lo que hacemos de forma que sea accesible. No porque la gente no pueda entenderlo, sino porque estamos tan metidos en nuestro mundo que cuesta encontrar las palabras adecuadas. Pero es muy importante que la sociedad entienda lo que hacemos, por qué es relevante y cómo puede impactar a largo plazo.

Durante la pandemia se vio lo esencial que es tener acceso a información fiable. Si no explicamos bien cómo funciona la ciencia, crecen los bulos y se desconfía incluso de avances tan importantes como las vacunas. Divulgar no solo sirve para informar, también para inspirar, para recordar por qué hacemos lo que hacemos y para que más personas valoren y apoyen la ciencia. Es un esfuerzo, sí, pero muy necesario.

Sarah Crews, PhD., arachnologist: “There’s so many unknowns for all spiders, but unknowns aren’t as impactful and exciting to fund research.”

The postdoctoral fellow at the California Academy of Sciences shares her passion for the underappreciated Selenopidae spider family, and speaks to the difficult funding ecosystem that defines research opportunities in academia. 

Dr. Crews with rock wallabies during a 2019 specimen collection trip in Queensland, Australia.

The Selenopidae spider family now encompasses over 280 species of spiders, thanks in part to the work of Dr. Crews. Throughout her career she has sought to describe new species of the ‘flatty’ spider family, exploring just about every facet of their biology – from mating behavior to biomechanics.

Your research focuses on so many different aspects of these Selenopidae or ‘flatty’ spiders, what do you like about flatties as opposed to other spiders? 

I like them a lot more than other spiders. They don’t build webs. They’re the fastest turning animal on earth. They’re very flat. When I first started working on them, they were considered a small spider family, but I’ve described maybe 75 or 100 species. Meanwhile, other people have been describing them too, and so my guess is there’s probably a whole lot more.

I think that they were sort of overlooked because they are really fast and they are really flat. So if you’re up collecting, if you’re not collecting those specifically, you’re not gonna look for them and they’re gonna be hard to find. If you see one and you’re not good at catching them because you haven’t done it before, then you’re not gonna really worry about it if it’s not something you need, because you need to focus on your own research. So I think it’s just a matter of people not actually collecting them.

You have done all these different types of research on this one particular group. Is there one aspect that you find most interesting? 

Well, I like describing species because I would like to say most arthropods are differentiated by their genitalia. There’s over 52,000 species of spiders, and then you have males and females, so thats 52,000 different kinds of genitalia. That’s just so much, you could never sit down and do all that, but it exists, there’s that much variation, and that’s really interesting to me. 

I also like biomechanics because it was an accident how my friend Joe Spagna and I found it and we’re still working on a lot of aspects of it. My friend had an undergrad student, Karisa Quimby,  that worked on leg loss, (sometimes legs just come off of spiders) and she did the same experiments we did, but looked at if they slowed down or missed their prey. They can get down to five legs before you have a problem. 

Figure showing the female of the newly described species, Karaops jawayway. Section A shows the preserved specimen, and Section B shows the live specimen.  The lower graphics, listed C through F, illustrate the unique genitalia of the species with colors indicating the ducts, folds, bulbs and opening.
Source: Crews SC (2023) But wait, there’s more! Descriptions of new species and undescribed sexes of flattie spiders (Araneae, Selenopidae, Karaops) from Australia. ZooKeys 1150: 1–189. https://doi.org/10.3897/zookeys.1150.93760

Five out of eight? 

Yeah if you have five, you’re still doing good, but lower than that, you start to taper off. There’s a lot of unknown aspects like that. They also have really big eyes, but we don’t know what they’re using them for. My friend Benji and I covered them up with dental silicone, which isn’t very easy to do, to put dental silicone on tiny spider eyes, but we did that and they were still able to do everything. We did the experiments in the dark and in the light, the way they catch prey probably has more to do with these innervated hairs on their legs, but they gotta be using their eyes for something. So I just like that aspect of it because there are just so many things that aren’t known about them. 

That’s kind of another problem with academia. People want you to engage with the public and the public wants to know things like that.  What did they do? What do they eat? But there’s never funding for things like natural history work or like observation work. Anybody who’s doing that is doing it on their own time or when they’re doing something else and that’s always kind of been annoying to me. 

There’s so many unknowns for all spiders, but unknowns aren’t as impactful and exciting to fund research. The public wants to know about it, but academics don’t want you to do that. They don’t wanna give you money to do that. The government doesn’t wanna give you money to do that. 

Can you speak to some of the difficulties of being a scientist in academia?

I never wanted to be an academic scientist and I’m not very good at it, because I’m not really competitive. I just wanna find my stuff and do my thing. And I like listening to other people’s talks but people get so wrapped up in their own ideas that they can’t ever listen to anyone else’s. Also, being young and being a woman, there’s just so many people that don’t acknowledge work I’ve done and they write papers and they don’t cite my work. I’ve been doing this for forever and people know I’ve been doing it, and so, it’s just kind of annoying. The stuff that we’ve been doing in the lab has been really good and they’re just kind of not great about it recently. 

Trying to get money has always been difficult and it’s gotten more difficult through the years, and right now they might dissolve the National Science Foundation, so there might not be any more.  

For younger scientists, could you speak to the role of mentorship in your career? You’ve also been an educator, have you been able to impart mentorship? 

Well, I didn’t have very good mentors, so I learned pretty quickly what not to do. Some of them were just mean and terrible, and some of them were just like so hands off when you needed help. But if you’re in a big enough lab, you can sort of lean on the other students in there. You know, I’ve had some better ones that weren’t necessarily my supervisors. My boss here is really good, especially with education, like teaching me how to do more outreach.
I do also have students here. I have a masters student, and then I’m helping I’m on dissertation committees. I really like the community college, because I taught a general biology course, so it wasn’t people who were majoring in biology and so it made me think, ‘this is all they’re gonna get’. I have to do it right. I used to take them on field trips, and they live here and they have never been, really out anywhere and never seen stuff, so they always like that. I like doing stuff like that. I like going outside and poking at things more. And I think that people who especially aren’t necessarily interested in field biology or interested in biology as a major, really enjoy that as well.

Doctor Valero-Rodríguez, biólogo marino e investigador: «Los mayores impactos humanos se ven en los ecosistemas costeros porque es donde vive gran parte de la población mundial»

El investigador reivindica el papel de las algas y plantas marinas, porque sin ellas eventos como grandes tormentas arrasarían las playas

El doctor Valero-Rodríguez haciendo trabajo de campo en una zona costera. Foto: Aistė Klimašauskaitė 

Las vacaciones de Semana Santa están al caer, por lo que las zonas de costa pronto estarán llenas de bañistas y turistas. Sobre todo en la cuenca mediterránea, que suele ofrecer sol y buenas temperaturas en estas fechas. De la provincia de Alicante, concretamente de Crevillente, es originario Juan Manuel Valero Rodríguez, biólogo marino que lleva más de 10 años estudiando el impacto de diversas actividades y procesos en costa. Ha trabajado en España, Australia y Noruega, ahondando en los efectos de la presencia humana en ecosistemas locales y tiene varias publicaciones centradas en algas, piscifactorías y otros animales del litoral.

En términos de ecología, se habla mucho de “impacto”. ¿Podría definir que se considera impacto costero?

Un impacto es cualquier acción que afecta de modo negativo al conjunto ecosistémico de un lugar. En este caso concreto en costa.

¿Qué tipo de acciones o actividades generan impacto en las costas?

Algunos ejemplos incluyen las actividades de pesca, con el asociado consumo de combustible y contaminación, o el impacto turístico en la línea litoral por las aglomeraciones.

Esto conlleva, por ejemplo, un incremento de la actividad de plantas de tratamiento de agua que expulsan sus residuos en un sumidero a cierta distancia de la línea de costa, la cual, dependiendo de las mareas, puede verse afectada igualmente.

Ha mencionado el impacto turístico por aglomeración de personas. En breve las playas se llenarán de bañistas por vacaciones de Semana Santa. ¿Hay un efecto visible de esto en la costa o hay que llevar muestras al laboratorio para ver su impacto?

Ambos. En el primer caso, si hay una línea de costa congestionada y hay animales que necesitan de cierto aislamiento para su desarrollo, genera un impacto visible. Hay tortugas, en costas tropicales, que necesitan la playa totalmente desierta para anidar, para poner sus huevos. Pero se irán si hay turistas bañándose.

En el mar Mediterráneo, tenemos disminución de especies asociadas a la presencia humana. Por ejemplo, algunos bivalvos en playas del Pinet y otras playas de la región alicantina.

Los bivalvos, ¿son almejas?

Almejas, sí. “Chapinitas” que se llaman en el Levante. Tengo testimonios directos, de familiares. Mi padre solía veranear ahí muchas veces y las había en abundancia. Ahora casi no se encuentran o las hay en muy pequeña proporción.

Hay un impacto claro por la actividad humana, la aparición de pescadores furtivos, tanto de moluscos como de especies piscícolas… Los impactos de los que hablamos también pueden verse reflejados ahí.

Además, hay otras actividades asociadas a línea de costa como el establecimiento de acuarios. El ejemplo más famoso es el de Mónaco. Un técnico, limpiando los tanques del acuario, acabó vertiendo al mar el alga Caulerpa taxifolia. Esta alga no es autóctona y ha ido desplazando a las demás, invadiendo el Mediterráneo. En la actualidad ya ha ocupado más de 190 km de costa.

Respecto a las algas, en su investigación actual, está analizando la relación entre las poblaciones de algas y el cambio climático. ¿Por qué son importantes las algas?

Las poblaciones algales de costa, algunas de ríos también, son en principio el primer eslabón de lo que sería la cadena trófica marina. Es decir, si no tenemos algas en las que puedan vivir especies de peces, moluscos o artrópodos, es imposible que esas especies cumplan su función en la cadena trófica y puedan alimentar especies de interés humano, por ejemplo, salmones, merluza, etcétera.

Si no tenemos una biodiversidad saludable en las zonas de costa, por asociación todas las especies se verán afectadas y en última instancia repercutirá en el ser humano.

¿Y qué papel juega en esto el cambio climático?

Ciertos fenómenos atmosféricos, como las olas de calor, se van haciendo más y más comunes. Hay organismos en costa, como algas de litoral, que tienen un sistema termorregulador con límites de tolerancia. Esos límites pueden verse afectados cuando hay una ola de calor y disminuir la capacidad de estos organismos para regularse.

Por ejemplo, no es lo mismo que un alga determinada sufra una hora de calor en un verano, que sufra cinco seguidas con solo dos días de distancia entre ambas. Eso sucede mucho en el sur, en el Mediterráneo, pero vemos como poco a poco va subiendo en latitud. Incluso en Noruega se están viendo ahora efectos en costa.

Las grandes lluvias que hemos podido ver últimamente, por ejemplo la Dana en Valencia del año pasado, ¿afectan este tipo de eventos a los ecosistemas costeros?

Sí, y afecta a muchas actividades humanas asociadas a costa también. Como ejemplo, a nivel ecosistema, si llegan al mar aguas cargadas de sedimentos y otros materiales, aumenta su turbidez, por lo que llegará menos luz al fondo. Por lo tanto, tendremos menor producción tanto de fanerógamas, que son plantas marinas, como de algas, porque ambas usan la fotosíntesis para proveerse de energía.

De las actividades humanas afectadas, tenemos el turismo, por supuesto, pero también hay otras a nivel económico que son bastante importantes para un país. Por ejemplo, la acuicultura. Un fenómeno como un temporal, puede llevar asociado a un movimiento de oleaje bastante alto. Muchas estructuras de las jaulas de acuicultura están diseñadas para soportar un cierto nivel de estrés. Si se llega a ese nivel o se sobrepasa, es probable que estas jaulas acaben con daños y esto puede ocasionar desde roturas de la estructura hasta la pérdida del cultivo.

Playa abarrotada. Foto: Pierre-Laurent Durantin para Pixabay.

En relación con los impactos visibles. Lo primero en que se suelen fijar los bañistas es en las algas sobre la arena de la playa y flotando en la orilla. ¿Podría deberse su presencia al impacto de la actividad humana?

Sí, desde luego. Uno de los efectos más patentes de la actividad humana en la costa es el incremento de nutrientes. Por ejemplo, cuando descargan las plantas de tratamiento de aguas, pueden tener un nivel de nitrógeno y fósforo elevado. Lo cual implica reservas para crecimiento y reproducción de algas, así se generan los llamados blooms o explosiones de crecimiento de este tipo de organismos. Estos fenómenos tienen un efecto nocivo a nivel paisajístico y son un riesgo para la biodiversidad. Cuando un alga concreta crece mucho más rápido que otras, puede llegar a monopolizar el espacio y acaparar la luz solar.

Se sabe que este tipo de impactos van a ir en aumento en un futuro, porque cada vez hay más gente viviendo en línea de costa. De hecho, los mayores impactos humanos se ven en los ecosistemas costeros porque es donde vive gran parte de la población mundial.

No es por desconfiar, pero ¿hay alguna forma de saber si las algas que llegan a la playa están ahí por causa de impacto humano?

Sí. Cuando los nutrientes que las algas utilizan para su crecimiento tienen origen humano, contienen un isótopo que es distinto de los de origen natural, son diferencias a nivel de su composición atómica. Por ejemplo, los isótopos 14 y 15 del nitrógeno. Ciertas herramientas científicas nos ayudan a, si no determinar cuál es la fuente concreta, sí el origen primigenio de las mismas. La literatura científica es amplia al respecto.

Hemos hablado de lo importante que son las algas y el efecto negativo que la actividad humana puede causar en su ecosistema. ¿Dejaremos de oír quejas sobre ellas algún día?

Lo cierto es que es irónico. Normalmente las personas se quejan de la presencia de las algas en playa, cuando son estos mismos organismos los que se aseguran de que su estado sea óptimo. Si no hubiesen algas o plantas en costa después una tormenta lo más probable es que ciertas playas desaparecieran. El arribazón, las algas y fanerógamas (plantas marinas) forman parte de la playa misma, sirven como barreras cuando el oleaje se lleva la propia playa y mantienen su estructura. Hay mucha gente que dice: «¿por qué no limpian la playa?». Bueno, quizá debamos pensar en cómo limpiar lo que se origina por nuestra causa.

Rebecca Gozzini, física: “Hemos observado el neutrino más energético jamás detectado”

Investigadora del Institut de Física Corpuscular y parte de KM3NeT, la colaboración responsable de este descubrimiento, explica la importancia de esta observación y cómo, desde las profundidades del Mediterráneo, podemos desvelar los misterios más ocultos de nuestro universo

El pasado 12 de febrero de 2025, el telescopio de neutrinos KM3NeT anunció un hallazgo sin precedentes: la detección del neutrino cósmico más energético observado hasta ahora. Se estima que su energía era de 220 petaelectronvoltios (PeV). Esta energía es equivalente a la de una pelota de ping-pong moviéndose a unos 18 km/h, pero concentrada en una partícula subatómica.

KM3NeT está instalado en las profundidades del mar Mediterráneo. Consta de dos detectores: ARCA, optimizado para captar neutrinos cósmicos de alta energía y ORCA, orientado al estudio de neutrinos de baja energía originados en la atmósfera. Ambos están formados por miles de esferas que alojan sensores extremadamente sensibles, capaces de detectar el tenue destello de luz azul producido por un neutrino interactuando con el agua de mar o las rocas. Estas esferas están suspendidas en gigantescas estructuras verticales que se alzan desde el lecho marino. Conectadas a través de cables submarinos, transmiten las señales hasta estaciones costeras donde se reconstruyen y analizan las trayectorias de las partículas detectadas.

España forma parte de esta colaboración científica internacional a través, entre otros, del Institut de Física Corpuscular (IFIC), un centro mixto del CSIC y la Universitat de València. Allí trabaja la Doctora Rebecca Gozzini, investigadora distinguida del programa GenT de la Generalitat Valenciana y miembro del grupo VEGA (Valencia Experimental Group of Astroparticles). Su trabajo se centra en la búsqueda de materia oscura y en el estudio de fenómenos que no encajan dentro del modelo estándar de la física de partículas, la teoría que describe las partículas fundamentales conocidas y sus interacciones. Gozzini se unió a las colaboraciones ANTARES —precursora de KM3NeT— y KM3NeT en 2017. Desde entonces, ha liderado investigaciones pioneras, como la búsqueda de señales de materia oscura en el centro de la galaxia y estudios conjuntos con el telescopio IceCube —un observatorio de neutrinos instalado en el hielo antártico—. Actualmente, coordina el grupo de trabajo sobre materia oscura y física exótica en KM3NeT.

Durante siglos, la astronomía se ha basado en la observación de la luz emitida o reflejada por los cuerpos celestes. La llegada de telescopios como KM3NeT adentra a la astronomía en una nueva era de la exploración del cosmos, abriendo una ventana hacia los confines más oscuros y energéticos del universo, desvelando misterios que hasta ahora permanecían ocultos.

Empezando por lo básico, ¿por qué son interesantes los neutrinos cósmicos, en particular los de altas energías?
Desde hace algunas décadas, se realiza lo que se llama astrofísica de neutrinos. Esto significa que, para explorar el universo no sólo observamos la luz que llega del espacio. También analizamos otras señales, como los rayos cósmicos —partículas subatómicas que vienen del espacio exterior— y los neutrinos.

La astrofísica y astronomía centradas en el estudio de la luz se enfrentan a la dificultad de que los fotones —partículas de luz— pueden, en su camino a la Tierra, interactuar con polvo cósmico o, incluso, otros fotones. Esto provoca una pérdida de energía del fotón, lo que limita la capacidad de extraer información sobre su origen. 

En cambio, los neutrinos interactúan muy poco con la materia, con lo cual pueden viajar desde distancias muy lejanas, manteniendo su dirección y preservando intacta toda la información de su origen. El desafío es que los neutrinos interactúan muy débilmente, incluso con el detector mismo. 

En cuanto a la energía, al buscar neutrinos siempre encontramos algunos que vienen de la atmósfera terrestre. Son inevitables, pero sabemos muy bien cuántos de ellos esperar a distintas energías. A energías muy altas, simplemente no se espera que aparezcan neutrinos atmosféricos. Por eso, si detectamos un neutrino de energía muy alta, es seguro que su origen es cósmico, ya sea de nuestra galaxia o más allá.

«Si detectamos un neutrino de energía muy alta, es seguro que su origen es cósmico»

¿Cuál es ese origen cósmico de los neutrinos? ¿Se sabe cómo y dónde se producen?
Las fuentes de neutrinos se han comenzado a medir muy recientemente. De hecho, la primera fuente de neutrinos de muy alta energía fue identificada en 2017, por lo que hablamos de una disciplina muy nueva. Estas fuentes deben ser objetos astrofísicos capaces de acelerar partículas pesadas, como protones o núcleos, a energías extremadamente altas. Un ejemplo son los Núcleos Galácticos Activos (AGN, por sus siglas en inglés), objetos alimentados por el material que cae dentro de un agujero negro en el centro de una galaxia. Los AGN emiten “chorros” compuestos por fotones y otras partículas que pueden interactuar entre sí dando lugar a la producción de neutrinos.

También existe la hipótesis de los neutrinos de origen cosmogénico, es decir, que provienen de la interacción de rayos cósmicos con los fotones del Fondo Cósmico de Microondas —la luz más antigua observable en el universo—. Estos fotones son de energía muy baja, pero están presentes en todo el universo. Un rayo cósmico, como un protón acelerado, puede interactuar con estos fotones, desencadenando un proceso que culmina en la producción de neutrinos.

Entrando más en la parte experimental: generalmente, las partículas subatómicas se detectan porque, al atravesar un sensor, interactúan con la materia en él generando una corriente eléctrica que podemos medir. Si los neutrinos apenas interactúan con nada, ¿cómo los detecta KM3NeT?
Exactamente de la misma manera que otras partículas subatómicas, pero con una diferencia importante: la masa del detector debe ser gigantesca. En este caso, ¡todo el planeta! Lo que hacemos es colocar el detector en un medio natural transparente, ya que construir un volumen tan grande como un kilómetro cúbico sería imposible. En el caso de KM3NeT este medio es el mar Mediterráneo.

«Para detectar neutrinos, la masa del detector debe ser gigantesca. En este caso, ¡todo el planeta!»

De esta manera, el neutrino interactúa con un núcleo atómico, que puede ser de la roca, agua o cualquier otro material que forme parte del detector. El neutrino “golpea” este núcleo y, como resultado de la interacción, se crea una partícula cargada con una velocidad mayor a la de la luz en el agua, que es la que podemos detectar.

¿Cómo es eso de que la partícula cargada viaja más rápido que la luz en el agua?
La velocidad de la luz disminuye cuando la luz pasa a través de un medio. Por ejemplo, en el agua es más lenta que en el vacío, donde tiene su valor máximo. Cuando una partícula cargada cruza este umbral de velocidad  —siempre dentro de un medio, esto es imposible en el vacío—, se produce un fenómeno conocido como efecto Cherenkov. Lo que sucede es que la partícula cargada empieza a emitir luz, fotones, debido a un proceso de ionización del agua. Al ser fotones (luz), se mueven más lento que la partícula. Como resultado, los fotones forman una especie de cono alrededor de la partícula, algo similar a lo que sucede cuando un objeto rompe la barrera del sonido. Esta luz es lo que nos da la señal eléctrica que podemos medir con sensores sumergidos en el mar.

¿Qué condiciones necesitan esos sensores para poder detectar correctamente esa luz?
Es fundamental que los detectores se ubiquen en una zona completamente oscura para que no haya luz natural que pueda distorsionar las mediciones. Para lograrlo, se instalan a profundidades que alcanzan hasta 3,5 km bajo la superficie del mar, donde la oscuridad es total. Aunque existen otras fuentes de luz, como la bioluminiscencia marina y la radiación del potasio-40 presente en la sal del agua, pero estas pueden modelarse y eliminarse del análisis.

Adentrándonos ahora en el anuncio de la colaboración KM3NeT sobre la detección de un neutrino de ultra alta energía, ¿a qué se debe que esa observación sea tan especial?
Fue una observación inesperada, en el buen sentido. El detector aún no está completo, por lo que no se esperaba tener la suerte de registrar un evento de este tipo tan pronto. Sin embargo, como el detector es modular, puede empezar a recopilar datos mientras se siguen instalando nuevas partes. 

Lo que hace especialmente interesante a este neutrino es su energía extremadamente alta, estimada en 220 PeV. A energías tan elevadas la Tierra se vuelve opaca para los neutrinos, ya que la probabilidad de que interactúen con la materia aumenta. Sin embargo, este neutrino llegó con una trayectoria casi horizontal, atravesando una cantidad de roca y agua que fue suficiente como para bloquear otras partículas provenientes de la atmósfera, pero no tanta como para detener al propio neutrino. Esto nos permitió concluir con certeza que no solo se trataba de un neutrino, sino que este era el más energético jamás detectado y también la partícula elemental más energética jamás medida.

¿Qué sabemos de momento sobre el origen de este neutrino sin precedentes?
Una vez detectado, se intentó identificar su origen. Se investigó si podía asociarse con algún objeto astronómico conocido, pero no se encontró ninguna correlación concluyente. Se analizaron 17 blázares —un tipo de AGN— seleccionados en función de sus características astrofísicas y su posición en el cielo. Sin embargo, no se alcanzó el nivel de certeza estadística necesario para confirmar que alguno de ellos fuera el origen del neutrino.

Debido a esta falta de una fuente identificada, se exploró la posibilidad de que el neutrino tuviera un origen cosmogénico, es decir, que provenga de interacciones de rayos cósmicos con el fondo cósmico de microondas. No obstante, este análisis aún no es concluyente.

También se consideró la hipótesis de que el neutrino tuviera un origen dentro de nuestra galaxia, pero esta opción es altamente improbable. Su energía es demasiado alta para que haya quedado atrapado en la Vía Láctea y, además, no se detectó ninguna estructura en la región de su llegada que pudiera haberlo generado, como restos de supernovas o nubes moleculares.

Por ahora, la hipótesis más plausible es que su origen sea extragaláctico, aunque sin una fuente específica identificada en su dirección.

¿Podría ser que la fuente de este neutrino no sea ninguna de las que ya conocemos? Es decir, que exista otro tipo de fuente de neutrinos de alta energía que nuestros modelos actuales no contemplan.
Esta es una posibilidad que también estamos investigando: en lugar de que el neutrino adquiera su energía a través de un proceso de aceleración astrofísica —como ocurre en los AGNs o en explosiones estelares—, podría haber surgido de la desintegración de una partícula desconocida extremadamente masiva. Por ejemplo, de materia oscura superpesada. Esta sería una hipótesis alternativa al origen convencionalmente esperado para neutrinos de tan alta energía.

¿Es posible que se detecten otros neutrinos con esta energía o incluso más energéticos?
Sí, es posible medir más neutrinos de esta o de mayor energía, pero son descubrimientos fortuitos que no se pueden predecir. Nosotros trabajamos siempre con simulaciones y si te basas en esas simulaciones, este evento es realmente excepcional. Si lo comparas con el resto de neutrinos que hemos registrado en este tiempo, este claramente se sale de la media.

Aun así, existen modelos que predicen la existencia de neutrinos cosmogénicos con energías incluso mayores, de hasta 1000 PeV o más. Por otro lado, existen fuentes de neutrinos que no son estables en el tiempo. Estas, junto con ciertos otros fenómenos astrofísicos, son fenómenos extremadamente raros e impredecibles para los que hay que estar siempre listos y observando.

«Son fenómenos extremadamente raros e impredecibles para los que hay que estar siempre listos y observando»

Poniendo ahora la vista en el futuro, ¿cuáles son los próximos pasos para el telescopio KM3NeT?
Gracias a que los detectores son modulares, el telescopio ya está operativo mientras sigue expandiéndose. Una vez completo, el telescopio verá aumentado su volumen eficaz, lo que implica una mayor capacidad de detectar eventos, lo cual es fundamental para mejorar la precisión de las medidas.

Otro de los próximos pasos importantes para KM3NeT es avanzar en el desarrollo de alertas multimensajero. Estas alertas forman parte de una red global de colaboración entre distintos observatorios —incluidos telescopios ópticos, de rayos gamma, rayos X, radiotelescopios, detectores de ondas gravitacionales y detectores de neutrinos— que comparten información en tiempo real sobre eventos astrofísicos excepcionales. El objetivo es que, cuando uno de estos instrumentos detecta algo interesante, los demás puedan reaccionar rápidamente y observar ese mismo suceso astrofísico. Actualmente, KM3NeT ya recibe alertas de otros experimentos y está en proceso de implementar un sistema para poder enviar sus propias alertas. Esto se está desarrollando, en parte, en el grupo de investigación VEGA del IFIC. Aunque KM3NeT no puede «apuntar» a una zona del cielo como lo haría un telescopio convencional —porque sus sensores están fijos en el fondo marino—, su capacidad para detectar eventos inusuales y compartir esa información en tiempo real con el resto de la comunidad científica será clave para seguir construyendo una imagen más completa del universo.

Además de explorar el cosmos, ¿qué otros objetivos tiene KM3NeT?
KM3NeT también tiene otra función importante a través de su detector llamado ORCA, diseñado para detectar neutrinos atmosféricos y estudiar un fenómeno conocido como oscilación de neutrinos, un proceso que ya ha logrado detectar con un nivel de certeza altísimo. ORCA tiene un gran potencial para estudiar las propiedades de los neutrinos, ya que la enorme cantidad de datos obtenidos permiten medir una gran variedad de efectos, lo que abre la puerta a nuevos descubrimientos sobre estas partículas.

«El futuro de KM3NeT es muy prometedor y abarca un amplio rango de investigaciones científicas»

En definitiva, KM3NeT no solo es y será un telescopio para la observación del cosmos, sino también un instrumento clave para estudiar las propiedades fundamentales de los neutrinos. Su futuro es muy prometedor y abarca un amplio rango de investigaciones científicas.

María Miralles Buleo, biotecnóloga: «Los nanomotores serán el tratamiento del futuro en cáncer»

La investigadora del IDM-UPV de Valencia desarrolla su tesis doctoral en un prometedor enfoque con nanodispositivos con liberación controlada de fármacos para el tratamiento de tumores sólidos, los cuales resultan difíciles de tratar con las terapias convencionales

Al igual que muchos otros científicos en España, la investigadora María Miralles Buleo está convencida de la importancia de su trabajo en biomedicina para contribuir a la sociedad. A través de su tesis, está centrando sus esfuerzos en la lucha contra el cáncer, concretamente, contra los tumores sólidos. Así, Miralles contribuye actualmente al desarrollo de una bioingeniería revolucionaria de diminuto tamaño: los nanomotores. A las órdenes del Profesor Ramón Martínez Máñez, —catedrático en Química Inorgánica por la Universitat de València—, Miralles trabaja en la innovación y desarrollo de esta tecnología de vanguardia, para así ofrecer nuevos enfoques en el tratamiento contra el cáncer más allá de las terapias convencionales.

Primer plano de la entrevistada.
María Miralles Buleo, doctoranda e investigadora en nanomedicina en el Centro de Investigación Príncipe Felipe de Valencia. Imagen cedida por la entrevistada.

María Miralles Buleo es graduada en Biotecnología por la Universidad Católica San Vicente Mártir de Valencia con especialización en inmunología. Actualmente está desarrollando su tesis doctoral en el Instituto Interuniversitario de Investigación de Reconocimiento Molecular y Desarrollo Tecnológico (IDM-UPV), en la unidad mixta de Nanomedicina entre la Universitat Politècnica y el Centro de Investigación Príncipe Felipe de Valencia.

¿Cómo es exactamente una nanopartícula desarrollada por el IDM-UPV y para qué se utiliza?

Una nanopartícula es un material extremadamente pequeño, de la escala nanométrica, es decir, lo que equivale dividir un metro en un billón de partes. ¡Es incluso más pequeño que una bacteria! Este material tiene toda una serie de propiedades especiales; en nuestro caso, presenta poros en su estructura que pueden ser cargados con sustancias que nos interesen, como fármacos. Además, una nanopartícula es «funcionalizable», lo que significa que puedes modificar su superficie para adaptarla a diversas aplicaciones. La nanotecnología permite un abanico inmenso de posibilidades en biomedicina, como ocurre con el diagnóstico de enfermedades mediante biomarcadores, pero también para otras áreas como la biorremediación, para combatir la contaminación en el medioambiente, o en microbiología, para destruir los biofilms, que son recubrimientos de proteínas y azúcares que generan las bacterias para protegerse a sí mismas. Las nanopartículas pueden diseñarse para degradar estos biofilms y liberar medicamentos en los lugares de infección.

Y, ¿qué es un nanomotor? ¿En qué se diferencia de una nanopartícula?

Un nanomotor, a diferencia de una nanopartícula, puede moverse de forma activa gracias a un «combustible» o fuente de energía. En el IDM-UPV diseñamos nanomotores que responden a diferentes combustibles, como la luz de un láser, el magnetismo o reacciones enzimáticas, que acaban generando movimiento por el calor o el oxígeno generados, por ejemplo.

¿En qué consiste su investigación y tesis sobre nanomotores para el tratamiento del cáncer?

A través de mi tesis estoy trabajando con tumores de cáncer de mama triple negativo, generadores de matriz extracelular, que son muy agresivos y difíciles de erradicar. Podemos decir que los tumores de este tipo son muy «inteligentes» porque crean un microambiente a su alrededor que les permite crecer sin control. Esta matriz es un conjunto de proteínas de origen tumoral que obstruyen los vasos sanguíneos del tumor y le protege tanto de nuestro propio sistema inmune como de los fármacos antitumorales. Mi tesis consiste en diseñar nanomotores capaces de «taladrar» o derribar esa barrera para mejorar la liberación de fármacos en el interior del tumor y así erradicarlo más eficazmente. Para ello utilizo dos nanodispositivos —un nanomotor y una nanopartícula— que trabajan conjuntamente. Primero, el nanomotor, que va propulsado por un láser, está recubierto con una enzima, —la «colagenasa»—, degrada la matriz tumoral. Después, una vez el nanomotor ha perforado la matriz, una nanopartícula porosa actúa como portadora del fármaco para así liberarlo en el interior del tumor. Es una nueva manera de hacer medicina, el futuro del tratamiento en cáncer.

Se observan dibujos de la estructura del tumor y la intervención de los binomios de nanomotores con nanopartículas para erradicarlo. El proceso se desarrolla en dos pasos.
Esquema explicativo de la investigación y tesis llevada a cabo por la entrevistada. Ilustración creada y cedida por la entrevistada.

«Mi tesis se centra en diseñar nanomotores capaces de derribar el “armazón que protege a los tumores” (…). Es una nueva manera de hacer medicina, el futuro del tratamiento en cáncer»

Entonces, ¿cómo consiguen que los nanomotores lleguen hasta los tumores? ¿Cómo les indican hasta dónde tienen que ir?

Los nanomotores pueden emplearse para tratamientos dirigidos y liberación controlada de fármacos en el sitio específico de la dolencia. No utilizamos nada que tenga que ver con un GPS ni nada parecido, sino que nos aprovechamos de las características biológicas del propio cáncer para debilitarlo. En el caso concreto de un tumor sólido, se da un fenómeno denominado «efecto de permeabilidad y retención mejoradas», que permite que las nanopartículas se acumulen de forma natural en los vasos sanguíneos dañados en el entorno del tumor. Asimismo, en lugar de introducirlos en sangre, existe la posibilidad de inyectar los nanomotores directamente en los tumores para favorecer concentraciones más altas y mejorar su eficacia.

¿Cómo se trata el cáncer actualmente? ¿Qué ventajas ofrecen los nanomotores sobre los tratamientos convencionales?

Las terapias convencionales son principalmente la quimioterapia, radioterapia y cirugía. Aunque son muy efectivas, cuentan también con limitaciones, como la alta toxicidad y la falta de especificidad. Por su parte, los nanomotores pueden liberar fármacos directamente en el tumor, reduciendo los efectos secundarios y mejorando la eficacia de los tratamientos.

Se observa a la entrevistada manipulando una pipeta eléctrica para cambio de medio de un cultivo de células. La manipulación la lleva a cabo dentro de una cabina de flujo para mantener la esterilidad del medio.
La entrevistada trabajando en una cabina de flujo laminar para los experimentos de su tesis. Imagen cedida por la entrevistada.

Y, ¿cuáles son las limitaciones de estos tratamientos con enfoque nanomédico?

Por ahora este tipo de nanopartículas todavía no han llegado a pacientes humanos; solo se han probado en modelos animales, concretamente, en ratones. Por su parte, falta por resolver algunas cuestiones sobre su toxicidad y su acumulación en algunos órganos, como los pulmones. Nuestro grupo está trabajando en enfoques más biocompatibles, como las vesículas lipídicas, más próximas a ser probadas en humanos.

¿Cómo fabrican los nanomotores y contra qué tumores actúan?

En general, pueden diseñarse nanomotores para casi cualquier tipo de enfermedad gracias a su enorme versatilidad. Los sintetizamos nosotros mismos en el laboratorio de química mediante reacciones ya conocidas; es un proceso relativamente sencillo. Con el tiempo, se producirán en mayor escala, aunque trabajar en la «nanoescala» es todo un desafío. El nanomotor con el que trabajo está diseñado específicamente para el cáncer de mama triple negativo, que presenta una abundante matriz a su alrededor. Sin embargo, podría aplicarse a otros cánceres generadores de matriz, como son el cáncer de páncreas, —uno de los más letales—, y la fibrosis.

«Invertir en nanomedicina convertiría a España en un referente en este tipo de tratamientos de vanguardia»

Imágenes de la investigadora y el laboratorio de química del IDM. Se ven las bancadas con todo el instrumental y utensilios de trabajo.
Imágenes de la entrevistada y el laboratorio de química del IDM-UPV en el que está desarrollando su tesis. Imágenes cedidas por la entrevistada.

¿Por qué diría que es importante invertir en investigación en nanomedicina y nanomotores en la actualidad?

Porque estas son las terapias del futuro. Ahora mismo, la investigación en biomedicina se dirige hacia las coordenadas de la «medicina personalizada», es decir, una medicina hecha a la medida de cada paciente, creando tratamientos cada vez más efectivos, específicos y seguros. La nanotecnología aplicada a biomedicina, en concreto, nos permite abordar directamente las dianas moleculares y disminuir los efectos secundarios de los fármacos, aunque todavía nos queda un largo camino por recorrer. Creo sinceramente que esta tecnología revolucionará el modo en el que entendemos la medicina en los próximos años. Cuanto más invirtamos en nanomedicina, antes podremos trasladarla a humanos. Los resultados en modelos animales que hemos obtenido hasta ahora en el IDM-UPV son realmente prometedores. Invertir en esta tecnología convertiría a España en un referente en este tipo de tratamientos de vanguardia.

Científicos del IDiBE estudian el potencial de la nanotecnología combinada con compuestos vegetales para combatir a las bacterias resistentes a los antibióticos

Investigadores del Instituto de Investigación Desarrollo e Innovación en Biotecnología Sanitaria de Elche (IDiBE) publican una revisión sobre el potencial de la nanotecnología combinada con compuestos vegetales para tratar las infecciones resistentes a los antibióticos tradicionales. Desde el IDiBE afirman inversión en este campo será fundamental para afrontar la futura pandemia por resistencias a antibióticos.

La Organización Mundial de la Salud (OMS) ya ha catalogado la resistencia a antibióticos como una de las 10 principales amenazas de salud pública a las que se enfrenta la humanidad. Los estudios estadísticos sobre salud pública confirman la tendencia ascendente de muertes por esta causa a nivel global.

Cultivo de Staphylococcus aureus visto a través de microscopio electrónico. Fuente: Wikipedia.

Las cifras son alarmantes. Según el reconocido Informe O’Neill, publicado en 2016 por el Instituto Nacional de Salud de Reino Unido, habrá más muertes por infecciones bacterianas que por cáncer para el año 2050, con 10 millones de fallecidos por esta causa. Asimismo, la revista The Lancet ha cifrado en 1,27 millones de muertes por infecciones multirresistentes durante el 2019, reforzando así la previsión realizada por el Informe O’Neill.

Mientras tanto, centros de investigación como el IDiBE poseen su propia línea de estudio sobre antimicrobianos para combatir esta pandemia. Dentro del grupo de Investigación de Diseño y Desarrollo de Moléculas Bioactivas, el profesor Enrique Barrajón Catalán ha sido uno de los autores de un artículo que recoge los esfuerzos que se han realizado hasta la fecha para aunar nanotecnología y fitoquímicos, es decir, sustancias químicas de origen vegetal con un prometedor potencial antimicrobiano.

Esta revisión exhaustiva resalta el enorme desconocimiento a día de hoy sobre la variedad y potencial de la mayoría de las moléculas bioactivas vegetales, como ocurre con los polifenoles, entre otros. Estas sustancias con probada capacidad antibacteriana precisan que su actividad sea potenciada encapsulándolas en el interior de nanofibras y nanopartículas.

Abstract gráfico de la revisión realizada por el IDiBE. Fuente: artículo publicado.

Así, los nanomateriales permiten salvar las limitaciones farmacocinéticas y la baja disponibilidad de fitoquímicos como la curcumina. De esta manera, la nanotecnología provee a los fitoquímicos de una mayor estabilidad, convirtiéndose así en un binomio con grandes posibilidades para el tratamiento de infecciones bacterianas.

La revisión destaca el quitosano, un polímero de origen natural para crear nanopartículas, con alta biocompatibilidad, biodegradable y con capacidad de ser originado por «síntesis verde» (un proceso de fabricación que minimiza la cantidad de residuos derivados y el peligro para el medioambiente).

La combinación de nanotecnología y fitoquímicos promete resultados positivos, aunque es preciso «seguir investigando sobre sus mecanismos de acción, evaluar la seguridad y toxicidad de estos binomios y continuar hacia la etapa de estudios in vivo», señalan en las conclusiones de la revisión del IDiBE. A este respecto, el grupo posee otra línea de investigación de nuevos fitoquímicos para el tratamiento de infecciones multirresistentes, con varios extractos vegetales prometedores para la creación de nuevos antibióticos y patentes de diferentes combinaciones sinérgicas.

Fotografía de la familia de las jaras, una de las especies de arbustos en estudio. Fuente: Ecología Verde.

Asimismo, el grupo de Barrajón trabaja con arbustos del género Cistus, comúnmente conocidos como cistáceas o jaras. El grupo se ha especializado en la extracción, caracterización y optimización de los compuestos bioactivos de estas jaras para luego someterlos a estudios de actividad antimicrobiana. Esta investigación se ha realizado en colaboración con los servicios de microbiología del Hospital de Alicante y el Hospital de Elche, probando que estos fitocompuestos funcionan óptimamente en infecciones por Staphylococcus aureus resistente a meticilina. De hecho, esta es una de las bacterias más problemáticas actualmente, gran protagonista de las infecciones nosocomiales (es decir, las que se contraen en el entorno hospitalario, como ocurre durante las cirugías o a través del uso de catéteres).

Esta revisión se ha realizado en paralelo a dos tesis doctorales sobre el diseño de nanoestructuras con la mayor capacidad de encapsulación posible y la selección de los fitoquímicos idóneos con actividad antimicrobiana.

La revisión mencionada se ha publicado en la revista Polymers y cuyo autor principal ha sido el profesor Ricardo Mallavia Marín, que se encuentra a la cabeza del grupo de Diseño y Validación de Nanobiomateriales del IDiBE.

Científicos de la Universidad de Texas El Paso construyen imágenes 3D de la arteria carótida

Mediante resonancia magnética, los Investigadores del Laboratorio de Fisiología Clínica Aplicada, CAPh Lab por sus siglas en inglés, en la Universidad de Texas El Paso pudieron construir imágenes en 3D de la arteria carótida. Esta innovadora metodología permite investigar el flujo sanguíneo a través de la visualización y medición de la geometría vascular, elementos clave para reconocer el riesgo de accidentes cerebrovasculares. El estudio, publicado en la revista Bioengineering, es en si pequeño pero plantea grandes preguntas que sugieren futuras direcciones en el análisis de flujo sanguíneo para así comprender mejor la dinámica de esta parte crucial del sistema circulatorio.

Según el Centro para el Control y la Prevención de Enfermedades (CDC) de Estados Unidos, casi 800.000 personas en Estados Unidos sufren un derrame cerebral cada año. De estos, cerca del 90% fueron accidentes cerebrovasculares isquémicos, en los que se bloquea el flujo sanguíneo al cerebro. Debido a la prevalencia y el impacto de estos eventos, la investigación sobre la dinámica del flujo sanguíneo en la arteria carótida, la que transporta sangre al cerebro, es imperativa para comprender y predecir estos eventos potencialmente incapacitantes. El CAPh Lab de la Universidad de Texas El Paso hace precisamente eso, busca comprender esta dinámica inmensamente compleja y estudiar cómo el ejercicio podría evitar o disminuir la evolución de los factores de riesgo. Dr. Alvaro N Gurovich, Director del Departamento de Fisioterapia y Ciencias del Movimiento e Investigador Principal del CAPh Lab, apunta que “Estos estudios son para encontrar respuestas en la prevención y tratamiento de accidentes isquémicos como el infarto cardíaco y los accidentes vasculares encefálicos. Los hallazgos de este estudio específico más los hallazgos anteriores podrían ayudar a tratar esta patología más eficientemente.”

Al crear una sección transversal de las áreas de interés del modelo 3D, los investigadores obtuvieron mediciones precisas de las partes de la arteria donde el flujo sanguíneo puede verse alterado o perturbado, concretamente el área donde se bifurca la carótida. Aunque el estudio fue bastante pequeño, con sólo 20 participantes en total, esta metodología no invasiva permite estudiar áreas clave de una arteria cuya obstrucción puede ser catastrófica. 

El artículo resalta entre sus resultados el mayor tamaño de la bifurcación en hombres que en mujeres, pero afirma que al ser similar la presión local sanguínea pueden haber otros factores que se deben estudiar y es necesaria una población de estudio más grande y diversa para proponer relaciones entre patrones en la geometría de la carótida por factores demográficos y tratamientos o diagnósticos diferenciados. 

De la investigación geométrica a la evaluación del riesgo

Un factor importante de riesgo de accidente cerebrovascular isquémico es la acumulación de grasa y colesterol que crean un estrechamiento de la vía sanguínea,  patología denominada aterosclerosis. Actualmente, se suele usar un angiograma para ver si los vasos sanguíneos están estrechados o bloqueados, pero el método utilizado en este estudio sugiere nuevas fronteras. Los angiogramas son algo invasivos, ya que requiere el uso de tintes químicos inyectados en el torrente sanguíneo que pueden ser rastreados por una máquina de rayos X, pero el método presentado por el CAPh Lab elimina la necesidad de químicos que pueden causar problemas para el paciente.

Aunque los participantes en el estudio no mostraron signos de aterosclerosis, este estudio y otros realizados por el laboratorio sugieren que podría haber formas alternativas de modelar la geometría de estas arterias críticas. En general, este estudio constituye una valiosa aportación a un conjunto más amplio de investigaciones sobre el complejo sistema que afecta el riesgo de sufrir una apoplejía y la salud cardiovascular.

De cara al futuro, el CAPh Lab busca estudiar más dinámicas a escala molecular de las arterias e integrar la inteligencia artificial en el análisis de modelos 3D como los creados para esta investigación. El análisis de la geometría local, junto con la investigación del flujo sanguíneo, podría ayudar a comprender cómo las células utilizan los estímulos locales para enviar señales a otras partes del cuerpo, un proceso también llamado mecanotransducción, que está relacionado con la lucha contra la aterosclerosis.

A Decade On: Challenges in EU Maritime Spatial Planning

A study reveals the difficulties of global coordination amid diverse national strategies and highlights the challenge of balancing ecosystem protection with the blue economy.

Fourteen researchers working from twelve European countries have analysed how twenty-two EU countries have implemented the Maritime Spatial Planning Directive, adopted by the EU in 2014. Although the Directive has helped many member states develop maritime spatial plans, the sheer diversity of them and their approaches gave rise to challenges in the process.

The research, published in Marine Policy, points out that the Directive provides a common framework that allows each country to design plans in line with their own traditions and administrative structures, national and regional. However, this has led to plans with different objectives that are often difficult to reconcile withing the country, at the sea basin level and with non-EU neighbours. As Leila Neimane, one of the authors of the study, indicates: “This diversity [in national approaches] reflects local needs and traditions, while it has also created coordination problems”.

This map shows if a country has one or more maritime spatial plans. Most of the countries have several plans to adapt to their administrative structures and regional traditions. Source: European MSP Platform.

Apart from reviewing those twenty-two countries’ plans, the researchers surveyed EU competent maritime spatial planning authorities, including maritime spatial planners, to find out what the most recent and common challenges are. One of them is how to keep a balance between environmental conservation and the development of the blue economy (the economic activities associated with the ocean, seas, and coastal regions).

Related to this, the researchers highlight the importance of keeping the adaptative approach as the energy crisis and climate change make countries more aware of offshore renewable energies’ capabilities. Researcher Neimane indicates that adaptation “will be very important because we will face new energy and climate-related pressures in the coming years”.

According to her, “equally important is to assess the social and societal benefits and costs”. Although the Directive requires to consider and to balance economic, environmental, and social needs, ensuring fair representation remains a challenge. Moreover, the analysis notices that some concepts like social sustainability and cultural values can be abstract and difficult to translate into planning policies.

Regarding coherence and other recent challenges of maritime spatial planning, the research shows that there are some aspects that might improve the current situation. For example, the availability of full plans in a common language and data sharing would favour participation and learning from other countries’ processes.

Altogether, the study shows that the implementation of the EU Maritime Spatial Planning Directive has helped countries to create and/or further develop plans that are already pointing out what to improve and will be the basis for future adjustments.

You can check out each country’s plans at the European Maritime Spatial Plan Platform web page.

Un estudio español propone un tratamiento que podría reducir el daño cerebral por ictus

El estudio sugiere que la inhibición de la enzima AMPK mediante pequeñas vesículas extracelulares podría ofrecer una nueva vía terapéutica contra el ictus isquémico

Alrededor de 120.000 personas sufren un ictus cada año en España y aproximadamente 25.000 mueren a causa de ello, según datos del Ministerio de Sanidad. La incidencia de esta enfermedad es mayor en personas de más de 55 años, por lo que el envejecimiento en curso de la población resultará en un aumento de los casos. No obstante, la edad no es el único factor de riesgo. De hecho, en los últimos años ha habido un aumento del 40% en la incidencia de ictus en adultos jóvenes. Ante esta realidad, el desarrollo de tratamientos que reduzcan sus secuelas tiene el potencial de mejorar la calidad de vida de millones de personas en el mundo. La investigación realizada por grupos del Instituto de Investigación Sanitaria de Santiago y del Centro Singular de Investigación en Medicina Molecular e Enfermidades Crónicas (Santiago de Compostela) va en esta dirección. Si bien aún está en fase experimental, los resultados son prometedores: los roedores tratados experimentaron una reducción del 70% en el tamaño de su lesión cerebral, lo que supuso una clara mejoría en sus capacidades sensoriales, motoras y neurológicas.

El estudio, publicado recientemente en la revista Metabolism, señala que la clave de esta terapia pionera es la inhibición de la enzima AMPK, una molécula que detecta las necesidades energéticas de las células y regula su metabolismo. El agente inhibidor se administra por medio de pequeñas vesículas extracelulares (sEVs, por sus siglas en inglés) de estructura membranosa y tamaño nanométrico. Estas vesículas actúan como pequeños receptáculos naturales capaces de transportar en su interior variedad de componentes celulares. Esto las convierte en una pieza importante de la comunicación celular y en una herramienta efectiva para la administración dirigida de fármacos o moléculas terapéuticas.  

Cabe aclarar que, aunque la estrategia ha demostrado eficacia en modelos animales, aún quedan años de investigación antes de que pueda evaluarse en humanos. Según estimaciones, las pruebas clínicas podrían tardar entre 5 y 8 años en comenzar. Alberto Ouro Villasante, autor principal del estudio, advierte que “es difícil predecir con exactitud los plazos”. Factores como el acceso a financiación, la aprobación regulatoria y los avances tecnológicos “podrían acelerar o ralentizar este proceso”.

La elección de una terapia que pretende regular la enzima AMPK no fue azarosa, se basa en un fenómeno conocido como la “paradoja del fumador”. Se ha observado que quienes fuman pueden tener mejores tasas de recuperación tras un ictus isquémico. Es importante resaltar que esto no significa que fumar sea beneficioso. Por el contrario, el tabaquismo es uno de los factores de riesgo principales de ictus. A través de esta investigación, fue posible demostrar que el efecto neuroprotector del tabaco radica en la nicotina. Los riesgos a la salud asociados a esta substancia hacen que su uso clínico sea inviable. De aquí surge el interés por comprender cuáles son los mecanismos detrás de esta neuroprotección.

Estudios anteriores parecían indicar un vínculo entre la nicotina y la inhibición de la enzima AMPK. Para demostrar esta relación, el equipo administró nicotina y un compuesto activador de la enzima AMPK (AICAR) a roedores. Los efectos neuroprotectores observados gracias a la nicotina desaparecieron. Este resultado confirmó la hipótesis de que la reducción de daño cerebral asociada a la “paradoja del fumador” se debía a la inhibición de la enzima AMPK. Impulsados por emular dicho efecto, evitando los riesgos de la nicotina, este grupo desarrolló esta terapia pionera con sEVs, para la cual ya han solicitado el registro de una patente.

De momento los resultados son alentadores, pero aún quedan muchos desafíos para su aplicación en humanos. Desde garantizar su seguridad, eficacia y escalabilidad hasta evaluar posibles efectos adversos a largo plazo. Uno de los primeros pasos es probar la terapia en modelos más representativos de la población afectada. Mientras que los ensayos preclínicos publicados fueron realizados en animales jóvenes, “la mayoría de los pacientes que sufren un ictus son personas mayores con comorbilidades, lo que puede influir significativamente en la eficacia de cualquier terapia neuroprotectora”, subraya Ouro Villasante. Es por ello que futuros estudios incluirán modelos más representativos.