La neurobiología sueña con generar neuronas

Los neurocientíficos plantean la posibilidad de convertir las células más abundantes del sistema nervioso en neuronas gracias a los avances en medicina regenerativa.

El descubrimiento de las células madre plutipotentes inducidas, capaces de formar cualquier tipo de célula, ha supuesto una revolución. Los investigadores pueden convertir una célula epitelial en una neurona mediante reprogramación celular. Estos avances se expusieron el pasado mes de marzo en la conferencia “¿Es posible reparar el cerebro humano?” a cargo de Isabel Fariñas, catedrática en el Departamento de Biología Celular, Biología Funcional y Antropología Física de la Universitat de València.

Cartel de la conferencia “¿Es posible reparar el cerebro humano?
© ciudadartesyciencias. (05 de marzo de 2020). Conferencia «¿Es posible reparar el cerebro humano?«. [Archivo de vídeo]. Recuperado de https://www.youtube.com/watch?v=31oG1eCQNh4

Isabel Fariñas ilustró la complejidad del cerebro humano mediante una comparativa: el número de estrellas en la Vía Láctea y el número de neuronas contenidas en un órgano de tamaño limitado, ambas son del mismo orden de magnitud. El cerebro se revela como una inmensa red, ya que cada neurona establece 10.000 contactos, aunque, a su juicio: «Los neurocientíficos no comprendemos aún cómo funciona».

Presentación comparativa entre la Vía Láctea y el cerebro humano.
© ciudadartesyciencias. (05 de marzo de 2020). Conferencia «¿Es posible reparar el cerebro humano?». [Archivo de vídeo]. Recuperado de https://www.youtube.com/watch?v=31oG1eCQNh4

¿Qué sucede en el cerebro ante una enfermedad neurodegenerativa?

El cerebro concentra las células madre neurales en dos regiones diferenciadas y restringidas. En las enfermedades neurodegenerativas mueren muchas neuronas en distintas partes del cerebro. «En el Parkinson sabemos qué neuronas se mueren inicialmente, las neuronas dopaminérgicas», apuntó la catedrática. «La dopamina es una sustancia implicada en la regulación de los circuitos que determinan la coordinación de nuestros movimientos», aclaró al auditorio. Cuando un paciente muestra los primeros síntomas, el 80% de sus neuronas dopaminérgicas están muertas, por lo que la estrategia neuroprotectora resulta inútil y la estrategia farmacológica retrasa pero no detiene la enfermedad.

La investigadora describió cómo durante el desarrollo embrionario se observa una estructura formada por un total de doce células denominada masa celular interna (MCI) que dará lugar a todas las células del organismo. Las células de la MCI pueden producir cualquier tipo celular, es decir, son pluripotentes.

El científico japonés Shinya Yamanaka quiso averiguar qué las hacía pluripotenciales. Trabajó con cultivos de células epiteliales e introdujo una combinación de cuatro genes, actualmente llamado cóctel de Yamanaka, que convirtió a las células de la piel adultas en células similares a las embrionarias. Las denominó células madre pluripotentes inducidas, más conocidas como células iPS. ¿Qué significa todo esto? Se desmonta un dogma de la biología del desarrollo y el descubrimiento de Yamanaka permite que los científicos conviertan un tipo de célula en otro. Sus investigaciones le valieron el Nobel de Medicina en 2012.

Tal y como explica la experta, los neurobiólogos contemplan la posibilidad de una reprogramación directa de astrocito a neurona. Los astrocitos son las células mayoritarias en el cerebro, en una proporción 5:1 frente a las neuronas y no mueren en ninguna enfermedad neurodegenerativa que se conozca. «Se ha hecho en ratones mediante terapia génica», pero insiste Fariñas: «Es una vía futura».

Isabel Fariñas en un momento de la conferencia.
© ciudadartesyciencias. (05 de marzo de 2020). Conferencia «¿Es posible reparar el cerebro humano?». [Archivo de vídeo]. Recuperado de https://www.youtube.com/watch?v=31oG1eCQNh4

El cerebro adulto sigue produciendo neuronas

Según matizó la investigadora, «cuando un niño nace ya tiene el contingente de neuronas con el que va a vivir toda la vida». Esta fue durante décadas la idea predominante, se pensaba que «no había nuevas neuronas en cerebros post-natales», especificó Fariñas.  «Ahora sabemos que no es así», señaló. ¿Pero cómo se ha llegado hasta este hallazgo? La respuesta se encuentra en las aves.

Argentina, 1984. Se demuestra que es posible la adición de nuevas neuronas en un cerebro adulto. Los machos de las aves canoras cortejan a las hembras mediante el canto, se descubre que en determinadas áreas codificadas para dicha función «cada primavera bajo el efecto de la testosterona miles de neuronas morían y se generaban nuevas», ejemplificó Fariñas durante la ponencia. Y añadió que este proceso permitía al macho aprender una nueva canción distinta a la anterior: «Es como la canción del verano pero en pájaros», bromeó Fariñas.

Pero… ¿qué hay de los humanos?

El organismo está formado sobre todo por carbono, y nuestros átomos están en equilibrio con el carbono de la biosfera. El isótopo de carbono más abundante es el C12, pero existe un isótopo radiactivo en mucha menor proporción, el C14.

La historia reciente del siglo XX nos deja un aumento en los niveles, habitualmente bajos, de C14 en la atmósfera provocado por los múltiples ensayos de bombas nucleares en superficie que se realizaron durante la Guerra Fría, narró la experta.

Las células no distinguen entre C12 y C14 y los incorporan indistintamente en la construcción de estructuras como el ADN, siempre manteniendo el equilibrio con la biosfera. Un equipo de investigadores de Estocolmo dedujo que «si una neurona naciese en uno de estos años incorporaría en su ADN, antes del momento de nacer, la proporción del C14 que estaba ese año en la atmósfera», explicó Fariñas. Por lo tanto, se podía datar el nacimiento de una neurona, se demostró la neurogénesis adulta en humanos. «Todavía hay debate abierto», insistió Fariñas y aún existen interrogantes sin resolver en este campo.

Coloquio final. Lucía Coll Peinado

Los grandes logros y avances de la humanidad como especie son indicativos de una inteligencia extraordinaria y es la cooperación social de esas inteligencias la que permite dichos avances. «El cerebro sustenta nuestra parte emocional, no solo la parte de cognición e intelectualidad pragmática», recordó la conferenciante. Ante una enfermedad neurodegenerativa no solo se pierden neuronas y capacidades: «También perdemos nuestra propia identidad», apuntó Fariñas. «Todo lo que somos es nuestro cerebro», sentenció la catedrática.

Un estudio asegura que los medios de comunicación son críticos en la lucha contra las prácticas pseudocientíficas

 El artículo analiza los principales medios generalistas con mayor audiencia online: El País, El Mundo, La Vanguardia y ABC

Investigadores de la Universidad de Murcia (UMU) aseguran que los medios de comunicación (MM.CC) muestran un posicionamiento crítico en las noticias relacionadas con aquellas prácticas y terapias carentes de evidencia científica.  Esta investigación, publicada en la Revista Española de Comunicación en Salud (RECS), analiza aquellas noticias, relacionadas con las falsas ciencias o fake sciences, publicadas por los principales medios con mayor audiencia en Internet: El País, El Mundo, La Vanguardia y ABC. El objetivo principal de este estudio es determinar el tratamiento informativo que los MM.CC realizan en relación a estas prácticas.

A pesar de ese posicionamiento crítico, La Vanguardia defiende las pseudociencias en un 16% del total de sus noticias. Algunos ejemplos de este tipo de noticias son las entrevistas al Nobel de Matemáticas Luc Montagnier, dónde defiende que la base científica de la homeopatía se ignora porque molesta a la economía, o Mario Moncayo, un licenciado en Medicina que dirige su propio instituto de investigación en Ecatepec (México) y se posiciona en contra de los transgénicos.

Por otro lado, la pluralidad de fuentes es otra de las principales características en más de la mitad de las piezas publicadas por los medios generalistas, contando con más voces de expertos que de políticos. “La posibilidad de contar con una gran diversidad de fuentes confiere un importante plus de calidad a la información en todos los diarios”, afirma José Antonio Sánchez-Hernández, uno de los principales autores de la investigación. 

En cuanto al punto de vista desde el que se tratan las informaciones sobre pseudociencias, se aborda principalmente como una problemática social relacionada con las consecuencias negativas para la salud de la población, la necesidad de llevar a cabo una ardua regulación por parte de los poderes públicos, el uso fraudulento de estas prácticas con un claro objetivo de obtener beneficios engañando a los pacientes, el deber de los profesionales de la salud de respetar el código deontológico y de no recomendar estos tratamientos, y la obligación de emprender acciones encaminadas a la alfabetización científica de la sociedad y el empoderamiento de los pacientes. 

Por otro lado, los resultados arrojan que cuando los medios generalistas españoles abordan la temática de las pseudociencias lo hacen, sobre todo, mediante piezas informativas individuales exceptuando El País que adquiere un mayor compromiso a través de la inserción de editoriales de forma regular. “Se trata del único diario en el que hemos detectado información en formato de opinión o entrevista, en un ejercicio de responsabilidad al posicionarse contra la permisibilidad de los poderes públicos con las pseudoterapias”, señala Sánchez-Hernández. 

Por último, en cuanto a la distribución específica por cada uno de los medios, La Vanguardia es el que más informaciones sobre pseudociencia incluye en secciones distintas (47%). Por el contrario, destaca El País por insertar el 59% de las informaciones de esta temática en la sección “Ciencia”, ABC incluye el 60% en “Sociedad y vida”, y El Mundo ubica el 57% en la sección “Salud” (57%). Este hecho indica que los diarios no tienen una sección única para publicar este tipo de informaciones, sino que estas son distribuidas en distintas secciones. 

La proteína SIRT1 podría ser clave en el desarrollo de tratamientos contra la enfermedad de Parkinson

Los científicos del grupo Park, equipo de investigación del Departamento de Bioquímica y Biología Molecular y Genética de la Facultad de Enfermería y Terapia Ocupacional de la Universidad de Extremadura y CIBERNED, han apuntado a la modulación de la actividad deacetilasa de la proteína SIRT1, que contribuye a la regulación y a la longevidad celular, como diana para el diseño de tratamientos que combatan la enfermedad de Parkinson en aquellos pacientes en los que su causa se desconoce. Lo esencial de esas terapias es que ralentizarían o incluso detendrían el avance de la enfermedad.

El tratamiento para estos pacientes cuya enfermedad de Parkinson tiene un origen indeterminado consistiría en alcanzar un nivel basal de mitofagia suficiente mediante la potenciación de la actividad deacetilasa de la proteína SIRT1, explica Sokhna M. S. Yakhine-Diop, doctora en Bioquímica y Biología Molecular y Genética por la Universidad de Extremadura y autora principal del paper de la investigación. La posibilidad de dicha terapia es gracias al estudio del mecanismo molecular de la enfermedad de Parkinson. “Así, podemos hallar vías de señalizaciones que se encuentran modificadas en las células de los pacientes y diseñar fármacos que actúen específicamente sobre esos puntos”, indica Yakhine-Diop.

SIRT1 es una proteína que regula el proceso celular de la mitofagia, una forma de autofagia selectiva. La autofagia consiste en la degradación y reciclaje de aquellas proteínas que no se usan, que están defectuosas y de aquellos orgánulos celulares que están dañados. La mitofagia es la degradación y reciclaje selectivos de las mitocondrias, orgánulos celulares que se encargan de suministrar la mayor parte de la energía necesaria para la actividad celular. Tanto la autofagia como la mitofagia están alteradas en las células de los pacientes de Parkinson.

SIRT1 pertenece al grupo de las proteínas histonas deacetilasas. Estas proteínas se encargan de deacetilar, es decir, de eliminar de las estructuras proteicas una molécula denominada grupo acetilo. Las proteínas histona acetiltransferasas se encargan, por su parte, de acetilar, de añadir esos grupos acetilo. La acetilación y la deacetilación son reacciones químicas que modifican las proteínas e influyen en sus actividades y funciones.

La mayoría de los casos de enfermedad de Parkinson son idiopáticos, que se refiere a que son debidos a causas desconocidas. Aun así, se sospecha que se producen por factores ambientales, como la exposición a determinadas toxinas. Sin embargo, sí que se conocen algunas causas específicas como mutaciones genéticas, que representan el 10% de los casos de Parkinson. Mediante cultivos celulares cedidos por el doctor Adolfo López de Munain, Jefe de Sección del Servicio de Neurología del Hospital Universitario Donostia, los investigadores del grupo Park analizaron el estado de acetilación de las proteínas en fibroblastos (células del tejido conectivo) de individuos sanos que actuaron de control, enfermos de Parkinson debido a la mutación G2019S LRRK2 y pacientes cuya enfermedad de Parkinson es de causa desconocida. Los científicos observaron un estado de hiperacetilación en aquellas células que contenían la mutación G2019S LRRK2 e hipoacetilación en los casos cuyas causas eran desconocidas.

Imagen de inmunofluorescencia, una técnica de detección mediante anticuerpos unidos a una sustancia fluorescente. En rojo se puede apreciar cómo las proteínas de las células de enfermos de Parkinson de causa desconocida (IPD) están menos acetiladas que las de las células control (Co) y las células con la mutación G2019S LRRK2. En azul están marcados los núcleos de dichas células. Yakhine-Diop et al., 2018. Frontiers in celular Neuroscience.

Sin embargo, al fijarse en las proteínas que regulan la autofagia, vieron en las células con la mutación G2019S LRRK2 que la proteína histona deacetilasa SIRT1 se encuentra fosforilada, es decir, con un grupo fosfato, lo cual desencadena su activación, y desfosforilada en aquellas cuya enfermedad de Parkinson era de origen desconocido. Todo esto se traduce en que en las células de los pacientes de Parkinson con la mutación genética G2019S LRRK2 se lleva a cabo la mitofagia. Mientras, en las células de los pacientes de Parkinson de causa desconocida la mitofagia está disminuida. Vieron una mayor muerte celular en las muestras de los casos de origen desconocido que en las de la mutación G2019S LRRK2, por lo que llegaron a la conclusión del efecto protector de la mitofagia.

Para las células con la mutación genética G2019S LRRK2 todavía no está claro cuál sería la táctica adecuada para combatir la patología. Esto quiere decir que no hay un tratamiento único para todos los enfermos de Parkinson. “Cada paciente es un mundo y habría que abogar por analizar qué ocurre en sus procesos moleculares para diseñar una terapia personalizada. Aunque puedan tener muchas cosas en común entre ellos, un tratamiento generalizado no tiene por qué funcionar para todos”, concluye Yakhine-Diop.

En el futuro, esperan ampliar la investigación a las alteraciones en el metabolismo para encontrar biomarcadores de la enfermedad de Parkinson. Los biomarcadores son moléculas cuyos niveles o función sirven como indicador del estado biológico del individuo, aportando información sobre si está sano o enfermo. Su identificación es clave para la detección temprana de distintas patologías. En la actualidad, los signos clínicos son la única opción de diagnóstico de Parkinson, cuando ya la mayoría de neuronas se han degenerado y sólo se pueden mitigar los síntomas. “Con los biomarcadores y junto al estudio de los mecanismos moleculares de la enfermedad de Parkinson se podría conseguir un diagnóstico precoz y el diseño de fármacos para tratarla antes de que esté muy avanzada y fuera demasiado tarde. Ese es nuestro objetivo”, señala Yakhine-Diop.

Artículos:

  • Yakhine-Diop, S., Niso-Santano, M., Rodríguez-Arribas, M., Gómez-Sánchez, R., Martínez-Chacón, G., & Uribe-Carretero, E. et al. (2018). Impaired Mitophagy and Protein Acetylation Levels in Fibroblasts from Parkinson’s Disease Patients. Molecular Neurobiology, 56(4), 2466-2481. doi: 10.1007/s12035-018-1206-6
  • Yakhine-Diop, S., Rodríguez-Arribas, M., Martínez-Chacón, G., Uribe-Carretero, E., Gómez-Sánchez, R., & Aiastui, A. et al. (2018). Acetylome in Human Fibroblasts From Parkinson’s Disease Patients. Frontiers In Cellular Neuroscience, 12. doi: 10.3389/fncel.2018.00097

Si quieres pasar un buen rato y poner a prueba tus conocimientos acerca de la noticia te invitamos a hacer el siguiente test:

El dolor, la quinta constante vital

Se estima que un 80% de las personas experimentarán algún tipo de dolor a lo largo de su vida y 1 de cada 5 personas, en España, lo sufrirán de manera crónica.

El dolor es una respuesta orgánica que provoca una sensación molesta más o menos intensa. La percepción del dolor resulta de una activación localizada de las células nerviosas que avisan de que algo no va bien. El doctor Carlos Tornero, jefe de Servicio de Anestesiología del Hospital Clínico Universitario de Valencia, explicó las implicaciones y los riesgos del dolor, su evaluación y tratamiento durante una charla dirigida a los alumnos del grado de Enfermería del CEU Cardenal Herrera el pasado jueves.

Ante un mismo estímulo, lesión o intervención quirúrgica, la sensación de dolor varía entre distintas personas. Son muchos los aspectos que pueden influir en esta subjetiva percepción del dolor: haber sufrido lesiones previas, la técnica anestésica utilizada, la actitud pesimista o catastrofista o la falta de suficiente información, entre otros.  También la genética influye en la sensación de dolor: “Los pelirrojos tienen otra predisposición al dolor”, remarcó el ponente.

Durante su exposición, Tornero resaltó la importancia de la formación de los futuros profesionales de la salud en este campo y la necesidad de mejorar la calidad asistencial. El doctor señaló que la gran mayoría de los pacientes que salen de una intervención manifiestan algún dolor durante el postoperatorio. El licenciado en Medicina y Cirugía comentó, además, que esta situación, normalizada en el pasado, es un reflejo de que el tratamiento que se está aplicando en estos casos debería mejorar.  En este sentido, el ponente enumeró algunos de los muchos riesgos que pueden aparecer si se tiene dolor durante el postoperatorio: isquemia miocárdica, complicaciones pulmonares, enfermedad tromboembólica, prolongación de la estancia hospitalaria y cronificación del dolor, entre otros. En este aspecto, insistió: “El mal control del dolor influye en el devenir de las personas”. Además, el médico defendió la aplicación de protocolos de analgesia multimodal adaptados a cada paciente. Este tipo de protocolos se basan en el empleo de diferentes técnicas y medicamentos para reducir la sensación de dolor.  La empatía, la escucha al paciente y el empleo de técnicas de relajación psicológica, por ejemplo, juegan un papel muy importante en el aumento del efecto analgésico. “No todo son fármacos”, apuntó el doctor.

Después de exponer las complicaciones del dolor, Tornero se centró en la evaluación que los profesionales de la salud hacen del dolor. El experto se mostró crítico con los datos que se recogen en las hojas de enfermería:“Si el dolor fuese evaluado igual que el resto de indicadores del estado de salud, serían posibles mejores opciones de tratamiento”, apuntó refiriéndose a las cuatro constantes vitales que sí recogen los registros: frecuencia cardiaca, temperatura, frecuencia respiratoria y presión arterial.

El Dr. Carlos Tornero junto a dos profesores durante el turno de preguntas

El ponente animó a los alumnos asistentes a interesarse por la investigación. Brevemente, describió una de sus líneas de investigación que se centra en el papel de las células de glia (células que sirven de soporte al resto de células del sistema nervioso) como mediadoras de la transmisión del dolor.

El autor de más de una treintena de artículos de investigación sobre el dolor y sus tratamientos reiteró ante el estudiantado que el acceso al tratamiento del dolor es un derecho humano fundamental y que la labor de todos los profesionales del ámbito de la salud es esencial para lograrlo.

El abandono del barbecho pone en peligro la comunidad de aves agrarias

Un estudio elaborado por investigadores de la Universidad Autónoma de Madrid y publicado en Scientific Reports alerta de la estrecha relación que hay entre la pérdida de barbechos y la disminución de las poblaciones de aves agrarias en España. Los resultados obtenidos respaldan la necesidad de una nueva Política Agrícola Común (PAC) que garantice la presencia de tierras en barbecho bien gestionadas en todos los agroecosistemas europeos para que estas comunidades de aves no desaparezcan.

La explotación intensiva de los campos de cultivo genera cambios a pequeña y gran escala en el entorno. A pie de parcela provoca un aumento en el uso de agroquímicos – herbicidas, fungicidas, pesticidas, fertilizantes – y la roturación continuada del suelo a causa del arado. A mayor escala disminuye la heterogeneidad del paisaje, que pierde elementos importantes como los márgenes de cultivo o los barbechos. Y la consecuencia última de todo ello es la pérdida de hábitats que conduce a una pérdida de biodiversidad vegetal y animal.

Juan Traba y Manuel B. Morales – profesores titulares del Departamento de Ecología de la Universidad Autónoma de Madrid (UAM) y miembros del Grupo de Investigación de Ecología y Conservación de Ecosistemas Terrestres (TEG-UAM) – firman este novedoso estudio cuyos resultados no dejan lugar a dudas: la desaparición del barbecho viene acompañada de una caída en los índices de abundancia de las aves agrarias.

Los barbechos son tierras en descanso que dejan de sembrarse por períodos mínimos de un año. Constituyen “hábitats seminaturales que conservan su estructura de herbazales, con vegetación natural formada por plantas arvenses”, comenta Manuel B. Morales. En estos espacios muchas aves agrarias encuentran los recursos de los que depende su supervivencia: maleza, semillas, insectos o cobertura vegetal; por ello constituyen hábitats críticos.

En España, las tierras en barbecho han disminuido cerca de 1.1 millones de hectáreas en los últimos 15 años y se debe, principalmente, a la intensificación de la agricultura. “No solo hay muchos menos barbechos, los que quedan están mucho más tratados, mucho más intensificados, y eso los hace hábitats inadecuados para la mayor parte de las especies”, añade Juan Traba.

Sisón común (Tetrax tetrax) / Fuente: SEO/Birdlife

La Península Ibérica acoge la mayor población europea de aves agrarias catalogadas como amenazadas. Entre ellas se encuentra el sisón común (Tetrax tetrax), declarada Ave del Año 2017 e incluida en el Anexo I de la Directiva Aves de la Unión Europea. Para Juan Traba es “una especie paradigmática”; está estrechamente vinculada al barbecho y su población “ha declinado en torno al 50% en los últimos 10 años en el conjunto de España, llegando al 80% en algunas regiones como Castilla-León, Navarra o Extremadura. En Galicia o La Rioja ha desaparecido”, remarca Manuel B. Morales.

“Hay más especies”, apunta Traba, y añade: «Nos están llamando la atención de que algo grave está ocurriendo en el medio natural, especialmente del que sale la mayor parte de la dieta que consumimos”. Para el investigador es fundamental tener en cuenta que el sistema agrario dominante en España son, precisamente, las estepas cerealistas.

A pesar de los esfuerzos llevados a cabo desde la Unión Europea (EU) para evitar la situación, el declive de las poblaciones de aves agrarias es un hecho extensivo a todo el continente. La posible solución: “No sólo se trata de recuperar superficies de barbechos, si no de que sean ecológicamente funcionales. Esa es la clave”, incide Traba. “Para eso es importante mantener la base de la cadena trófica, la producción primaria – las plantas arvenses – que sustenta todo lo demás, incluidas las aves”, añade Morales.

Y para conseguirlo los autores advierten de la necesidad de regresar a los niveles de cobertura de barbechos previos al 2008, año en que se abolió la obligatoriedad de mantener, al menos, un 10% de la superficie cultivable en reposo.

Estos días se reúne el Consejo de Ministros de Agricultura y Pesca de la EU para debatir las nuevas estrategias que formarán la próxima PAC 2020. “Esta puede ser una buena oportunidad para introducir una gestión del barbecho más adecuada dentro de los eco-esquemas”, comenta Manuel B. Morales.

“Este artículo viene a constatar a gran escala, utilizando datos tanto de aves como de tendencias agrarias del conjunto del país, una relación que ya se conocía a escala local y regional”, apunta Morales. La investigación se ha llevado a cabo mediante análisis estadístico a través del recurso de regresión lineal simple, un modelo matemático sencillo que enfrenta dos variables para ver la relación que hay entre ellas. En este caso, la superficie agrícola y la población de aves.

Ambos autores coinciden en que este es un trabajo muy contundente, que arroja pocas dudas sobre la relación entre barbechos y tendencias poblacionales. “Para tomar decisiones no hace falta más. Indica claramente cuál es el problema y cuál puede ser la solución”, concluye Juan Traba.

‘El Periodismo Científico es la estrella de la comunicación en el siglo XXI’, sostiene Antonio Calvo Roy


Antonio Calvo Roy durante su clase magistral. Fuente: Sede Universitaria Ciudad de Alicante

Antonio Calvo Roy, presidente de la Asociación Española de Comunicación Científica (AECC), resaltó la importancia del periodismo científico para la sociedad en una conferencia organizada por la Universidad de Alicante y abierta al público en general. El periodista científico también abordó el imprescindible papel que comunicadores e investigadores desempeñan en la transmisión del conocimiento experto. Para Calvo Roy, esta disciplina es la estrella de la comunicación del siglo XXI.

‘Hoy no es posible entender el mundo sin la ciencia’, afirmó Antonio Calvo Roy al inicio de su masterclass. Para el experto, una sociedad que depende cada vez más de la ciencia y la tecnología requiere y merece estar informada. ‘Es necesario divulgar la ciencia para que los ciudadanos puedan decidir y votar en consecuencia. Si esto no existe, hay un grave déficit democrático’, subrayó el periodista.

Según el presidente de la AECC, tanto los periodistas como los investigadores ‘están comprometidos y concernidos’ con la tarea de trasladar al público los resultados de la actividad investigadora; ambos se necesitan mutuamente para ‘crear una cultura científica y técnica en la sociedad’.

Destacó el papel de los periodistas científicos en el proceso, quienes deben informar al tiempo que entretener a la población. Para ello, necesitan hacer las preguntas oportunas, contrastar las respuestas y darlas a conocer de forma sencilla. Esta actividad es ‘una de las que más creatividad e imaginación exige’, según Calvo Roy.

El divulgador apeló al rigor informativo y a la especialización de los profesionales en comunicación; que, a su juicio, consiste en ‘tener los conocimientos y las destrezas adecuadas para ser capaz de contar en un lenguaje que todo el mundo pueda entender, algo que de partida es tan abstruso como un artículo científico’.

En cuanto a los científicos, Antonio Calvo declaró que ‘se ven beneficiados por las cuestiones de la comunicación’. El experto sostuvo que ‘es muy rentable emplear tiempo, dinero e ingenio en contar muy bien las cosas y hacerlo, a poder ser, con la colaboración de los expertos en comunicación científica ‘. Contar excelentes historias permite acceder a fondos públicos con los que seguir investigando. Es lo que, según su criterio, ha favorecido que proyectos como Atapuerca, Genoma Humano o la NASA lleguen al gran público.

¿Y cómo comunicar la ciencia?, ‘Por tierra, mar y aire; con todos los instrumentos que están a nuestro alcance. Y las redes sociales son muy importantes para esto’, sentenció el periodista. 

Los asistentes tuvieron la posibilidad de hacer preguntas al experto al final de su discurso. Ante un aforo preocupado por la proliferación de noticias falsas en la red, Antonio Calvo Roy no dudó en reiterar que es posible combatir la desinformación y captar la atención de los lectores ‘con rigor e imaginación, de forma sencilla, amena y atractiva’, y subrayó: ‘Debemos perder el miedo a contar las cosas de forma suave’. Para el periodista, quienes manejan las redes de instituciones deben buscar la veracidad al tiempo que titulan con gracia, algo que Agencia SINC resuelve muy bien.  

La clase magistral tuvo lugar el pasado viernes 22 de marzo en la Sala Altamira de la Sede Universitaria Ciudad de Alicante y pudo seguirse a través del servicio de videostreaming – servicio de retransmisión en directo – de la Universidad de Alicante. Titulada ‘Periodismo Científico: una especialidad para el siglo XXI’, esta ponencia forma parte del ciclo de conferencias sobre comunicación y divulgación de la ciencia.

Más del 60% de las mujeres embarazadas del norte de España no llega al nivel recomendado de vitamina D

Un déficit de este compuesto puede agravar la aparición de enfermedades cardiovasculares, cáncer o diabetes

El 62% de las mujeres asturianas embarazadas que forman parte del estudio presentan niveles inferiores de vitamina D a los recomendados por los expertos. Del total de las gestantes, el 27% tienen deficiencia, es decir, que carecen de vitamina D y el 35% insuficiencia, no llegan al mínimo recomendado, según el estudio de Prevalencia de deficiencia e insuficiencia de vitamina D y factores asociados en mujeres embarazadas del norte de España, Ana Cristina Rodríguez-Dehli y colaboradores.

Comparación de los niveles de Vitamina D en verano y durante todo el año// Fuente: estudio

El estudio establece que el nivel de suficiencia recomendado de esta vitamina es a partir de 30 ng/ml  (nanogramos por mililitro). Además, la mayoría de expertos aceptan la definición de deficiencia por debajo de 20 ng/ml e insuficiencia entre 20-29 ng/ml. Sin embargo, existe cierta controversia de cuáles son los niveles óptimos.

La vitamina D es esencial en la absorción de calcio y fósforo del organismo, es como un pegamento que hace que el cuerpo pueda absorber mejor estos componentes. Son muchas las investigaciones que se han realizado sobre este compuesto, y los resultados muestran que un déficit del mismo podrían ser un agravante en la aparición de enfermedades como diabetes tipo 1 y 2, enfermedades cardiovasculares, infecciones, obesidad o asma. Así como también, algunos tipos de cáncer como el de colon, mama, próstata y ovario y de ciertas enfermedades neurológicas como la depresión o esclerosis múltiple. El estudio revela que las mujeres con sobrepeso y las menores de 25 años son un grupo más propenso a sufrir la carencia de este compuesto. Por consiguiente, niveles bajos de esta vitamina durante la gestación se han asociado con un aumento de efectos adversos en el desarrollo y crecimiento fetal; como son  la preeclampsia – la hipertensión arterial durante el embarazo – o la diabetes gestacional.

La vitamina D es esencial en la absorción de calcio y fósforo del organismo

La mejor forma de acceder a esta vitamina es mediante la exposición solar, siendo, por tanto, su limitada exposición la primera causa de su deficiencia. como es el caso del norte de España, donde escasea gran parte del año. Pero existen complementos y alimentos, como algunos pescados azules, lácteos o huevos que la contienen, y cuyo consumo es recomendable en este tipo de circunstancias.

Cada vez hay más estudios que plantean la necesidad de ingerir este complemento durante la gestación, aunque sin evidencias exactas que garanticen ni establezcan cuál es la dosis adecuada.

Para obtener los resultado se ha analizado a mujeres embarazada de 10 a 13 semanas y de edades comprendidas entre 18 y 42 años mediante un cálculo analizando la dieta  de las participantes – con un cuestionario de más de cien preguntas – y los suplementos que tomaban. Sin embargo, tan solo el 8,6% afirmaron consumir esta vitamina. No obstante, esto no sucede solo en las embarazadas, puesto que en los últimos 10-20 años se ha observado una tendencia mundial a la caída de los niveles de vitamina D, sobre todo en la población más joven.

Laura Torralba Córcoles y Francesca Zoicas

Un experimento de la UMH apunta a que los robots ayudan a mejorar la rehabilitación de personas con daños cerebrales

Cuatro de cada cinco pacientes con ictus abandonan la terapia sin recuperar completamente la movilidad de sus extremidades superiores

El experimento se basa en un juego de realidad virtual ligado a un brazo robótico/UMH TV

El equipo de Neuroingeniería Biomédica de la UMH ha realizado una sesión de terapia de rehabilitación robótica con un paciente con ictus y el resultado ha sido exitoso: un 67,57% de acierto en la prueba. El experimento consiste en un juego de realidad virtual que ayuda al movimiento de las extremidades superiores del paciente con la ayuda de un robot. El objetivo es mejorar los resultados de las terapias actuales, ya que el total de pacientes que alcanzan una recuperación funcional completa no supera el 20 %.

El experimento se ha efectuado con un solo paciente, que, mediante el uso de un brazo robótico, debe desplazar una pelota a un punto indicado de la manera más recta posible, como en el billar. La novedad principal de este mecanismo es la evaluación del estado emocional del paciente para aumentar o disminuir la dificultad del juego. Así, si el sujeto se encuentra estresado, el programa informático reduce automáticamente la distancia con respecto a la pelota.

La rehabilitación robótica pretende ser un complemento de la terapia/UMH TV

Las personas mayores de 65 años son particularmente propensas a sufrir algún tipo de accidente cerebrovascular. Según la OMS, este grupo de edad aumentará en un 73% en los países industrializados los próximos años. En concreto, los mayores de 55 años cada vez tienen más posibilidades de sufrir este tipo de daños, ya que la cantidad de personas con ictus se duplica cada década, según indican los investigadores de la UMH.

El accidente cerebrovascular, ya sea causado por un ictus o por un golpe en la cabeza, es una de las causas principales del deterioro de la movilidad del brazo. De hecho, es el motivo de la mayoría de incapacidades permanentes en los países industrializados. Esta realidad afecta a la autonomía e independencia del paciente, así como a su capacidad de relacionarse con el entorno y realizar tareas de la vida cotidiana. Con el resultado del experimento se espera que la rehabilitación robótica complemente las terapias para aumentar el número de personas que alcancen la recuperación completa.

Dámaso Mondéjar/Judith Maldonado

Más de 2.000 incendios forestales en el primer trimestre convierten al 2019 en uno de los peores años de la última década

El aumento de este problema se debe a la aparición del cambio climático, así como al abandono de los campos y el crecimiento socio-económico

Los incendios forestales suponen un problema global y mundial. En lo que va de 2019, se han producido 2.064 incendios. Esta cifra sólo se superó en 2012, con 3.217 incendios, según datos del Ministerio de Agricultura, Pesca y Alimentación. Sin embargo, 2018 se ha calificado como el mejor año de la última década, con un total de 7.143 incendios forestales, de los cuales tan sólo tres han sido de gran magnitud, es decir, han superado las 500 hectáreas quemadas.

Esta problemática se ha estudiado con anterioridad. En 2009 se publicó el informe: Incendios forestales en España. Ecosistemas terrestres y suelos, por Jorge Mataix Solera y Artemi Cerdá. Anualmente se producen una media de 19.000 incendios en España, aunque estos datos han ido variando en la última década. Hay tres años clave que han marcado las peores cifras de incendios: 2009, 2012 y 2017, en los cuales se han registrado alrededor de 44.000 incendios forestales .

Actualmente, los efectos que tiene el fuego en el ecosistema y medio ambiente tienen efectos mucho más devastadores que en épocas anteriores. La humanidad supo adaptarse al ecosistema terrestre y el fuego se convirtió en el mejor amigo del hombre, utilizado como una herramienta para aclarar campos de cultivo, abrir pastos, eliminar las plagas o cazar. El uso del fuego comenzó a descontrolarse entre los años 50 y 60, tras producirse el éxodo rural, lo que derivó al abandono de los campos, los cambios socio-económicos y sobre todo por la aparición del Cambio Climático.

La zona mediterránea es una de las más afectada por esta peligrosa herramienta, sobre todo Italia, Grecia, España y Portugal, aunque, como señala el informe A review of fire effects on vegetation and soil in the mediterranean basin, la vegetación de esta zona tiende a regenerarse con mucha facilidad tras un incendio. En el año 1997, del 90% de las hectáreas quemadas, el 50% pertenecían a la Península Ibérica. Los factores que afectan al territorio español son principalmente: el clima cálido y seco en verano; la marchitación de la vegetación; abundantes tormentas cargadas de aparato eléctrico; y la presencia de vegetación adaptada, y por lo tanto, preparada para los incendios. Pero actualmente, la principal causa de estas catástrofes es la acción humana.

Según los autores del informe, Jorge y Artemi, el índice de incendios varía en función de la zona dentro del territorio español. Por lo general, Castilla y León, Asturias y Galicia son las tres comunidades que reflejan los datos más elevados de incendios forestales, en contraste con la Comunidad Valenciana, Cataluña e Islas Baleares, que muestran los datos más bajos de todo el país.

En los últimos diez años, ha mejorado la investigación de las causas de los incendios, lo que a su vez, ha generado una mejora en la prevención de éstos, a través de la persuasión en la población, la conciliación de intereses y las sanciones. “El desafío actual es integrar el conocimiento científico sobre el papel del fuego en el ecosistema mediterráneo, permitiendo una gestión óptima del fuego y haciéndolo compatible con nuestras demandas sociales, necesidades de reducción de peligros y sostenibilidad del ecosistema”, tal y como afirma el  Boletín de la Asociación de Geógrafos Españoles, 2012.

Raquel Bernal Sánchez, Raúl Icardo Llorca y Belén Martínez Quereda.

Francisco Castejón: “Mañana podríamos paralizar todas las centrales sin sufrir problemas de abastecimiento”

El recientemente propuesto como vocal del Consejo de Seguridad Nuclear apostó por el gas natural junto con las renovables como alternativa viable

08/03/2019 – Guadalajara

Enmarcada en la duodécima edición de los Jueves de la Ciencia que organiza el Centro Asociado de la UNED en Guadalajara, Francisco Castejón Maraña impartió ayer por la tarde una charla sobre el presente de la energía nuclear en España. El director del la Unidad de Teoría de Fusión del Centro de Investigaciones Energéticas, Medioambientales y Tecnológicas (CIEMAT) y activista antinuclear de Ecologistas en Acción explicó que las centrales españolas, envejecidas y ya amortizadas, no son eficientes y suponen un gran coste para el erario. Afirmó que la energía eólica y las de régimen especial ya cubren la mayor parte de la demanda energética española y que ésta podría sostenerse aunque cerrase el parque nuclear si empleara el gas natural, que está infrautilizado.

Bajo el título “El desmantelamiento del parque nuclear español”, Francisco Castejón Maraña explicó los principales retos a los que se enfrenta el país en lo que respecta a las centrales existentes, los recursos (materiales y económicos) de los que dependen y los residuos que generan. Y lo hizo al tiempo que otras dos noticias relacionadas estaban de actualidad. Por un lado, las principales empresas eléctricas españolas acababan de acordar el cierre de todas las centrales a partir de 2025. Por otro lado, el ponente acababa de ser propuesto en el Congreso para ser vocal del Consejo de Seguridad Nuclear junto a otros tres nuevos miembros que, cuando sea efectivo el nombramiento, sustituirán a cuatro de los cinco que componen dicha comisión.

Castejón adujo durante toda la ponencia que el parque nuclear español, formado por cinco centrales en activo con un total de siete reactores (Almaraz I y II en Cáceres, Ascó I y II y Vandellós II en Tarragona, Cofrentes en Valencia y Trillo en Guadalajara), está envejecido. Su edad media de vida útil ya alcanza los 33 años, cuando la normativa establece los 40 años como el final de su etapa segura y económicamente rentable. Es por ello que se requieren, según planteó el físico, decisiones firmes inmediatas de planificación de su desmantelamiento y de la gestión de sus residuos.

Sin embargo, también explicó que esto no es sencillo por diversos motivos que alimentan el debate nuclear en España. “Las centrales ya han sido prácticamente amortizadas y esto las hace muy rentables en el mercado eléctrico”, aseveró Castejón, y añadió: “Las empresas de bienes de equipo hacen dinero con las reparaciones periódicas que requieren unas centrales tan antiguas”. En cuanto a la gestión de los residuos radiactivos, la incertidumbre sobre el establecimiento del Almacén Temporal Centralizado (ATC) en Villar de Cañas (Cuenca) sigue manteniendo en el aire el destino de los residuos de alta actividad, mientras que el almacén de El Cabril (Córdoba), de residuos de media y baja actividad “ya está al 82% de su capacidad y hay que buscar una alternativa ya”, según palabras del experto. En este punto Castejón se mostró partidario de seguir construyendo Almacenes Temporales Individualizados (ATI) “hasta que se dé con una solución más segura y consensuada”.

«En un verdadero mercado libre no existiría esta energía» – Francisco Castejón Magaña

En el plano económico el físico también aportó argumentos a favor del desmantelamiento. De esta manera indicó que gran parte del coste de la energía nuclear se va a la amortización de las centrales, y además hay que cubrir los costes de la gestión de residuos y del desmantelamiento. Castejón explicó que en España la energía nuclear está subvencionada y que “en un verdadero mercado libre no existiría esta energía”. Según el físico, con los impuestos se paga el coste de transición a la competencia, la gestión de los residuos, el almacenamiento del uranio que importamos y alimenta las centrales y la moratoria nuclear. En total, las centrales nucleares han recibido 21.585 millones de euros en subvenciones mientras que, por su parte, el beneficio total de las empresas eléctricas que las gestionan es de 2.367 millones de euros al año.

Frente al coste de seguir manteniendo esta industria, el ponente destacó el impacto económico y el desarrollo que puede tener sobre la zona y su población el cierre de las centrales nucleares, tanto durante el proceso como después. Para ilustrar esto puso como ejemplo el cierre de Vandellós I, que se inició en 1998 a raíz del gran accidente que sufrió en 1989. Explicó que a raíz de este desmantelamiento se crearon más de 5.000 puestos de trabajo, aumentaron en un 20% el número de empresas instaladas en la zona y se duplicaron las sucursales bancarias en la misma. Cuando ENRESA, la empresa que se encarga de la descontaminación, toma las riendas de la central cerrada, contrata a las personas que ya trabajaban allí y recibe subvenciones. Lo que Castejón echa en falta es que se realicen mejor los Planes de Participación Pública por los que estas áreas desarrollan nuevas fuentes de ingresos y de desarrollo cuando las centrales ya hayan cerrado.

Central nuclear de Vandellós I (Tarragona) en 2013. Se encuentra en la segunda fase de desmantelamiento, cubierta por un revestimiento de acero galvanizado que la protege de los fenómenos atmosféricos.

En cuanto al futuro de la industria energética tras el desmantelamiento total del parque nuclear español, Castejón se mostró optimista. Mediante gráficas con datos de los últimos años mostró cómo la energía eólica y el resto de las de régimen especial (hidráulica, solar, biomasa, tratamiento de residuos y cogeneración) ya cubren la mayor parte de la demanda energética en España. “Mañana podríamos paralizar todas las centrales nucleares sin problemas de abastecimiento. Solo habría que emplear más gas natural, que en España está infrautilizado porque es más caro”, aseveró.

Asimismo, afirmó que la energía nuclear “actualmente aporta el 6% de la energía que se consume y su producción está en descenso desde 2010, superada por las renovables”. Para que esta transición energética suceda de manera exitosa, el físico comentó que hay que mantener la demanda sin un aumento de las emisiones, lo cual “implica un despliegue de medidas de ahorro y eficiencia y el despliegue de las renovables”. En el cierre de la ponencia, Castejón quiso resaltar dos de las claves que, a su juicio, mejorarían el futuro de la energía en España: el control al precio de la energía y el fomento del transporte público eléctrico.

El próximo jueves tendrá lugar la última de las conferencias de los Jueves de la Ciencia a cargo del doctor en bioquímica y biología molecular y divulgador científico José Manuel Mulet Salat bajo el título ¿Qué es comer sano?, que es también el de su último libro, sobre las dudas, mitos y engaños en la alimentación.