Cuatro de cada cinco pacientes con ictus abandonan la terapia sin recuperar completamente la movilidad de sus extremidades superiores
El equipo de Neuroingeniería Biomédica de la UMH ha realizado una sesión de terapia de rehabilitación robótica con un paciente con ictus y el resultado ha sido exitoso: un 67,57% de acierto en la prueba. El experimento consiste en un juego de realidad virtual que ayuda al movimiento de las extremidades superiores del paciente con la ayuda de un robot. El objetivo es mejorar los resultados de las terapias actuales, ya que el total de pacientes que alcanzan una recuperación funcional completa no supera el 20 %.
El experimento se ha efectuado con un solo paciente, que, mediante el uso de un brazo robótico, debe desplazar una pelota a un punto indicado de la manera más recta posible, como en el billar. La novedad principal de este mecanismo es la evaluación del estado emocional del paciente para aumentar o disminuir la dificultad del juego. Así, si el sujeto se encuentra estresado, el programa informático reduce automáticamente la distancia con respecto a la pelota.
Las personas mayores de 65 años son particularmente propensas a sufrir algún tipo de accidente cerebrovascular. Según la OMS, este grupo de edad aumentará en un 73% en los países industrializados los próximos años. En concreto, los mayores de 55 años cada vez tienen más posibilidades de sufrir este tipo de daños, ya que la cantidad de personas con ictus se duplica cada década, según indican los investigadores de la UMH.
El accidente cerebrovascular, ya sea causado por un ictus o por un golpe en la cabeza, es una de las causas principales del deterioro de la movilidad del brazo. De hecho, es el motivo de la mayoría de incapacidades permanentes en los países industrializados. Esta realidad afecta a la autonomía e independencia del paciente, así como a su capacidad de relacionarse con el entorno y realizar tareas de la vida cotidiana. Con el resultado del experimento se espera que la rehabilitación robótica complemente las terapias para aumentar el número de personas que alcancen la recuperación completa.
Muchos más animales de los que se cree podrían tener la capacidad de desarrollar una identidad individual
El psicólogo, primatólogo y etólogo holandés Frans de Waal publicó el pasado 7 de febrero un artículo en la revista Plos Science en el que propone cambios teóricos y metodológicos en la investigación de la autoconciencia de los animales. Sus interpretaciones le llevan a defender un modelo progresivo de construcción de la identidad individual. Esta visión es opuesta a la teoría aceptada del binarismo, que considera la autoconciencia una capacidad que “se tiene o no se tiene”, surgida de forma repentina y exclusiva en la evolución de los grandes simios.
Hasta hace poco, la propuesta más aceptada para explicar la capacidad de los animales para reconocer su propia existencia era la delBig Bang de la autoconciencia. Esta teoría no considera la posibilidad de que la percepción que se tiene de uno mismo se desarrolle de forma paulatina. Por el contrario, asume que a lo largo de la evolución de los primates hubo una explosión de las capacidades autoperceptivas en los grandes simios de forma singular. Las interpretaciones más recientes sostienen que esta capacidad se desarrolla progresivamente y que animales de diferentes ramas evolutivas pueden ser estimulados para alcanzar niveles superiores. Los expertos en cognición y comportamiento de primates de la Universidad de Barcelona Montserrat Colell y Francesc Salvador son partidarios de estas nuevas interpretaciones. El ser humano recorre estos niveles durante la infancia como paso previo al desarrollo de una Teoría de la Mente.
“¿Qué pasa si la autoconciencia se desarrolla como una cebolla, construyendo capa sobre capa, en lugar de aparecer de una vez?”
Frans de Waal
Según la investigadora en primatología y etología del Instituto de Neurociencias de la Universidad de Barcelona, la autoconciencia es “la capacidad de saber quién es uno mismo”. “Consiste en reconocerse como un individuo de una cierta edad, sexo, con una serie de ideas, emociones, etc.”, apunta. Respecto a su origen, su compañero, catedrático en psicología experimental, apunta que “es un proceso gradual que se ha ido desarrollando a través de procesos evolutivos”. Ambos apoyan al etólogo holandés, que plantea un modelo en el que individuos de especies con orígenes filogenéticos tan dispares como perros, gatos, aves y peces pueden poseer un nivel de autoconciencia mayor, como ya se ha demostrado en simios. Para ello se basan en los resultados de pruebas de autorreconocimiento. Colell explica que, dado que “no es posible acceder a la conciencia de los animales no humanos mediante el lenguaje, es necesario realizar una serie de pruebas para intentar demostrar si un animal la tiene o no”.
Actualmente se está trabajando con modificaciones de los experimentos de Gallup de los años 70. En ellos se realizaba una marca de pintura en la frente de un animal, inicialmente un primate, y se le situaba frente a un espejo para observar su comportamiento. La interpretación convenida consistía en que, si el animal exploraba su frente en busca del punto con ayuda del espejo, era debido inequívocamente a que era consciente de su propia imagen. No obstante, como apunta Colell, la respuesta de algunos individuos a esta prueba los puede situar en niveles intermedios de autoconciencia. Los animales que no comprenden el funcionamiento de un espejo se sitúan en el nivel cero, seguidos de los que sí lo hacen pero interpretan que su reflejo se trata de otro individuo. En un nivel superior se sitúan los que sienten desconcierto al mirarse, seguidos de los que finalmente comprenden que se trata de su propia imagen reflejada.
“La autoconciencia se alcanza de manera progresiva. El niño que se reconoce en el espejo tardará un tiempo en desarrollar una Teoría de la Mente.”
Montserrat Colell
En una etapa inicial de la investigación, se observó que los únicos primates que se reconocían en el espejo eran los grandes simios, por lo que se les consideró autoconscientes junto a los seres humanos. Más tarde se aplicó el test a psitácidas (papagayos, cacatúas y loros), que habían mostrado grandes capacidades cognitivas, pero no lo superaron. En cambio, urracas, orcas y elefantes sí lo hicieron. Tanto la prueba del espejo como la teoría del surgimiento repentino de la autoconciencia comenzaron a levantar suspicacias.
Ahora, el foco está puesto en las variantes metodológicas de este experimento. Francesc Salvador, experimentado en la metodología de la investigación psicológica, señala la necesidad de desarrollar pruebas multisensoriales que permitan medir esta capacidad de otro modo. “El modelo gradualista quiere ser multimodal”, matiza. Y es que uno de los problemas de la prueba es que muchos animales no componen su mundo esencialmente con imágenes, como el ser humano. Algunos tests combinan varios estímulos a la vez, por ejemplo, una marca visual e irritante mediante un haz de luz. Los resultados de la aplicación de marcas multimodales en animales que no superaban el test original han sido positivos, consiguiendo que los individuos muestren conductas de autorreconocimiento. Según el estudio de De Waal, esta es una prueba de que con la metodología adecuada es posible valorar mejor los niveles de autoconsciencia. Salvador sugiere que la autoconciencia es un proceso que ocurre a partir de la integración de información sensorial diversa. En algunas de las numerosas variantes del experimento se han utilizado otros sentidos, como el olfato. “Los tests con olores han dado resultados positivos en perros”, afirma Colell.
Los investigadores catalanes relacionan estrechamente la socialización del individuo con la capacidad de autoconciencia. Salvador, que estudia la emergencia de conductas sociales autoorganizadas, la entiende como un “elemento básico muy importante de la jerarquía y las relaciones sociales de la vida en grupo”. El equipo de investigación al que pertenece Colell, pionero en demostrar que los gorilas se reconocen en el espejo, probó que unas condiciones sociales adecuadas durante el crecimiento son importantísimas para el desarrollo de la conciencia de individuo y especie. La investigadora recalca la importancia que ha tenido esta capacidad en la sociedad humana, señalando que “ha sido un motor de la evolución” y que “conductas como la empatía y el engaño serían imposibles sin ella”. Por sus implicaciones, la necesidad de diseñar una batería de pruebas de autoconciencia mucho mayor, adaptada a las formas de percibir la realidad de cada especie, es una opinión cada vez más popular en la comunidad investigadora.
El aumento de este problema se debe a la aparición del cambio climático, así como al abandono de los campos y el crecimiento socio-económico
Los incendios forestales suponen un problema global y mundial. En lo que va de 2019, se han producido 2.064 incendios. Esta cifra sólo se superó en 2012, con 3.217 incendios, según datos del Ministerio de Agricultura, Pesca y Alimentación. Sin embargo, 2018 se ha calificado como el mejor año de la última década, con un total de 7.143 incendios forestales, de los cuales tan sólo tres han sido de gran magnitud, es decir, han superado las 500 hectáreas quemadas.
Esta problemática se ha estudiado con anterioridad. En 2009 se publicó el informe: Incendios forestales en España. Ecosistemas terrestres y suelos, por Jorge Mataix Solera y Artemi Cerdá. Anualmente se producen una media de 19.000 incendios en España, aunque estos datos han ido variando en la última década. Hay tres años clave que han marcado las peores cifras de incendios: 2009, 2012 y 2017, en los cuales se han registrado alrededor de 44.000 incendiosforestales .
Actualmente, los efectos que tiene el fuego en el ecosistema y medio ambiente tienen efectos mucho más devastadores que en épocas anteriores. La humanidad supo adaptarse al ecosistema terrestre y el fuego se convirtió en el mejor amigo del hombre, utilizado como una herramienta para aclarar campos de cultivo, abrir pastos, eliminar las plagas o cazar. El uso del fuego comenzó a descontrolarse entre los años 50 y 60, tras producirse el éxodo rural, lo que derivó al abandono de los campos, los cambios socio-económicos y sobre todo por la aparición del Cambio Climático.
La zona mediterránea es una de las más afectada por esta peligrosa herramienta, sobre todo Italia, Grecia, España y Portugal, aunque, como señala el informe A review of fire effects on vegetation and soil in the mediterranean basin, la vegetación de esta zona tiende a regenerarse con mucha facilidad tras un incendio. En el año 1997, del 90% de las hectáreas quemadas, el 50% pertenecían a la Península Ibérica. Los factores que afectan al territorio español son principalmente: el clima cálido y seco en verano; la marchitación de la vegetación; abundantes tormentas cargadas de aparato eléctrico; y la presencia de vegetación adaptada, y por lo tanto, preparada para los incendios. Pero actualmente, la principal causa de estas catástrofes es la acción humana.
Según los autores del informe, Jorge y Artemi, el índice de incendios varía en función de la zona dentro del territorio español. Por lo general, Castilla y León, Asturias y Galicia son las tres comunidades que reflejan los datos más elevados de incendios forestales, en contraste con la Comunidad Valenciana, Cataluña e Islas Baleares, que muestran los datos más bajos de todo el país.
En los últimos diez años, ha mejorado la investigación de las causas de los incendios, lo que a su vez, ha generado una mejora en la prevención de éstos, a través de la persuasión en la población, la conciliación de intereses y las sanciones. “El desafío actual es integrar el conocimiento científico sobre el papel del fuego en el ecosistema mediterráneo, permitiendo una gestión óptima del fuego y haciéndolo compatible con nuestras demandas sociales, necesidades de reducción de peligros y sostenibilidad del ecosistema”, tal y como afirma el Boletín de la Asociación de Geógrafos Españoles, 2012.
Raquel Bernal Sánchez, Raúl Icardo Llorca y Belén Martínez Quereda.
El recientemente propuesto como vocal del Consejo de Seguridad Nuclear apostó por el gas natural junto con las renovables como alternativa viable
08/03/2019
– Guadalajara
Enmarcada en la duodécima edición de los Jueves de la Ciencia que organiza el Centro Asociado de la UNED en Guadalajara, Francisco Castejón Maraña impartió ayer por la tarde una charla sobre el presente de la energía nuclear en España. El director del la Unidad de Teoría de Fusión del Centro de Investigaciones Energéticas, Medioambientales y Tecnológicas (CIEMAT) y activista antinuclear de Ecologistas en Acción explicó que las centrales españolas, envejecidas y ya amortizadas, no son eficientes y suponen un gran coste para el erario. Afirmó que la energía eólica y las de régimen especial ya cubren la mayor parte de la demanda energética española y que ésta podría sostenerse aunque cerrase el parque nuclear si empleara el gas natural, que está infrautilizado.
Bajo
el título “El desmantelamiento del parque nuclear español”,
Francisco Castejón Maraña explicó los principales retos a los que
se enfrenta el país en lo que respecta a las centrales existentes,
los recursos (materiales y económicos) de los que dependen y los
residuos que generan. Y lo hizo al tiempo que otras dos noticias
relacionadas estaban de actualidad. Por un lado, las principales
empresas eléctricas españolas acababan de acordar el
cierre de todas las centrales a partir de 2025.
Por otro lado, el ponente acababa de ser propuesto en el Congreso
para
ser vocal del Consejo de Seguridad Nuclear junto a otros tres nuevos
miembros
que, cuando
sea efectivo el nombramiento,
sustituirán
a cuatro de los cinco que componen dicha comisión.
Castejón
adujo durante toda la ponencia que el parque nuclear español,
formado por cinco centrales en activo con un total de siete reactores
(Almaraz I y II en Cáceres, Ascó I y II y Vandellós II en
Tarragona, Cofrentes en Valencia y Trillo en Guadalajara), está
envejecido.
Su edad media de vida útil ya alcanza los 33 años, cuando la
normativa establece los 40 años como el final de su etapa segura y
económicamente rentable. Es por ello que se requieren, según
planteó el físico, decisiones firmes inmediatas de planificación
de su desmantelamiento y de la gestión de sus residuos.
Sin
embargo, también explicó que esto no es sencillo por diversos
motivos que alimentan el debate nuclear en España. “Las centrales
ya han sido prácticamente amortizadas y esto las hace muy rentables
en el mercado eléctrico”, aseveró Castejón, y añadió: “Las
empresas de bienes de equipo hacen dinero con las reparaciones
periódicas que requieren unas centrales tan antiguas”. En cuanto a
la gestión de los residuos radiactivos, la incertidumbre sobre el
establecimiento del Almacén Temporal Centralizado (ATC) en Villar de
Cañas
(Cuenca)
sigue manteniendo en el aire el destino de los residuos de alta
actividad, mientras que el almacén de El Cabril (Córdoba), de
residuos de media y baja actividad “ya está al 82% de su capacidad
y hay que buscar una alternativa ya”, según palabras del experto.
En este punto Castejón se mostró partidario de seguir construyendo
Almacenes Temporales Individualizados (ATI) “hasta que se dé con
una solución más segura y consensuada”.
«En un verdadero mercado libre no existiría esta energía» – Francisco Castejón Magaña
En
el plano económico el físico también aportó argumentos a favor
del desmantelamiento. De esta manera indicó que gran parte del coste
de la energía nuclear se va a la amortización de las centrales, y
además hay que cubrir los costes de la gestión de residuos y del
desmantelamiento. Castejón explicó que en España la energía
nuclear está subvencionada y que “en un verdadero mercado libre no
existiría esta energía”. Según el físico, con los impuestos se
paga el
coste de transición a la competencia,
la gestión de los residuos, el almacenamiento del uranio que
importamos y alimenta las centrales y la moratoria nuclear. En total,
las centrales nucleares han recibido 21.585 millones de euros en
subvenciones mientras que, por su parte, el beneficio total de las
empresas eléctricas que las gestionan es de 2.367 millones de euros
al año.
Frente
al coste de seguir manteniendo esta industria, el ponente destacó el
impacto económico y el desarrollo que puede tener sobre la zona y su
población el cierre de las centrales nucleares, tanto durante el
proceso como después. Para ilustrar esto puso como ejemplo el cierre
de Vandellós I, que se inició en 1998 a raíz del gran
accidente que sufrió en 1989.
Explicó que a raíz de este desmantelamiento se crearon más de
5.000 puestos de trabajo, aumentaron en un 20% el número de empresas
instaladas en la zona y se duplicaron las sucursales bancarias en la
misma. Cuando ENRESA, la empresa que se encarga de la
descontaminación, toma las riendas de la central cerrada, contrata a
las personas que ya trabajaban allí y recibe subvenciones. Lo que
Castejón echa en falta es que se realicen mejor los Planes de
Participación Pública por los que estas áreas desarrollan nuevas
fuentes de ingresos y de desarrollo cuando las centrales ya hayan
cerrado.
En cuanto al futuro de la industria energética tras el desmantelamiento total del parque nuclear español, Castejón se mostró optimista. Mediante gráficas con datos de los últimos años mostró cómo la energía eólica y el resto de las de régimen especial (hidráulica, solar, biomasa, tratamiento de residuos y cogeneración) ya cubren la mayor parte de la demanda energética en España. “Mañana podríamos paralizar todas las centrales nucleares sin problemas de abastecimiento. Solo habría que emplear más gas natural, que en España está infrautilizado porque es más caro”, aseveró.
Asimismo, afirmó que la energía nuclear “actualmente aporta el 6% de la energía que se consume y su producción está en descenso desde 2010, superada por las renovables”. Para que esta transición energética suceda de manera exitosa, el físico comentó que hay que mantener la demanda sin un aumento de las emisiones, lo cual “implica un despliegue de medidas de ahorro y eficiencia y el despliegue de las renovables”. En el cierre de la ponencia, Castejón quiso resaltar dos de las claves que, a su juicio, mejorarían el futuro de la energía en España: el control al precio de la energía y el fomento del transporte público eléctrico.
El próximo jueves
tendrá lugar la última de las conferencias de los Jueves de la
Ciencia a cargo del doctor en bioquímica y biología molecular y
divulgador científico José Manuel Mulet Salat bajo el título ¿Qué
es comer sano?, que es también
el de su último libro, sobre las dudas, mitos y engaños en la
alimentación.
Un lejano lucero
que se resiste a revelar su naturaleza
En septiembre de 2015 varios astrónomos
publicaron un artículo titulado “Donde está el Flujo?”
(“Where´s
the Flux”) donde analizaban las extrañas
fluctuaciones de luz de una estrella que se encontraba a unos 1500
años luz de la Tierra, lo que despertó gran interés en la
comunidad científica. Algo extraño estaba orbitando la estrella y
no era un planeta. Hoy, luego de 4 años de estudio y más datos,
sigue siendo un misterio.
Su principal autora, la astrónoma norteamericana Tabetha Boyjian se dedicó a estudiarla en profundidad a partir de las observaciones del Telescopio Espacial Kepler de la NASA, detectando caídas de luminosidad periódicas y de forma irregular durante los años 2011 y 2013, un patrón que las computadoras habían pasado por alto. Baoyjian logró además identificarla como una estrella tipo F3 V (un poco más grande, más brillante que el Sol y de una edad mediana), lo que descartaba la formación de planetas jóvenes a su alrededor. Debido al impacto inicial que tuvo esta noticia y en referencia a su descubridora se le llamó la estrella de “Tabby”.
Desde décadas los astrónomos han
estudiado las fluctuaciones de luz que produce una estrella lejana
con el objetivo de estudiar los posibles planetas que podrían estar
transitando delante de ellas, eclipsando levemente su luz. Con esta
información es posible conocer (relativamente) el tamaño, la masa y
la distancia a su estrella.
Pero la estrella Tabby mostraba una
fluctuación irregular y no periódica, lo que significaba que no se
trataba de un único objeto compacto orbitándola (como lo sería un
planeta). El mismo estudio de T. Bayajian y demás astrónomos
concluía que “el escenario más consistente con los datos
disponibles es el paso de una familia de exocometas o fragmentos
planetesimales” (fragmentos de roca sólida) y recomendaba la
necesidad de futuras observaciones para terminar de interpretar el
sistema. A partir de allí comenzaron a edificarse variadas
hipótesis, con la idea de buscar una que coincidiera con las
observaciones actuales y futuras.
La más atractiva de todas se catapultó
unida a la aspiración de encontrar vida extraterrestre, idea que
apostaba por una mega estructura alienígena y tecnológicamente
avanzada, que estaría alrededor de la estrella colectando energía
al servicio de una civilización extraterrestre.
Esta idea emerge de la llamada “Escala
de Kardashov”, un método hipotético para medir el grado de
evolución tecnológica de una civilización, propuesta por el
astrofísico Ruso Nikolai Kardashov en 1964. Dicha escala posee tres
categorías, las que analiza principalmente la cantidad de energía
que una civilización es capaz de utilizar y el grado de colonización
de su entorno.
De esta forma, el grado “tipo I”
corresponde a una civilización que ha logrado el dominio de los
recursos de su planeta de origen, el “tipo II” de su sistema
planetario (donde su estrella central sería su principal fuente de
energía) y el “tipo III” el dominio de los recursos sobre su
galaxia. Para esta escala propuesta, la civilización humana aun no
alcanzaría el tipo I. ¿Habría acaso una civilización “tipo II”
orbitando la estrella Tabby?
Pero esta idea, si bien atractiva para
muchos, posee inconvenientes, la primera; comprender cómo funciona
una civilización extraterrestre avanzada y predecir sus
comportamientos resulta extremadamente difícil, por lo que suponer
la construcción de una estructura de tales características es
apresurada. La segunda es una hipótesis que con las herramientas
actuales resulta muy difícil de resolver, pues no se cuenta con la
tecnología necesaria para saber si dicha estructura se encuentra ahí
o no.
La primera variación de luminosidad
detectada ocurrió el 5 de marzo de 2011, cayendo un 15% y casi dos
años después, el 28 de febrero de 2013, un 22%. Para darnos una
idea, un planeta del tamaño de Júpiter (el más grande de nuestro
Sistema Solar) ocultaría una estrella como “Tabby” solo un 1%.
En el año 2017, Fernando Ballesteros,
doctor en Física de la Universidad de Valencia, propuso otra
hipótesis. Se trataría de un planeta con un sistema de anillos
gigantesco, seguido por un enjambre de satélites que lo acompañan
en su misma órbita alrededor de la estrella, llamados asteroide
troyanos (Júpiter
los tiene). Aunque esta idea posee sus dificultades y
detractores, lo importante es que predice un evento de
fluctuación de brillo muy específico para comienzos de 2021 y 2023,
lo que se puede estudiar con la tecnología actual. De confirmarse
dicha predicción podríamos afirmar que estaría muy cerca de ser la
correcta.
Pero el 19 de mayo de 2017 se detectó
una nueva caída en su luminosidad de un 3% y el 16 de julio del
mismo año otra caída del 2%, ahora detectada por la misma Bayajian.
Un tercer evento con una caída del 1% se detectó el 2 de agosto y
duró hasta el 17 del mismo mes. El 5 de septiembre de 2017 comenzó
un cuarto evento, el que se acentuó el 16 de septiembre con una
caída del 2,3%. El 10 de octubre, desde el Observatorio privado
Hereford de Arizona se detectó un brillo creciente de la estrella
que duró dos semanas, la que podría estar relacionada con un
tránsito de una enana marrón (una casi estrella). El 20 de
noviembre del mismo 2017 ocurrió un quinto evento de oscurecimiento
que llegó a un 0,44% recuperándose completamente el 16 de
diciembre, para luego volver a caer un 1,25% el 27 de diciembre de
2017.
Para el año 2018 se detectaron nuevas
fluctuaciones en febrero, marzo, abril y mayo, manteniéndose
irregulares hasta octubre del mismo año, cuando finalmente se
estabilizó. Para enero de 2019 presentaba nuevamente un aumento de
brillo. ¿Qué pasa alrededor de Tabby?
Luego de los
últimos
éxitos de China en la conquista del espacio, en febrero de 2019
un equipo de la Academia China de Tecnología Espacial (CAST),
dirigido por Hou Xinbin, presentó un proyecto para la instalación
de una estación espacial de energía solar. La misión intentará
instalar una gigantesca estructura con paneles fotovoltaicos en el
espacio que generaría unos 2,4 gigavatios de potencia eléctrica, la
que sería enviada a tierra por una gigantesca antena de 1,3
kilómetros mediante un haz de microondas. Mientras esperamos a
Tabby, nuestra humana ambición por conquistar el espacio nos
convierte, poco a poco, en una civilización tipo II.
En febrero de 2016 la propia astrónoma
Tabetha Boyajian realiza una popular charla TED en la que habla como
los científicos buscan y prueban sus hipótesis cuando se enfrentan
a algo desconocido.
Bajo vigilancia permanente.
Puedes encontrar información
actualizada en la página del Observatorio privado Hereford de
Arizona (HAO)
y disfrutar de las detalladas y espectaculares
gráficas que realiza el astrónomo norteamericano Bruce L. Gary.
¿Te gustaría saber más sobre
estrellas variables?
Desde el año 1911 existe la Asociación
Americana de Observadores de Estrellas Variables (AAVSO),
una organización internacional sin fines de lucro que se dedica al
estudio de estrellas variables, tanto por profesionales como por
aficionados, permitiendo que cualquier persona del mundo pueda
participar en descubrimientos científicos.
¿Una segunda estrella Tabby?
En marzo de 2019 se encontró una nueva
estrella con un cambio irregular en su brillo. La estrella llamada
EPIC 204376071, a solo 440 años luz de distancia, perdía hasta un
80% de su luminosidad, el que se recuperaba más lentamente
(ocultación asimétrica), descartando que fuese un planeta. Aquí
la noticia.
De las veintiséis hectáreas que conforman el recinto,
solamente falta una por ajardinar
El Real Jardín Botánico Juan Carlos I, dependiente
de la Universidad de Alcalá de Henares (UAH) y situado en su campus externo, mira
hacia el futuro con optimismo tras superar los peores años de la crisis y
diversas dificultades técnicas que complicaron su proyecto. Triplicando la
superficie del madrileño Jardín Botánico, este joven pulmón verde alcalaíno
ofrece actualmente cuatro grandes recintos expositivos que albergan numerosas
colecciones, además de actividades divulgativas sobre la naturaleza abiertas a
todos los públicos.
El proyecto comenzó hace 29 años de la mano de la Universidad de Alcalá sobre eriales del antiguo aeródromo de Alcalá de Henares, con cuatro objetivos principales: investigación científica, conservación de flora, educación medioambiental y creación de un recinto de recreo y de acercamiento a la naturaleza. Rosendo Elvira, director, gestor y redactor del Proyecto del Real Jardín Botánico Juan Carlos I afirma: “El proyecto del jardín ha sido un ente vivo y mutante desde su inicio que ha ido adecuándose a las posibilidades y oportunidades de cada momento. Hay muchos elementos que se proyectaron y no se pudieron realizar y otros que no estando previstos surgieron como oportunidades y pudieron desarrollarse”. Por ejemplo, la falta de financiación a causa de la crisis y otros problemas técnicos acabaron con la aspiración de crear el ecosistema del humedal y su lago asociado. “La ampliación de la autovía A2 supuso una profunda excavación de los terrenos próximos que conllevaron el sangrado del acuífero, por lo que nuestros pozos no pueden garantizar la existencia de ese gran lago ni afrontar la intensa evaporación estival”, explica Elvira. Ésta es la hectárea que falta por ajardinar y en la que se está trabajando actualmente desde la dirección técnica. Según Elvira, “está previsto crear un pequeño estanque en la parte más próxima al auditorio y posiblemente se implanten arboledas y matorral denso de muy bajo mantenimiento que sirva de refugio y sitio de cría para la avifauna que actualmente habita en el jardín”.
También aclara que aunque el Jardín Botánico ha padecido mucho a causa de la crisis al disminuir la mano de obra y los recursos para su conservación, así como limitando al mínimo posible el mantenimiento de plantaciones o la reparación de caminos y estructuras, parece que poco a poco va dejando atrás esa situación tan perjudicial: “Lo principal en estos años es que el proyecto pasó de utopía a realidad y que actualmente es un jardín botánico de referencia con una colección de cerca de 8.000 especies vegetales diferentes, es decir, de las mejores del país. Nuestros esfuerzos van dirigidos a garantizar su conservación y pervivencia»
Entre los mayores atractivos para el público se encuentra la rosaleda “Ángel Esteban”, que es visitada por unas 10.000 personas cada primavera. Ocupa una hectárea y cuenta con 3.500 ejemplares de casi 600 variedades diferentes de rosales, de las cuales 285 son exclusivas de este jardín. Otras colecciones especiales son la de cicadales, el arboreto de coníferas, el arboreto de exóticas, el orquidearium o el invernadero de cactus y crasas. Sin embargo, Elvira señala el recinto de flora regional como la zona más compleja de llevar a término, pero también como la que más satisfacción personal ha aportado al equipo técnico: “Creo que botánicamente es el elemento más importante y diferenciador de este Jardín Botánico y probablemente el de mayor dificultad porque la mayoría de las especies han debido ser producidas a partir de recolecciones de semillas en el campo y posteriormente aclimatadas”.
El Jardín Botánico abre sus puertas a los visitantes casi todos los días del año y organiza visitas guiadas el último sábado de cada mes, previa reserva por teléfono o en su página web http://botanicoalcala.es/. Además cuenta con la primera fotolinera pública de España, una estación de recarga para vehículos eléctricos alimentada con placas solares que se encuentra en el parking del Jardín y que puede alimentar hasta un máximo de cuatro vehículos simultáneamente. Cualquier persona puede acercarse a utilizarla y además está invitada a visitar el Jardín Botánico gratuitamente mientras recarga su vehículo.
La ciencia devuelve el esplendor al monumento gallego gracias a un revolucionario proyecto de trabajo con gran protagonismo femenino
Monserrat, Olga, Cristina, Marta y Estefanía, son algunos de los nombres propios del equipo de restauradoras que, tras diez años y más de cincuenta mil horas de trabajo, ha logrado recuperar la riqueza colorista de la obra del Maestro Mateo. Un proyecto coordinado por otras dos mujeres, Ana Laborde y Noelia Yangüas del Instituto de Patrimonio Cultural de España (IPCE). En este proyecto el género femenino es el protagonista.
La Fundación Catedral de Santiago realizó en 2015 un proceso de selección de titulados en Conservación y Restauración de Bienes Culturales, así como licenciados en Bellas Artes especializados y con experiencia en materiales pétreos y policromados, con especial atención al manejo de equipos láser. Junto con las coordinadoras, se organizó un equipo de doce especialistas, de los cuales, nueve fueron mujeres.
Una profesión de género femenino
La figura del restaurador vive, aún en la actualidad, una situación de infravaloración y de intrusismo. Más complicado aún puede parecer, si el profesional es una mujer, aunque la propia Laborde comenta que ella nunca lo ha sentido así. Para ella el problema es que hay una baja valoración cultural en general. En la restauración ocurre que existe una devaluación total del término y un desconocimiento total del trabajo realizado, independientemente de que lo haga un hombre o una mujer. De hecho, ellas son más más numerosas en esta disciplina. El trabajo del restaurador tiene un género predominantemente femenino- indica Ana Laborde.
Es cierto que en ocasiones cuando se trata de materiales pétreos o de mosaicos, que son materiales más pesados, la presencia de los hombres es más frecuente, pero el tipo de material no suele excluir a la mujer de realizar un trabajo. Lo verdaderamente complicado para una mujer- cuenta Laborde- es trabajar para empresas en proyectos con un plazo corto de ejecución, a veces en situaciones climáticas extremas, que requiere una movilidad geográfica, cuando se trata de querer conciliar con la vida personal y familiar.
Un proceso minucioso y respetuoso
El equipo de trabajo ha estado integrado por especialistas en pintura o policromía, químicos, físicos y ópticos especializados. Cada uno se ha encargado de una técnica distinta y posteriormente de interpretar los resultados de los análisis y las mediciones. El análisis de las policromías, desde un punto de vista multidisciplinar con la tecnología puntera que traen estos laboratorios, se ha traducido en poder conocer detalles de cada una de las piezas, tales como la policromía original, las restauraciones posteriores a las que se sometieron o incluso la incidencia de los agentes contaminantes.
Microscopio estereoscópico con cámara digital
acoplada. LEICA. S6D.
Microscopía electrónica de barrido- microanálisis
mediante espectrometría por dispersión de energías de rayos X (SEM-EDX).
Microscopio electrónico de barrido Quanta 200 de FEI.
Cromatógrafo de gases-espectrómetro de masas.
Cromatografía líquida de alta resolución. Agilent
Technologies. 1200 Infinity.
Espectroscopio FTIR. PerkinElmer. Spectrum One.
Como explica Laborde, de los diez años que ha durado el proyecto de restauración, aproximadamente la mitad, ha sido trabajo de documentación, estudios y pruebas. Además, durante las actuaciones sobre el monumento, estos no cesan, siendo un proceso sin fin que acompaña al trabajo in situ.
A la investigación previa hay que sumar, entre otros, los exámenes con microscopio estereoscópico en zonas estratégicas. Las muestras tomadas, analizadas en el laboratorio, han permitido conocer el número de capas de color que tenía cada una de las esculturas del pórtico, sus transformaciones químicas con el paso de los años e incluso los productos empleados en restauraciones llevadas a cabo sobre el monumento en los últimos años. Todas las muestras se han documentado gráfica y fotográficamente y se ha realizado una carta de correspondencia de policromías, una carta de colores y una reconstrucción gráfica de cada una de las piezas estudiadas.
Una restauración no es una simple operación estética. Cada intervención es un proyecto de investigación- Ana Laborde, coordinadora del proyecto.
Los datos que se han extraído de los morteros, las juntas o la policromía, han sido gracias a algunos métodos científicos, como el empleo de endoscopias, que han permitido conocer la situación y el estado de los ensamblados y anclajes que a simple vista no se podían conocer.
Mucha gente desconoce que los restauradores tienen una formación y unas necesidades científicas reales para desarrollar su trabajo. La imagen del restaurador, encerrado en su taller, más cercano al perfil de artista artesano, ya no existe. Cada intervención es un proyecto de investigación que entraña mucha complejidad. Cada obra es un documento del que extraer información y para ello se requiere la colaboración de químicos, físicos, biólogos. Es una forma de trabajar y es el único modo de ejercer una buena práctica.
A la pregunta de si se siente más una historiadora o una científica, Ana Laborde responde sonriente que se siente un poco de las dos, casi de una forma indivisible.
El arte y la historia, en la restauración, deben caminar indiscutiblemente de la mano de la ciencia.
Tras la publicación del Plan de Protección de la salud frente a las Pseudoterapias, Moreno expone su descontento por la forma en que no se prioriza la educación como herramienta de lucha contra las prácticas médicas sin evidencia científica
Para la catedrática y también investigadora de la Universidad de Valencia Carolina Moreno la iniciativa, a pesar de ser tanto interesante como necesaria, carece del fuerte enfoque educativo fundamental para que las medidas propuestas por los Ministerios de Sanidad, Consumo y Bienestar Social y de Ciencia, Innovación y Universidades funcionen.
El plan consta de 13 páginas y finaliza con la consideración de nuevas aportaciones por parte de diferentes sectores implicados, de colegios profesionales sanitarios y de sociedades científicas, por lo que la coautora del estudio de investigación “Perfil sociodemográfico del usuario de la homeopatía en España» no ha dudado en dar la opinión que le merece el contenido del documento. “Creo que el problema de las falsas terapias es precisamente que se rodean de falsa ciencia, por lo que considero que la campaña que se tendría que hacer tendría que estar más orientada a la educación y a mostrar que un gránulo de azúcar ni cura, ni mejora ningún problema de salud, más allá del efecto placebo”, afirma la también directora del proyecto ScienceFlows. De igual manera, Moreno explica que el error fue vender en farmacias este tipo de productos incluso después de todos los estudios llevados a cabo y cuando “deberían haberse vendido en hipermercados, como el resto de suplementos y vitaminas”.
Este y otros errores son los que el Gobierno busca enmendar con cada una de las 4 líneas de acción planteadas, abarcando desde el desarrollo de nuevos sistemas de información a la ciudadanía hasta la modificación de varios reales decretos para detener la publicación y promoción de productos, actividades o servicios que no cuenten con la debida autorización de comercialización. Otro enfoque interesante es el del ámbito educativo, pues se busca incorporar e impulsar en los programas de formación universitaria “los principios de conocimiento y de la evidencia científica.” De esta manera, se pone en marcha un proceso no solo de verificación de titulaciones ya existentes sino que también de modificación de los programas educativos oficiales de los futuros profesionales de la salud.
Aunque ya se han pronunciado algunos detractores, el futuro del plan es relativamente incierto. Se trata de un proyecto todavía en construcción, abierto a modificaciones y cambios, por lo que no se establece aún dentro de él ningún tipo de sanción para quienes no cumplan con la nueva normativa propuesta. La idea que sí comparten investigadores como Carolina, es que a pesar de no saber si las medidas cumplirán o no con su objetivo, su implementación constituirá un “fenómeno interesante para analizar”.
DÁCIL BORGES |Presidenta de la fundación tecnológica Click That Matters
#Tech4Girls fomenta el interés de las jóvenes por el mundo de la ciencia y tecnología en unas jornadas formativas especialmente dirigidas a ellas
Estudiantes de la ESO de diferentes institutos acudieron el pasado sábado, 23 de febrero, a una jornada tecnológica con el nombre #Tech4Girls. El evento, celebrado en la Nave de Madrid, se dirigía únicamente a chicas con el motivo de fomentar su interés y reducir la brecha de género en las carreras STEM, acrónimo inglés que engloba los estudios relacionados con la ciencia, tecnología, ingeniería y matemáticas. Al frente de la Jornada estuvo Dácil Borges, fundadora y presidenta de Click That Matters, una fundación que ofrece soporte tecnológico a entidades sin ánimo de lucro y que está formada únicamente por personal voluntario
Durante los talleres, las participantes pudieron introducirse de
manera amena en habilidades como la programación y la robótica. El proyecto
busca motivar a las jóvenes estudiantes ofreciendo una visión humana de la
tecnología. El objetivo es relacionar su mundo con sistemas eléctricos, para
que comprendan cómo funciona su entorno.
Dácil Borges señaló que “el ecosistema está evolucionando, y es importante comprender por qué y cómo evoluciona”. Y remarcó que las chicas están en una edad crucial en la selección de su vocación que marcará, seguramente, su futuro profesional.
La actividad contó con la ayuda y colaboración de las fundaciones
Woman Forward y Helping by Doing, así como con el patrocinio del grupo T2O, el
Grupo Panorama y el Ayuntamiento de Madrid, que cedió el espacio.
Los talleres
En esta ocasión, se desarrollaron tres actividades distintas
relacionadas con la robótica y la programación. “La idea de los talleres es
acercar tecnologías que van a estar implementándose durante los próximos años”,
manifestó Dácil.
En la sala de Realidad Virtual (VR), las alumnas crearon sus propios prototipos, universos digitales que podían modificar y animar, para acabar viendo sus resultados en 3D y movimientos de 360º mediante gafas de realidad virtual.
Con el taller de drones aprendieron pilotar un dron educativo con Scratch, un lenguaje de programación visual diseñado para iniciar a los más pequeños en estos procesos. La actividad acercó a las jóvenes a una tecnología en auge que no solo se emplea para ocio, sino que puede tener funciones de rescate y de mejora de la calidad humana.
También crearon su propia ciudad inteligente, empleando una maqueta de mobiliario urbano dotado por electricidad y programado de Arduino, un sistema de placas digitales que permite la interacción de dispositivos, detectando y controlando objetos; por ejemplo, haciendo que una barrera se alce cuando se aproxima un coche.
Luis Patricio Tisalema, informático y monitor de los talleres a
través de la agencia contratada Rockbotics, remarcó la importancia de hacer un buen uso de la
tecnología para crear un mundo más sostenible, limpio y humano. “Toda la
tecnología es buena, pero comporta un riesgo, hemos visto la utilidad de un
dron si se usa bien, pero también el peligro que puede llegar a tener”, resumía
Tisalema.
El futuro de las STEM
Hace pocas semanas que se presentó la quinta edición de la serie
“Científicas en Cifras”, el informe bianual del Ministerio de Ciencia,
Innovación y Universidades que mostraba una realidad preocupante: el número de
alumnas matriculadas en carreras científicas está disminuyendo, especialmente
en las áreas de Ingeniería y Tecnología.
El informe, presentado el pasado 11 de febrero, también mostraba
una proporción de mujeres dedicadas a la investigación estancada en un 39%
desde hace ya diez años; además de evidenciar la existencia del denominado
techo de cristal, que se hace más perceptible a medida que el rango de la
carrera investigadora va subiendo.
La idea del grupo organizador del evento Tech4Girls, es frenar esta tendencia y crear motivación e interés en las niñas
por el mundo de las STEM. La Fundación Click That Matters aspira repetir este
tipo de talleres, pero incluyendo otros formatos, como grupos mixtos y
actividades de otras áreas científicas. Para su fundadora, Dácil Borges, la
inclusión de la mujer lleva consigo la convivencia en un ámbito profesional
entre hombres y mujeres, por lo que es importante que niños y niñas aprendan a
trabajar juntos en entornos tecnológicos y científicos, y expresaba un deseo
personal: “si una o dos se acuerdan de este taller y acaban siendo ingenieras
será fantástico”.
El uso combinado de dos técnicas de diagnóstico como la medición del nivel de lahormona anti-Mülleriana y la distancia ano-genital, puede dar lugar a un diagnóstico más precisode la endometriosis. Así lo afirman María Teresa Prieto Sánchez y sus colaboradores, investigadores del Departamento de Ginecología y Obstetricia del Hospital Virgen de la Arrixaca, de la Universidad de Murcia (UMU) y del Instituto Murciano de Investigación Biomédica (IMIB).
La endometriosis es una enfermedad crónica dependiente de estrógenos. Se caracteriza por la aparición y alojamiento de nódulos de tejido endometrial funcional, es decir, el tejido expulsado durante la menstruación, en lugares inusuales. Afecta aproximadamente al 10% de mujeres en edad fértil, pero su detección es tardía en la mayoría de casos. El diagnóstico puede retrasarse entre 5 y 10 años desde la aparición de los primeros síntomas. Actualmente, uno de los pocos métodos precisos para encontrar estos nódulos de tejido es mediante laparoscopia, una técnica quirúrgica que permite ver la cavidad abdominal. Nuevas investigaciones tratan de estudiar marcadores o “señales” precisas para detectar esta enfermedad de forma temprana y no invasiva. Esto podrá ayudar a la detección temprana de la enfermedad, sin la necesidad de que la paciente pase por quirófano sin un diagnóstico previo y certero.
Combinación de nuevos marcadores
En los últimos años han sido estudiados de manera separada la efectividad del análisis de marcadores como la hormona anti-Mülleriana (AMH) y la distancia ano-genital (AGD) para el diagnóstico. Investigadores de Murcia, decidieron combinar estos marcadores para valorar el aumento de fiabilidad a la hora de predecir la presencia de esta afección. Esta técnica combinada permite abarcar todos los tipos de la enfermedad.
Los resultados indicaron que la combinación de unos niveles bajos de AMH y una AGD más cortaparecen predecir de forma más precisa la presencia de endometriosis que su análisis de forma separada. Concretamente, las pacientes con AMH menor y una AGD más cortas fueron 17.40 y 3.72 veces más propensas a padecer la enfermedad, respectivamente.
La endometriosis: una enfermedad cada vez más apoyada
Hoy, 14 de marzo, es el Día Mundial de la Endometriosis. Son numerosos lossíntomas asociados a la endometriosis que, consecuentemente, puede llegar a ser una enfermedad incapacitante e invalidante. Entre ellos, se encuentran los periodos menstruales dolorosos, el dolor durante y después del sexo y dolor en el intestino o bajo abdomen pudiéndose irradiar a otras zonas como espalda baja o la pelvis. A pesar de ello, existen casos asintomáticos. También se han estudiado casos de infertilidadcomo consecuencia directa de la enfermedad.
No existe, por el momento, cura para la enfermedad, sin embargo, los médicos proponen tratamientos que ayudan a paliar el dolor. Suelen ser medicamentos como analgésicos, tratamientos hormonales y cirugía.
Además del apoyo de estas asociaciones y la necesidad de una mayor concienciación social, debido a las características de esta enfermedad, se precisan estudios profundos de nuevos métodos de diagnóstico y tratamiento. La combinación de los dos marcadores, AMH y AGD, supone un gran avance a la hora de detectar esta enfermedad de forma no invasiva. Debido a que el número de pacientes fue relativamente pequeño (57 mujeres con endometriosis y 93 sin esta condición) y, además, existió sesgo en la selección y medición, los investigadores insisten en la publicación de su investigación, que se necesitan, de cara al futuro, más estudios para corroborar los resultados actuales.