Un evento donde la alineación del Sol, Luna y la Tierra, provocarán una sombra de aproximadamente 150 km de ancho que atravesará el norte de la Región de Coquimbo y el sur de la Región de Atacama. Todo por la particularidad de que la Luna, al ser 400 veces más pequeña que el Sol, pero estar 400 veces más cerca de nosotros que este, es capaz de cubrir a nuestra estrella en su totalidad. Una rareza en la mecánica celeste de nuestro Sistema Solar.
Mapa Eclipse – AURA
Un eclipse solar total que se auto promocionó en Chile y a nivel mundial, debido a que dentro de la zona de totalidad se encuentran importantes centros astronómicos científicos, Cerro Tololo, Gemini, La Silla (Las Campanas queda fuera de la totalidad pero tendrá 99,98% de cobertura), junto con condiciones atmosféricas que nos brindan cielos privilegiados, razón por la cual están instalados estos telescopios. No por nada cerca del 70% de la capacidad de observación mundial se concentrará en los próximos años en el norte de nuestro país.
Para que un eclipse total se vuelva a repetir en El Valle de Elqui tendremos que esperar hasta el 16 de enero del 2075. Pero no hay que esperar tanto para ver otro fenómeno igual en Chile continental: el próximo será el 14 de diciembre del 2020, en la región de la Araucanía, donde la línea del máximo pasará por el mismo Lago Villarrica. Luego, habrá que tener harta paciencia hasta el 5 de diciembre del 2048 en las cercanías de Puerto Aysén. Lo sigue el eclipse del 12 de agosto de 2064, que será visible en la región de Valparaíso, Metropolitana y de O’Higgins.
En el resto del país el fenómeno será parcial y también será visible en Argentina, pero con una menor duración y más cerca del atardecer.
Porcentajes de totalidad del eclipse en Chile
Las nubes
Sin embargo, no todo es tan sencillo, el eclipse, es en pleno invierno, y a baja altura sobre el horizonte. El Centro de Estudios Avanzados de Zonas Áridas CEAZA, realizó un estudio, que generó una proyección de la probabilidad de nubosidad con datos históricos de los últimos 15 años, de los 10 días antes y 10 días después del 2 de julio. En la zona costera de La Serena y Coquimbo hay entre un 60% a 80% de probabilidades que esté nublado. Lo que lo ideal, según el mapa, sería dirigirse hacia las zonas interiores de la región, donde destacan las comunas de Vicuña, Paihuano, La Higuera, Andacollo y Río Hurtado y las localidades de Incahuasi y Cachiyuyo en la Región de Atacama.
Promedio Nubes Julio – Ceaza
También hay que tener en cuenta que, debido a la altura de las montañas del Valle de Elqui, además de Vicuña, solo será posible apreciar la ocultación total desde algunos sectores de Paihuano y Cochiguaz, mientras que en Montegrande, Pisco Elqui, Alcohuaz y Varillar no será posible por el horizonte (a no ser que subas alguna montaña).
PeakFinder.org – Simulación Pisco Elqui (Plaza)
Es posible simular el horizonte y elegir un lugar libre de obstáculos geográficos usando el sitio web PeakFinder.org, solo hay que seleccionar el lugar y elegir la fecha y hora del eclipse.
Fotografía
Simulación en PeakFinder.org
Ya que se espera un colapso de la vía hacia Vicuña el día del eclipse ten en cuenta otras opciones, como las mencionadas anteriormente. Sería desagradable tener que ver el eclipse pegado en un taco en la carretera.
Para la protección de nuestros ojos, prefiera lentes para el eclipse de proveedores certificados, acá encontraras una lista con certificación ISO 123321-2 https://www.eclipsesolar2019.cl/safety/ o vidrio de soldador en grado 12 o superior. Probablemente, un lente de «dudosa» procedencia tenga también ese numero impreso en su interior, pero con la lista de fabricantes podrás comprobar si cumple el estándar de protección. Esto no es un tema económico, es salud.
eclipseschile.gob.cl/eclipse-seguro.html
No sirve ningún otro método, ni lentes de sol, ni radiografías, ni vidrio ahumado o pintado, expondrás tu vista a daño permanente. Aun así, al usar lentes para mirar el sol, no es recomendable mirarlo por un tiempo muy extendido. Se recomienda mirar por no más de 30 segundos continuos y tomar pausas de 2 minutos al menos.
A su vez no intentes sacar fotos con tus celular o cámara, sin un filtro en esta ya que podría terminarse dañando y derritiendo sus componentes internos tal y como se puede apreciar en estas fotos, durante el eclipse en Estados Unidos en 2017
Interior de un lente – Diagrama derretidoSensor Destruido por el Sol
Y nuestro octavo y último invitado de los chicos de la RedLBC es Michael Morales (@mikael_mm en Twitter) que nos envió esta entrada de su blog Saltos Convergentes como regalo para el Cumpleaños de Star Tres. Esperamos que la disfruten 🙂 .
Estrellas, conos y bastones, y el cómo vemos: de Hiparco a logarítmos, y la Ley Fechner-Weber
De pequeño uno de los datos que quedaron grabados en mi mente en relación a la vista fue el de los conos y bastones. Años después, en libros de astronomía, uno es introducido a la historia y definición de magnitudes estelares. ¿Cómo relacionamos algo de lo que se sabe de la vista con las estrellas? Se sabe y dice que la visión humana es logarítmica, y no es sorpresa que las magnitudes estelares esten descritas a su vez por un logarítmo. Acá se hará la simple conexión entre ambas ideas a la vez de repasar algunas definiciones e introducir algunos conceptos.
Tenemos que ir en orden y empezamos con las magnitudes estelares. Recordemos que no se busca dar todo un curso de astronomía, sino cubrir las generalidades, especialmente si ya hay blogs más especializados en cubrir a detalle dichos tópicos.
Magnitudes estelares
Hiparco (190BC-120BC) definió una escala de magnitudes para referirse al brillo de estrellas. Esta escala era completamente subjetiva y tenía seis categorías de 1, muy brillante, a 6, muy débil (apenas perceptible). En esa época era mucho pedir el uso de decimales en la comparación.
Norman Pogson, en 1956, nota que la relación de brillos entre una estrella de magnitud 1 era 100 veces más brillante que una estrella de magnitud 6 (cinco unidades de diferencia), utilizando un modelo logarítmico para su descripción. Por alguna razón no es común encontrar su nombre acompañando la conocida ecuación de magnitudes. Si se tienen dos estrellas, una de magnitud y otra de magnitud , con los brillos y , respectivamente, tenemos que la razón de brillos está dada por la expresión:
la cual puede reescribirse para tener la diferencia de magnitudes
Generalidades del cómo vemos
Pues, el sistema del ojo es complejo en sí, pero en la parte básica de cómo percibimos la luz están involucrados dos juegos de células ubicadas en la retina: conos y bastones. La retina es la responsable de comunicar la información del nervio óptico al cerebro.
Los Bastones: son muy sensibles y son importantes para condiciones pobres de luz, es decir, la obscuridad; unos 92 millones de células de este tipo. Son monocromáticos.
Los Conos: son poco sensibles, pero son los responsables de percibir la luz de día, los colores; unos 4.6 millones de ellos. Hay de tres tipos para este fin, uno para cada color: rojo, azul y verde (el RGB).
En 1834, el fisiólogo alemán Ernst Weber y el psicólogo experimental Gustav Fechner describieron la ley del estímulo. Esta ley indica que la sensación del cambio en un estímulo, , es proporcional al logarítmo del cambio del estímulo, , en sí, . Escrito de otra manera:
que equivale a
donde es una constante. Esta ley se aplica tanto a la audición como a la vista.
¿Cómo se relaciona la Ley de Fechner-Weber con la ecuación de Pogson de magnitudes de las estrellas?
Notemos que el cambio en el estímulo no es más que la diferencia de magnitudes, ya que esta fue una definición por su percepción subjetiva, . Continuando con el abuso de los diferenciales, podemos escribir el cambio del estímulo como . ¿Cuáles son los estímulos? Los brillos y . Combinando resultados obtenemos
por lo cual , al escribirlo en base logarítmica (10), equivale a , y así tenemos la conexión entre la ecuación de Pogson de magnitudes estelares y la Ley Fechner-Weber.
Referencias:
[ul type=»e.g. circle»] Carroll, B. y Ostile, D. (2007) “Introduction to modern astrophysics” Segunda edición. Addison-Wesley. [/ul]
[ul type=»e.g. circle»] Curcio, C., Sloan, K., Kalina, R., y Hendrickson, A. “Human Photoreceptor Tomography” J. of comp. neurology 292:497-523 (1990).[/ul]
[ul type=»e.g. circle»]Girod, B. “Human visual perception” (Lecture notes, Image and video compression)[/ul]
[ul type=»e.g. circle»]Pillow, J. “Methods and introduction to vision” (Lecture notes, Perception)[/ul]
[ul type=»e.g. circle»]Shen, J. “On the foundations of vision modeling I. Weber’s law and Weberized TV restoration”. Physica D 175 (2003) 241-251[/ul]
La séptima nota invitada de la RedLBC en el Cumpleaños de Star Tres es de los chicos del blog Conexión Causal. El autor de esta entrada es Jorge Díaz (@jsdiaz_ en Twitter), nuestro Físico de Partículas favorito 🙂 . Sin más presentación, los dejamos con su nota.
Un espectro vale más que mil imágenes
El otro día llegué algo tarde a la universidad por lo que encontrar estacionamiento fue difícil. Mientras recorría los varios pisos del estacionamiento frente al Departamento de Física noté algo poco común: había un puesto disponible en el primer piso. Después de exclamar YEAH! estacioné allí mi auto y salí camino a mi oficina con una sonrisa, es un gusto encontrar un espacio tan bien ubicado; probablemente alguien que llegó temprano tuvo que irse por un motivo imprevisto, porque los pocos espacios en los primeros pisos se ocupan temprano. Esto me dejó pensando sobre la similitud entre los espacios en el estacionamiento y los estados que los electrones ocupan en un átomo.
Dada la gran cantidad de profesores, administrativos y estudiantes, existen varios estacionamientos de varios pisos. Cada mañana decenas de vehículos ocupan los muchos espacios disponibles. Los primeros en ocuparse son obviamente aquellos en el primer nivel, ya que eso permite salir del estacionamiento en forma rápida y sin necesidad de usar las escaleras. Luego se llenan los pisos superiores, por este motivo llegar tarde implica un ejercicio bajando largas escaleras en la mañana y luego subirlas en la tarde porque sólo habrá espacios disponibles en los pisos superiores. Dada la comodidad del primer nivel los estacionamientos disponibles son muy apetecidos, sin embargo como en toda institución existe una jerarquía y las personas con altos rangos tienen estacionamientos reservados, por ejemplo el presidente de la universidad y el entrenador del equipo de fútbol tienen espacios marcados con su cargo en el primer piso. Asimismo, en otros pisos decanos y directores de oficinas administrativas tienen sus puestos reservados. El primer nivel también tiene varios puestos reservados para personas con discapacidad y algunos profesores eméritos (universidades como UC Berkeley tienen también espacios exclusivos para ganadores del Premio Nobel). En el primer piso sólo hay dos espacios disponibles para uso general. Algo similar ocurre en el segundo nivel, donde descontando los espacios reservados sólo ocho espacios son para uso general; el tercer piso tiene 18 y el cuarto 32.
En el espíritu de una vida saludable el subir y bajar escaleras no debería ser algo negativo, para muchos físicos este es el único ejercicio diario, sin embargo hay otro problema: debido a las lluvias torrenciales los pisos superiores son más seguros en caso de inundación, por lo que la empresa que administra los estacionamientos cobra de acuerdo a dónde uno estacione su vehículo y los pisos superiores son más costosos (el primer piso tiene un costo C1=$1/hora, el segundo C2=$4/hora, el tercero C3=$9/hora, etc.), por lo que la única manera de pagar menos es llegar muy temprano para usar los puestos más baratos.
Cuando se instauró la regla de pagar de acuerdo al piso que se usa hubo muchas quejas, por lo que la empresa ofreció algo a cambio: una lotería entre quienes usen el estacionamiento que al azar entregaría una suma arbitraria y razonable de dinero que sólo podría usarse allí, permitiendo el uso de alguno de los pisos superiores. De esta forma si alguien estacionado en el 2° piso gana $5/hora en el sorteo entonces puede usar este premio para mover su vehículo al 3er piso ya que C2+$5/hora=$9/hora=C3. Notar que si esta persona gana menos de lo necesario para pasar a un piso superior entoces el premio no puede ser usado.
De la misma manera, si hay un puesto desocupado en un piso inferior, este puede ser usado por alguien en un piso superior y pagar sólo ese valor, por lo que alguien por ejemplo en el 4° piso puede reacomodar su vehículo en el 2° piso en caso de haber un espacio disponible más tarde y pagar C2=$4/hora en vez de C4=$16/hora, permitiendo un ahorro de C4-C2=$12/hora.
El sistema parece complicado pero funciona bastante bien, así cuando alguien gana el premio puede subir de nivel y en caso de haber espacio disponible alguien puede ahorrar pasando a un piso más bajo.
Las misteriosas líneas oscuras
Después de graduarse en Cambridge, el gran Isaac Newton se fue a la granja de su familia cuando la universidad fue cerrada debido a la Gran Plaga. Allí además de revolucionar la física, las matemáticas y de escribir la obra más importante en la historia de la ciencia, Newton descubrió que la luz solar se descompone en los colores del arcoíris al hacerla pasar por un prisma. Aunque este descubrimiento es usualmente mencionado como algo menor al compararlo con su obra monumental (los Principia), esta separación de la luz blanca en sus colores no sólo motivó una portada genial para el álbum The Dark Side of the Moon, también llevó a una revolución en la física y la astronomía.
A esta separación de la luz blanca en sus colores se le llama espectro. Esto cautivó a físicos y químicos del mundo entero y el estudio del espectro solar se transformó en una disciplina llamada espectroscopía. En 1802 el químico inglés William Wollaston notó algo extraño: en ciertas regiones del espectro podían verse líneas oscuras. Años más tarde, en forma independiente el alemán Joseph von Fraunhofer inventó un aparato llamado espectroscopio para estudiar el espectro solar en detalle. Fraunhofer notó el mismo efecto: el espectro solar mostraba líneas oscuras, como si el espectro revelara que cierta luz faltara en zonas determinadas. Interpretando la luz como una onda, los distintos colores de la luz son una manifestación del tamaño de la onda, lo que se caracteriza por su llamada longitud de onda. Fraunhofer se dedicó a estudiar estas misteriosas líneas del espectro solar, catalogando cientos de ellas e identificando la longitud de onda a la que aparecían. Parecía que algo producía sombras a determinadas longitudes de onda o absorbiera la luz por lo que a esto se le llamó un espectro de absorción o espectro con líneas de absorción.
Líneas de Fraunhofer en el espectro solar y sus longitudes de onda en nanómetros (milmillonésimas de metro)
Siguiendo a Fraunhofer, muchos científicos en Europa se dedicaron a estudiar detalles de las famosas líneas. Otro tipo de espectro había también sido observado, en el que al contrario de líneas oscuras se observaban líneas de colores en ciertas regiones del espectro de gases calientes, a los que se les llamó espectros de emisión o líneas de emisión.
Líneas de emisión de varios elementos.
El físico francés Leon Foucault, conocido por sus mediciones de la velocidad de la luz y el famoso péndulo que lleva su nombre que muestra la rotación de la Tierra, también se interesó en los espectros. Convencido que espectros de emisión y absorción debían estar relacionados, en 1849 usando muchos elementos demostró experimentalemente que las líneas de emisión y absorción aparecen a la misma longitud de onda para un determinado elemento.
En 1855, el químico alemán Robert Bunsen desarrolló en la Universidad de Heidelberg el famoso mechero que hasta nuestros días se usa en laboratorios del mundo entero. A fines de esa década el gran físico alemán Gustav Kirchhoff era bastante reconocido por sus aportes en óptica y en circuitos eléctricos (todo estudiante que ha tomado un curso de electromagnetismo ha sufrido con las leyes de Kirchhoff para resolver corrientes en circuitos). Kirchhoff que se había trasladado a Heidelberg unos años antes, tenía además un interés en el estudio de los colores de los cuerpos al ser calentados. Cuando se enteró de la invención de Bunsen le sugirió que su mechero podría usarse para estudiar el espectro generado al calentar distintas sustancias. Adaptando un pequeño telescopio y un prisma, juntos construyeron un aparato para esta tarea, similar al espectroscopio creado por Fraunhofer pero reemplazando la luz solar por la llama del mechero. Bunsen y Kirchhoff se dedicaron a estudiar los detalles de los espectros de una variedad de elementos químicos y notaron que en todos los casos podían observarse las famosas líneas. Estas líneas de Fraunhofer, como se les llamaba, estaban presentes en todos los espectros, sin embargo cada elemento tenía su propio set de líneas. Estudiando un elemento tras otro, no encontraron dos sets de líneas iguales y a pesar de desconocer su origen, Bunsen y Kirchhoff propusieron que estas líneas espectrales serían como una huella dactilar de cada elemento químico, es decir, cada elemento químico tendría un set único de líneas que podría usarse para identificarlo.
En 1859 además encontraron que varias de las líneas encontradas por Fraunhofer en el espectro solar coincidían con las de varios elementos estudiados con el mechero.
Bunsen y Kirchhoff llegaron a la notable conclusión de que las línes oscuras en el espectro podrían usarse para identificar los elementos químicos presentes en la superficie del Sol. Esta idea generó una revolución en la astronomía ya que permitiría estudiar los componentes de las estrellas sólo observando su luz. No es necesario recolectar una muestra de las estrellas tan lejanas, sólo basta con estudiar su espectro para determinar sus componentes. Más tarde se descubrió que las líneas se mueven hacia zonas rojas cuando la fuente se aleja y hacia el azul cuando se acerca (llamado efecto Doppler que discutiremos en algún momento), lo que además permitió determinar cómo se mueven los cuerpos celestes distantes y su velocidad, además de conocer los componentes de las estrellas, galaxias distantes e incluso llevó al descubrimiento de la expansión del universo.
Electrones en átomos
En los siguientes 50 años la astronomía vivió grandes avances, se construían telescopios cada vez más grandes los que permitían recolectar la luz de objetos más lejanos. Astrónomos usaban el método espectroscópico de Bunsen y Kirchhoff para estudiar la valiosa información codificada en la luz de las estrellas. Los físicos por otro lado, vivían en una crisis ya que seguían sin poder explicar el origen de las útiles pero misteriosas líneas espectrales.
En una rama de la física aparentemente desconectada de todo esto, Ernest Rutherford anunció en 1911 el descubrimiento del núcleo atómico. Hasta entonces se pensaba que el átomo era una masa amorfa con cargas positivas y negativas, pero el descubrimiento de Rutherford reveló que el átomo posee un núcleo con carga positiva y un enjambre de electrones negativos orbitan el núcleo de manera parecida a como los planetas orbitan el Sol.
Sin embargo el llamado modelo planetario de Rutherford tenía un problema: cargas eléctricas opuestas se atraen, por lo que los electrones serían atraídos por el núcleo y el átomo planetario dejaría de existir. Rutherford había invitado a Niels Bohr a la Universidad de Manchester como investigador postdoctoral para unirse a su grupo, que incluía al químico George de Hevesy y al físico Charles Galton Darwin (nieto del gran Charles R. Darwin). Bohr quiso rescatar el modelo de Rutherford y propuso una solución al problema: los electrones en torno al núcleo no se mueven en órbitas arbitrarias, sino que sólo pueden ocupar órbitas permitidas a las que se les llamó niveles. Algunos electrones estarían en el primer nivel (n=1), los siguientes ocuparían el segundo nivel (n=2), luego el tercel nivel (n=3), y así.
Los electrones tendrían prohibido orbitar el núcleo entre dos niveles. De la misma forma que los automóviles en un estacionamiento pueden ocupar el primer piso, o el segundo o el tercero, pero no pisos intermedios. Al igual que un ascensor, dejando de lado el que aparece en Being John Malkovich, lleva pasajeros de un piso a otro pero no a pisos intermedios. La solución de Bohr parece simple pero arbitraria ya que en principio no hay un motivo claro para que existan órbitas permititidas (niveles) y zonas prohibidas para los electrones. Bohr había propuesto estos niveles discretos motivado por la idea de Max Planck una década antes que permitió resolver otra crisis de la física al proponer que la radiación podía sólo emitirse en paquetes discretos de energía llamados cuantos. El mismo Einstein usó esta idea en su explicación del efecto fotoeléctrico (que hoy usamos en placas solares y le dio el Premio Nobel en 1921) llamando fotones a los cuantos de luz. Detrás de la primitiva e inofensiva idea de estos cuantos usada por Planck y Einstein había una revolución en la física a punto de estallar; estos cuantos eran una caja de Pandora que Bohr acababa de abrir: la mecánica cuántica.
La idea del joven danés (Bohr tenía sólo 28 años) fue considerada con mucho escepticismo por los destacados físicos de la época ya que la única explicación que Bohr daba a sus niveles discretos era que la naturaleza del mundo atómico era cuántica (es necesario mencionar que aquí sólo he presentado una versión en palabras del modelo de Bohr, sin embargo en su propuesta original Bohr mostró un consistente formalismo matemático que llevó a estas ideas). Aunque los físicos más conservadores miraban con desconfianza las nuevas ideas, una nueva generación de científicos incluyendo a Arnold Sommerfield y Max Born vieron en las ideas de Bohr una irreverencia hacia la física clásica que les resultó muy atractiva. A pesar de que el modelo de Bohr permitía evitar el colapso del átomo descrito por Rutherford, todavía debía pasar la prueba más dura de toda idea científica: verificación experimental. Como muy bien lo dijo Feynman, no importa cuán bella sea tu idea, si no está de acuerdo con el experimento entonces es errónea.
En el estudio del efecto fotoeléctrico, Einstein usó la idea de que los electrones en un material podían absorber un cuanto de luz (fotón) y por conservación de la energía estos electrones podrían escapar del material generando una corriente eléctrica. Bohr trabajó en los detalles de su modelo y motivado por la idea de Einstein estudió qué pasaría si un electrón en un nivel pudiese absorber un fotón. Cada nivel corresponde a una determinada energía. Bohr encontró que los electrones de menos energía ocuparían los niveles más bajos (igual que en el estacionamiento, los espacios en el primer nivel se ocupan primero por ser más cómodos y baratos), este nivel de mínima energía se le denomina estado fundamental (o ground state, en inglés).
Mientras más energía tuviese un electrón ocuparía un nivel más alto (en el caso del estacionamiento, mientras más dinero se pague más arriba puede uno estacionar su auto). Bohr demostró que si un fotón posee una energía igual a la diferencia entre dos niveles entonces un electrón podría absorberlo y saltar a un nivel superior (similar al premio de la lotería en el estacionamiento que permite usar un piso superior), esto resulta en lo que se llama un electrón excitado. Bohr notó que sólo aquellos fotones que tuvieran una energía igual a la diferencia entre dos niveles serían absorbidos, ya que el electrón sólo puede saltar de un nivel a otro y no a zonas intermedias prohibidas. Esto implicaría que si una fuente caliente (como una estrella) emite un espectro de luz continuo (luz de todos los colores) como establece la primera ley de la espectroscopía de Kirchhoff, entonces los electrones de un gas ubicado entre la fuente y el observador podrían absorber sólo aquellos fotones con la energía precisa para hacerlos saltar a algún nivel superior. Estos fotones absorbidos estarían ausentes al otro lado de la nube de gas y por lo tanto un observador verá zonas del espectro en que faltan fotones… zonas oscuras a determinadas longitudes de onda: líneas de Fraunhofer! El modelo atómico de Bohr permite explicar las misteriosas líneas espectrales. Así como un electrón puede excitarse y pasar a un nivel de mayor energía al absorber un fotón, el electrón puede volver a su nivel original (en general todo sistema físico intentará volver a la configuración de mínima energia posible) y el exceso de energía es emitido en forma de luz. De esta manera un fotón es emitido por el átomo con una energía igual a la diferencia entre los dos niveles (igual al caso de alguien que reacomoda su auto en un piso inferior ahorrando algo de dinero). Este fotón emitido con la desexcitación del electrón es lo que genera las líneas de emisión. Dado que la naturaleza de las líneas emisión y absorción es la misma, el modelo de Bohr señala que esta deben ocurrir a la misma longitud de onda, tal como fue observado por Foucault.
Además Bohr demostró que los niveles de energía no son los mismos para todos los elementos, dependen del número de electrones (que es lo que identifica un elemento químico de otro). Por este motivo cada elemento debería poseer un set de líneas espectrales únicas. Bohr mostró que la física cuántica que motivó su modelo podía explicar las observaciones de Fraunhofer, Foucault, Bunsen y Kirchhoff (y muchos otros que he omitido en esta historia). Observaciones experimentales validaron este nuevo modelo del átomo, el que también permitió predecir el espectro de otros elementos, algunos desconocidos en ese tiempo. Bohr fue reconocido con el Premio Nobel en 1922 por sus estudios de la estructura del átomo y la radiación, y se transformó en uno de los arquitectos de la mecánica cuántica.
Bohr usó la mecánica cuántica todavía en pañales para proponer su modelo que establece los niveles permitidos para los electrones, sin embargo había algo que no podía explicar: ¿por qué los electrones ocupan diferentes niveles? en otras palabras, ¿podrían todos los electrones ocupar el nivel mas bajo? Esto no se observa, de la misma forma que en el estacionamiento que uso cada día sólo hay 2 espacios disponibles en el primer nivel, y 8 en el segundo. Lo mismo ocurre en los átomos. Sin embargo el modelo de Bohr no puede explicar este fenómeno. Pero la solución vendría pronto. El año 1900 no sólo nacía la mecánica cuántica con el trabajo de Max Planck, también nació Wolfgang Pauli en Viena.
Reconocido como un genio a temprana edad, fue estudiante de Sommerfield en Munich y a los 20 años ya había escrito papers en relatividad, incluyendo un artículo enciclopédico que impresionó al mismo Einstein. El año que Einstein recibía su Premio Nobel, el joven austriaco terminaba su doctorado. Luego pasar un tiempo en el instituto de Bohr en Dinamarca, Pauli aceptó una posición en la Universidad de Hamburgo en el norte de Alemania. Allí mostró cómo el modelo de Bohr no podía explicar la estructura periódica de los elementos químicos (esa famosa tabla que todos hemos visto). Los electrones eran ordenados en los niveles de Bohr mediante el llamado número cuántico principal (n) que es una etiqueta del nivel, similar a la numeración de los pisos del estacionamiento. Las propiedades de las órbitas de los electrones en cada nivel tenían también otro par de etiquetas. Pauli propuso que los electrones tendrían otro número cuántico (otra etiqueta), un nuevo número cuántico y que cada electrón en un átomo tendría su propio set de números cuánticos, es decir, dos electrones no pueden tener los mismos números cuánticos (más tarde el nuevo número cuántico introducido por Pauli sería interpretado como el espín del electrón por Samuel Goudsmit y George Uhlenbeck, este último fue el supervisor de Emil Konopinski, el protagonista de nuestra historia anterior). Esta idea llamada Principio de Exclusión fue anunciada en enero de 1925; Pauli tenía sólo 24 años, pero fue capaz de explicar por qué los electrones se distribuyen en niveles. Debido a que los electrones no pueden tener los mismos números cuánticos, sólo cierto número de espacios pueden ser ocupados por electrones en un determinado nivel. Pauli calculó que en el nivel n podría haber como máximo 2n^2 electrones, es decir, 2 espacios en el primer nivel, 8 en el segundo, 18 en el tercero, 32 en el cuarto, etc. Usando el modelo de Bohr y su principio de exclusión, Pauli pudo explicar cómo se ordenan todos los elementos de la tabla periódica y sus propiedades químicas. Pauli se convirtió en otro de los arquitectos de la nueva física, la física cuántica y su principio de exclusión le dio el Premio Nobel en 1945, 15 años después de inventar el neutrino, pero esa es otra historia (al igual que Bohr, Pauli presentó un complejo pero consistente formalismo matemático cuya interpretación son las palabras presentadas aquí).
Newton jamás visualizó que al descomponer la luz del Sol, otros lo harían con la llama de un mechero y la luz de las estrellas capturada con modernos telescopios que usan espejos curvos que él mismo diseñó en su tiempo libre en la granja de su familia. Siglos más tarde varios genios del siglo XX combinaron nuevas formulaciones matemáticas con revolucionarios experimentos en sus laboratorios, así la física atómica llevó a la física nuclear y al desarrollo de la mecánica cuántica. Gracias a Bohr y Pauli ahora entendemos cómo estudiar la luz de las estrellas más distantes en el universo usando los efectos que ocurren en los átomos de sus atmósferas (que actúan como la nube de gas en la figura más arriba). Incluso Curiosity recorre Marte disparando un poderoso láser para generar espectros y estudiarlos.
La espectroscopía es una de las disciplinas más importantes en astronomía ya que nos permite determinar los átomos y moléculas que componen los distantes astros, cómo se mueven y una infinidad de propiedades que los astrónomos han aprendido a descifrar para armar el puzzle que llamamos universo. Mucha gente piensa que la astronomía consiste principalmente en capturar imágenes espectaculares del cielo, sin embargo el uso de la espectroscopía muestra que cada fotón trae valiosa información que los astrónomos nos revelan. En el siglo XIX Bunsen y Kirchhoff bajaron las estrellas de los cielos y las trajeron hasta nuestros laboratorios. Siempre se dice que una imagen vale más que mil palabras, pero en física y astronomía, un espectro vale más que mil imágenes.
Espectro solar de alta resolución (crédito: N.A. Sharp, NOAO/NSO/Kitt Peak FTS/AURA/NSF)
Nota: es cierto que este post nació cuando encontré un puesto luego de darme vueltas en el estacionamiento, pero las reglas de su funcionamiento son una invención para hacerlo consistente con las características del modelo de Bohr. No, no hay lotería en el estacionamiento.
Imágenes: NASA, NOAO, Universidad de Heidelberg, American Physical Society.
Hoy les traemos la sexta colaboración de nuestros amigos de la RedLBC en la semana cumpleañera de Star Tres. El invitado de hoy es Alexis Rebolledo (@AlexiusToday en Twitter), quien nos viene a hablar de nuestro animal favorito: los gatos. Esperamos disfruten la nota que también pueden encontrar en su blog alexiustoday.org 🙂 .
Interactuamos no sólo con los seres humanos, sino también con los animales. Dos de los animales no humanos más comunes que interactúan con nosotros son los perros domésticos (Canis familiaris) y los gatos (Felis catus). La capacidad social de los gatos domésticos, en comparación con los perros domésticos, no ha sido explorada a fondo en el contexto de la interacción humana, no obstante aquello, es bien conocida su particular actitud poco sociable, como de no deberle nada a nadie. La razón puede estar en la historia de la domesticación del gato y de la sociabilidad de sus antepasados.
Hace una década, se pensaba que la domesticación del gato comenzó hace unos 4.000 años, aunque la evidencia reciente encontrada en los depósitos de Chipre ha determinado que la asociación gatos y humanos tiene más de 9500 años de antigüedad. A continuación pueden apreciar el hallazgo en cuestión:
En la imagen se puede apreciar el esqueleto de un gato junto al de un humano. Fuente: Science 9 Abril 2004.
Los análisis genéticos sugieren que los ancestros de los gatos eran los Felis silvestris, que eran animales solitarios y domesticados en Medio Oriente, probablemente coincidiendo con el desarrollo de la agricultura, tal como se señala en un reporte publicado en Science. Los gatos tienen una historia más corta de domesticación, en comparación con los perros, a los que se considera que han sido domesticados hace unos 15.000 años. Esto se ha traducido en una menor atención a los gatos domésticos en el contexto de la interacción humana.
Ya que los gatetes dependen de los alimentos suministrados (intencionalmente o no) por los seres humanos, han desarrollado algunos rasgos relacionados con la interacción social. Por ejemplo, en un estudio publicado en el Journal of Comparative Psychology se estableció que su maullido, una de las conductas comunicativas de los gatos domésticos, es percibido por los seres humanos como más agradable que el de los gatos salvajes africanos (Felis silvestris lybica). En otro estudio, publicado en Current Biology se estableció que algunos gatos muestran un “ronroneo de solicitud” que se exhibe en la hora de la comida, cuando los gatos la están solicitando activamente a sus dueños y que es percibido por los seres humanos como más urgente y menos agradable que el ronroneo habitual.
Ronroneo para solicitar comida:
Ronroneo habitual:
Como se señala en un estudio publicado en el Journal of Comparative Psychology al igual que los perros, los gatos domésticos también tienen la capacidad de interpretar una señal o gesto humano para localizar alimentos ocultos. También es sabido que reaccionan a los seres humanos no familiares y familiares de manera diferente, tal y como lo publican en Applied Animal Behaviour Science. Estos resultados indican que las habilidades sociales de los gatos domésticos no se limitan a sus congéneres, sino que también son aplicables a su relación con los seres humanos.
Una habilidad social, ampliamente vista en varias especies, es la diferenciación entre sus congéneres mediante el uso de las diferencias individuales en las vocalizaciones. Por ejemplo, los pinzones cebra reconocen a sus compañeros sobre la base de sus llamadas (2004, 2008); los delfines nariz de botella utilizan silbatos para el reconocimiento madre-hijo (1999), la madre de los monos verdes puede distinguir los gritos de sus propios hijos de los de las demás (1980), y las hembras de los elefantes africanos pueden distinguir las llamadas de los miembros del grupo familiar (2000). Del mismo modo, algunos animales domésticos también son conocidos por ser capaces de reconocer los seres humanos individuales a través de la voz. Por ejemplo, los caballos pueden distinguir las formas y las voces de los manipuladores que les son familiares cuando se presentan junto a extraños (2012). Los perros pueden distinguir las voces y los rostros de los propietarios de entre otras personas (2007). Pero… ¿y qué hay con los gatos?
Como mencioné anteriormente, los gatos pueden distinguir los humanos conocidos de los desconocidos. Sin embargo, no se sabía si esta distinción también la podían hacer con el uso de las señales vocales. En un experimento recientemente publicado en Animal Cognition se investigó si los gatos domésticos podían reconocer las voces de sus propietarios y distinguirlos de otras voces humanas. Se clasificaron las respuestas de los gatos a los estímulos en seis categorías: movimiento de oído, movimiento de la cabeza, dilatación de la pupila, vocalización, movimiento de la cola y desplazamiento. Cada categoría fue anotada por separado como 0 (ausente) o 1 (presente). En el gráfico que sigue se muestra un resumen de los estilos de respuesta de los gatos, donde más de la mitad respondieron a los estímulos de voz moviendo sus cabezas, alrededor de un 30% también respondió moviendo sus orejas, y poco menos del 20% de los gatos demostró vocalización y movimiento de la cola. Esta tendencia no fue diferente entre las voces de los propietarios de las voces de extraños.
Luego de un proceso de deshabituación de sus dueños y habituación con extraños, los gatos fueron nuevamente evaluados ante estímulos de voz. ¿Resultados? disminuyó la magnitud promedio de respuesta ante las voces de extraños a pesar del período de habituación. Por el contrario, cuando los gatos oyeron las voces de sus propietarios originales llamándoles por sus nombres reveló un aumento significativo de magnitud de la respuesta.
Esto sugiere que los gatos domésticos son capaces de reconocer a los individuos humanos tanto a través de la comunicación vocal, como a través de la interacción cara a cara, ampliando así la evidencia publicada en 2008 en la revista Applied Animal Behaviour Science.
Estos resultados indican que los gatos no responden activamente con conductas comunicativas a los propietarios cuando les llaman estando fuera de su vista, a pesar de que son capaces de distinguir sus voces, a diferencia de los perros, que son conocidos por su reacción conductual ante la voz y gestos de sus propietarios.
El estilo de respuesta de los gatos podría ser uno de los factores que lleva a la gente a creer que son tranquilos, perezosos, antipáticos, poco y nada cariñosos o menos cooperativos y simpáticos que los perros. En general, los propietarios reportan que los gatos tienen una relación especial con ellos, lo que indica que los gatos podrían ser capaces de establecer un apego con estos. Los perros, por otro lado, muestran el comportamiento de apego a sus propietarios de forma explícita…e incluso exagerada.
Históricamente hablando, los gatos, a diferencia de los perros, no se han domesticado para obedecer las órdenes de los humanos. Más bien, parecen tomar la iniciativa en la interacción humano-gato (1991).
Estas diferencias históricas y de comportamiento complican la aplicación de los paradigmas experimentales utilizados para estudiar los perros en el estudio de los gatos, problema metodológico que seguramente se perpetuará mientras no consigamos su consentimiento.
——
Este post lo publiqué antes en mi anterior blog a partir de la traducción de los papers que enlazo e inspirado en esta nota.
El día de hoy tenemos nuestra quinta nota invitada de los chicos de la RedLBC y es el turno de Félix Moronta (@morontafeliz en Twitter). Con esta nota, Félix inauguró su blog, y le tiene especial cariño. Es por eso que ha querido compartirla con nosotros en el Cumpleaños de Star Tres, así que ¡esperamos que la disfruten!
Conjugación bacteriana. Dos bacterias intercambian material genético (una donante y una receptora, generalmente) a través de un conducto o pili sexual. Cortesía de AJ Cann de www.microbiologybytes.com
Qué mejor manera de inaugurar mi blog con este tema que evoca, en general, tanto placer y en particular mezcla algunas de mis pasiones 😉
¿Se imaginaban ustedes que nuestras inseparables bichitas llevan miles de millones de años de “juerga sexual”? Y lo más importante ¿que todos los seres vivos debemos nuestra existencia a su “apetito sexual” y sus vidas “promiscuas”? ¿No? Vayamos por partes.
¿Qué son las bacterias?
Son organismos microscópicos (microorganismos) unicelulares que carecen de estructuras celulares internas (orgánulos) como núcleo o mitocondrias y su material genético (ADN) se encuentra “suelto” en el interior de la célula. Este tipo de célula se conoce como célula procariota. Los procariotas fueron las primeras habitantes de la Tierra, surgiendo inmediatamente después del enfriamiento de la corteza terrestre, hace unos 3800 millones de años (en los albores de nuestro planeta) y durante todo este tiempo las bacterias han ejercido una influencia más profunda sobre la biósfera que cualquier otra forma de vida.
¿Y qué tiene que ver el sexo en todo esto?
Resulta que, biológicamente, el sexo no es más que la mezcla o combinación de material genético. Punto, hasta ahí, sin órganos genitales, ni caricias, ni clímax… un toma-y-dame de genes. Y las inventoras de esa maravilla fueron las bacterias. Así que el sexo es más antiguo de lo que pudiéramos imaginar.
Se originó durante un período geológico violento, donde las bacterias estaban sometidas a una intensa radiación ultravioleta, rayos cósmicos, meteoritos… y a una atmósfera arcaica, primitiva, cruda. Con todo, nuestros microorganismos pudieron hacer frente a estas condiciones adversas y proliferaron en los mares, aguas fangosas y fuentes termales donde sufrieron una diversificación tremenda. Adquirieron una inmensa variabilidad metabólica.
¿Pero cómo la adquirieron, de dónde? Por donación génica, transfiriendo genes, teniendo sexo. En la transferencia génica una bacteria traspasa uno o varios genes a otra, sin que ello implique producción de descendencia. Así el sexo bacteriano no implica reproducción, si no ganancia de nuevas funciones metabólicas, fungiendo como un atajo hacia la supervivencia ¡Fue un salvavidas!
Para reproducirse, las bacterias se autoclonan. Tras crecer, copian sus genes y el resto de su cuerpecito y se dividen por la mitad, produciendo dos células genéticamente idénticas, como fotocopias de la célula original. Así, si una bacteria tiene la suerte de adquirir un conjunto de genes nuevos beneficiosos, podrá legarlos a sus hijas y a todas las generaciones subsiguientes.
Prácticas sexuales bacterianas
Así como nosotros, las bacterias también se entregan a diversos tipos de prácticas sexuales: en ellas dominan, grosso modo, la Transformación, la Conjugación y la Transfección.
[ul type=»circle»] Cuando una célula bacteriana se rompe, el ADN suele quedar libre y desnudo en el medio hasta alcanzar otras bacterias sanas y salvas las cuales incorporan los genes foráneos. Este sería el proceso de Transformación, un sexo bastante pasivo, aburrido. [/ul]
[ul type=»circle»] La Conjugación, en cambio, implica contacto celular (este suena más excitante). Entre célula y célula se forma un tubo a través del cual pasa un determinado número de genes de una bacteria donante a otra receptora. En la foto se muestra a dos bacterias intimando a través del pili sexual, conducto por donde se transfiere el material genético. [/ul]
[ul type=»circle»] En la Transducción participan los bacteriófagos (virus bacterianos), y sería la práctica más procaz del sexo bacteriano. Aquí, un virus se posa en el exterior de la célula e inyecta su material genético para, saboteando a la bacteria, producir más virus. Al final la célula infectada revienta y libera nuevos virus que portan combinaciones de genes virales y bacterianos, puestos a inyectar su material genético en otras bacterias. [/ul]
¿Qué impacto ha tenido el sexo procariótico?
La dispersión sexual de los genes bacterianos, y por tanto la proliferación de las bacterias, fue crucial para la transformación del planeta estéril a un lugar pleno de vida, propiciando la transformación ecológica de la Tierra. Además, la evolución de los procariotas condujo a la aparición de los Protistas, organismos de células con orgánulos y núcleo (Eucariotas), los cuales constituyen los ancestros de todos los hongos, plantas y animales: Debemos nuestra existencia a la evolución del sexo procariótico.
Para finalizar, quiero destacar que la revolución biotecnológica actual no hace más que explotar la sexualidad bacteriana, esa tendencia de las bacterias a donar genes propios y recibir genes ajenos. Los ingenieros genéticos no hemos inventado la mezcla de genes, sólo la hemos tomado prestada para beneficio de la humanidad. Que quede eso claro.
¿No les resulta esto apasionante, emocionante, curioso…?
Para saber más:
Lynn Margulis y Dorion Sagan. ¿Qué es el sexo? 1ra Edición. Barcelona: Tusquets Editores, 1998. ISBN 9788483106082
En esta cuarta jornada de celebración del Cumpleaños de Star Tres les traemos otra nota de nuestros amigos de la RedLBC. Esta vez se trata de Gabriel (@gabriel_hgs en Twitter) quien nos comparte una nota de su blog Zemiorka, que fue publicada en 2012 (así que agreguen dos años al título de la nota 😉 ).
Las sondas Voyager cumplen 35 años y seguimos descubriendo Júpiter
Infografía con la historia de las naves Voyager. Fuente: JPL.
A partir de febrero de 1979 comienzan a llegar a Tierra miles de imágenes captadas por las sondas gemelas Voyager 1 y 2 del planeta Júpiter y sus lunas. Las Voyager revolucionaron el conocimiento de los planetas exteriores y actualmente se encuentran atravesando el límite de nuestro Sistema Solar, en lo que se considera el verdadero comienzo de su misión. La sonda Voyager 2 se lanzó el 20 de agosto y la Voyager 1 el 5 de setiembre de 1977: la misión cumple nada menos que 35 años y están aún activas. A pesar de que misiones de sondas mucho más avanzadas como la Galileo y la Cassini, realizaron tomas fotográficas de Júpiter, las enviadas por las sondas gemelas aún son de mayor resolución que las más recientes. En el caso de la sonda Galileo esto se debe al fallo de su antena principal, que limitó drásticamente la capacidad de información enviada, mientras que la principal misión de Cassini fue el de orbitar entorno al planeta Saturno.
Las imágenes que las Voyager enviaron son parte de la cultura moderna, se han visto en innumerables publicaciones y sin dudas han causado un gran impacto en por lo menos tres generaciones ya. Sin embargo la tecnología disponible en esas épocas era mucho menos sofisticada que la actual y la conservación de este enorme acervo es preocupación de la NASA.
Las naves utilizan un primitivo sistema de cámaras, de tipo vidicon y todas las imágenes recibidas sin tratamiento estaban cribadas por los marcadores de referencias, o fiduciarios que limitan los detalles observables (Derecha).
De manera entonces que la recuperación, curado y reelaboración del legado de imágenes de estas sondas es un tema muy importante, ya que las condiciones de almacenamiento y el estado del soporte físico de las mismas se ha deteriorado con el paso del tiempo.
Lo interesante de todo este esfuerzo en el curado del valioso archivo, es que gracias a las nuevas técnicas disponibles y al talento e interés de gente como Björn Jónsson, las sondas Voyager siguen produciendo nuevas imágenes nunca vistas sobre Júpiter. En el blog de The Planetary Society Jónsson detalla el trabajo iniciado en la recuperación de estos materiales y en particular el realizado para obtener la más reciente foto de Júpiter obtenida gracias a estas misiones espaciales:
El trabajo realizado es todo un prodigio tecnológico y por cierto también artístico. Además de la composición de la imagen, el reprocesado del archivo de las Voyager y de las sondas construidas en los años 70 requiere del manejo de formatos de archivo ya obsoletos y su conversión a sistemas actuales. A mediados de los años 80′ el Jet Propulsion Laboratory (JPL) comenzó la digitalización de los archivos que estaban en cintas magnéticas, sin embargo esa información fotográfica se guardó en el formato original y ya en desuso: VICAR, Video Image Acess and Retrieval. Toda la información de las misiones espaciales de la NASA, está disponible en el Planetary Data System (PDS): en la que ocho nodos integran una red de almacenamiento y distribución de información planetaria disponible públicamente. El PDS centraliza toda la información de las misiones planetarias de la NASA y por cierto, almacena la de las misiones históricas. Para lograr imágenes como la de arriba es necesario descargar los paquetes de información y utilizar software especializado para convertir el formato VICAR a formato PDS.
La imagen, compuesta con 14 tomas obtenidas entorno a las 8:45 horas del 27 de febrero de 1979 pero incorpora 5 imágenes obtenidas 60 minutos antes y después que el grupo principal de tomas realizadas. De manera que hubo que realizar un verdadero trabajo artesanal para obtener esta nueva imagen de Júpiter 35 años después de ser captada por la Voyager 1.
Los detalles de esta labor se encuentran aquí y aquí. En este último enlace se encuentran los distintos paquetes de software que se pueden descargar para la conversión de archivos de VICAR a PDS.
No quiero dejar de llamar la atención sobre el formidable trabajo realizado por Jónsson y recordar el estupendo video que realizó sobre Júpiter en base a las primeras imágenes proporcionadas por la Voyager 1.
Nuestra tercera nota invitada de los amigos de la RedLBC fue escrita por Edgar (@ReptilUnited en Twitter) y que ayer 2 de mayo estuvo de cumpleaños (para que lo saluden atrasado :p)! Los dejamos con su nota, que originalmente se encuentra en el blog «La mentira está ahí afuera».
Supernovas Históricas
En este artículo abordaré el tema de las supernovas, que han sido registradas durante el tiempo en que la humanidad ha habitado la Tierra.
A continuación haré un breve resumen de las supernovas más importantes:
SN 185 El registro más antiguo de una Supernova, proviene del libro Hou Hanshu, de la dinastía Han china. Apareció en el año 185 cerca de la estrella Alpha Centauri.
SN 386 La segunda supernova fue registrada por los chinos en dos escritos llamados “Songshu” “Jinshu”. La existencia del evento no se duda, pero sí la naturaleza de la misma.
SN 393 Esta supernova también fue registrada en los escritos chinos “Jinshu” y “Songshu” y probablemente duró alrededor de 200 días con un buen brillo visible durante las noches.
SN 1006 En la primavera del año 1006, la población del hemisferio sur fue sorprendida por una “nueva estrella”. La Supernova más brillante jamás registrada. La observaron astrólogos (debido que en el año 1006, los observadores del cielo eran en su mayoría astrólogos. No habían astrónomos propiamente tal) de Europa, China, Japón, Egipto e Irak. Se produjo cerca de la estrella Beta Lupi. De acuerdo a los registros del lejano oriente (China y Japón), apareció el 30 de abril, y fue visible durante más de un año. El remanente fue identificado por radioastrónomos en la década de 1960.
SN 1054 El 4 de julio de 1054, los astrónomos chinos observaron el “nacimiento” de una “nueva estrella” que apareció en la constelación de Tauro. Era el eco de luz de la hoy conocida supernova del cangrejo. Esta nova fue registrada también por los indios Anasazi de la actual Arizona en EE.UU. Se sabe esto porque en la madrugada del 05 de julio 1054, estaba la luna creciente como lo refleja este grabado en el Cañón del Chaco. El eco de luz fue 4 veces más brillante que Venus, llegó a la magnitud -6 y se vio durante pleno día alrededor de 23 jornadas.
SN 1181 Supernova observada en el año 1181 y principios del 1182, presumiblemente en la constelación de Cassiopeia. Se menciona en textos chinos y japoneses, el suceso era óptimo para observarse en Europa, pero aun así no hay ningún texto europeo que la mencione. Tal vez esto se debe al dogma establecido en la Edad Media sobre la inmutabilidad de los cielos. Se le asocia con la fuente de radio 3C 58, una nebulosa con un pulsar en su interior, aunque este último dato aun no es muy seguro.
SN 1572 Cuando el astrónomo danés Tycho Brahe regresaba a su casa, el día 11 de noviembre del año 1572, le llamo la atención una estrella en Cassiopeia, que brillaba a la misma intensidad que Júpiter y que no la había visto en ese lugar antes. Incluso Tycho dudó de la confiabilidad de sus ojos y no estuvo seguro del suceso hasta que otros la vieron. Algunas fuentes sugieren que el primero en verla fue el astrónomo alemán W. Schuler el 6 de noviembre de 1572, aunque Tycho hizo un mejor seguimiento de la misma. El eco de luz en poco tiempo superó el brillo de Venus, viéndose por algún tiempo a pleno día. Luego se desvaneció hasta desaparecer en marzo de 1574.
El remanente de la supernova fue descubierto en la década de los 60 por astrónomos del Observatorio de Monte Palomar.
El evento de 1592 En el año 1592 cuatro “estrellas invitadas” aparecieron en el cielo. Su observación fue registrada por astrónomos coreanos en el texto “Sillok Sonjo”. No hay fuentes externas a este escrito que hayan registrado el suceso. La primera (1592A) apareció el 23 de noviembre de 1592, la segunda (1592b) siete días más tarde, el 30 de noviembre. La tercera (1592C) aparece cuatro días después, el 4 de diciembre. Y finalmente ocho días después (1592D) la cuarta.
Dos de ellas aparecieron en la constelación de Cassiopeia (1592b) (1592C), y las otras dos una en Andrómeda (1592D) y la otra en Cetus (1592A). También señalar que en los textos, no se mencionan movimientos de estos objetos brillantes, por lo que se descarta la hipótesis de un cometa o un asteroide o planeta.
Lo que hace confiable a los registros coreanos es que en el mismo texto, mencionan un eclipse que sucedió el 18 de diciembre 1592, y también menciona los eventos de SN 1572 y SN 1604. Las explicaciones que se le dan a este suceso, es que pudo ser una conjunción de eventos casuales. Dos de ellas duraron más (es más probable que hayan sido supernovas), mientras que las otras dos duraron alrededor de 40 días (existe la posibilidad de que estas solo fueran estrellas variables).
SN 1604 Esta fue la última Supernova que se observó claramente en nuestra Galaxia (la Vía Láctea). Fue descubierta el 4 de octubre de 1604 en la constelación de Ofiuco, cuando ya era más brillante que todas las estrellas del cielo. Varios astrónomos la vieron. Entre ellos están: Jan Brunowski en Praga, Altobelli en Verona, Clavius en Roma y Marius en Padua. Kepler la vio por Primera ves el 17 de octubre, y comenzó a estudiarla en profundidad, inspirado por la nova de Tycho en el año 1572. Supero en brillo a Marte y a Júpiter durante unos pocos días. Algunos estiman que llegó a la magnitud -2,25. Bajó de brillo en noviembre y reapareció en enero de 1605, siendo más brillante que Antares. Se desvaneció en marzo de 1606. Por su curva de luz se sospechó que era una supernova. En 1941 los astrónomos del Telescopio de Monte Wilson encontraron los restos gaseosos de la “Supernova Kepler”.
Supernovas en galaxias cercanas
SN 1885A También llamada S Andromedae, fue una supernova que aconteció en la galaxia de Andrómeda. La única que se ha visto en esta galaxia hasta el momento. Fue descubierta el 19 de agosto de 1885, por el astrónomo aficionado irlandés Isaac Ward en Belfast. Después el 20 de agosto fue observada por el astrónomo estoniano Ernst Hartwig. Llegó a la magnitud 6 entre el 17 – 20 de agosto. Fue vista por muchos observadores. Sin embrago, Hartwig fue el único que se dio cuenta de la importancia del suceso. En febrero de 1890 su brillo disminuyó y llego a la magnitud 16.
SN 1987A Supernova ocurrida en la Gran nube de Magallanes, descubierta el 23 de febrero de 1987 por el astrónomo canadiense Ian Shelton.
Los neutrinos emitidos por la supernova fueron detectados por los detectores de neutrones Kamiokande y el IMB, lo que evidencia la poderosa energía que liberan estos cataclismos estelares.
Ninguna brilló igual que el Sol
Cuando se dice en los escritos que las supernovas se veían en plena luz del día ¿significa que había dos soles durante todo el día, y como consecuencia no había noche? ¡No! Esta idea viene de las interpretaciones exageradas de los apocalípticos, lo único que pasó es que durante el día, se podía ver un punto luminoso y por la noche esta bolita era visible con toda nitidez.
En los escritos ¡nunca mencionan de que los ecos de luz fueran como un segundo sol!.
Hay una jugada sucia que cometen los apocalípticos, que es interpretar los textos antiguos a su conveniencia. Por ejemplo, nadie se atrevería a decir que los chinos se conectaban con el Cosmos e invitaban a una estrella a aparecer en los cielos, y que por eso se decía que se trataba de una “estrella invitada”. Pero sí se atreven a decir que el mito maya de los 5 soles es real, y que antes teníamos otras estrellas iluminándonos.
Los apocalípticos interpretan los textos a su conveniencia, por ello cuando leen que “se veía en plena luz del día” rápidamente dicen: “Hermanos de la luz, cuidado con Betelgeuse, porque cuando explote ¡tendremos dos soles! las antiguas culturas sabían que…” ya se saben toda la historieta.
Pero resulta que Betelgeuse no es las más peligrosa. Hay otra Peor.
El candidato a Supernova más cercano al Sistema Solar
En nuestro vecindario galáctico hay muchas estrellas que están a punto de explotar, unas por agotar su combustible y otras por tener una compañera estelar que les roba materia, que por lo general son enanas blancas. Las enanas blancas son los núcleos pesados y calientes de las estrellas que se convirtieron en gigante roja y murieron dejando como remanente una nebulosa planetaria y este núcleo.
La mayoría de sistemas estelares son múltiples, es decir, son sistemas estelares con dos o más estrellas. A unos aproximados 150 años luz del Sistema Solar, hay un sistema binario compuesto por una estrella gigante, clase espectral A y que está aún en la secuencia principal (aún fusiona Hidrógeno) pero es inestable, y una enana blanca que le está robando gas a la primera.
Este binomio es IK Pegasi también conocida según el catalogo de Henry Draper como HR 8210. Es el candidato a Supernova más cercano al Sistema Solar.
HR 8210
La enana blanca con el tiempo le robará materia a la gigante blanca, hasta que recolecte lo suficiente y supere el límite de Chandrasekhar (1,44 masas solares) y explote (aunque no es necesario que supere ese límite para que explosione).
Hay otro sistema binario que también esta apunto de convertirse en supernova. Es RS Ophiuchi. En este sistema binario, la enana blanca recolecta materia de su compañera que es una supergigante roja. El material se calienta tanto en la superficie exterior de la enana, que sufre una reacción termonuclear, y expulsa con gran violencia lo que había recolectado de la gigante roja. Como consecuencia se produce una “mininova“. Esto ha pasado muchas veces en RS Ophiuchi. Cuando esto ocurre, aumenta su brillo y se convierte momentáneamente en la segunda estrella más brillante del cielo (y eso que está a unos 1,950 años luz). Los astrónomos piensan que la “crisis” vendrá cuando la gigante blanca haya utilizado todo su hidrógeno. En ese momento se expandirá y la enana blanca capturara con mas rapidez el gas de la estrella. Esto la puede empujar más rápido al limite de Chandrasekhar. ¿Cuándo ocurrirá esto? Unos dicen que muy pronto y otros que en los próximos millones de años.
Bibliografia
Si quieren profundizar más en el tema de las supernovas históricas, les recomiendo los siguientes textos:
Manual Celestian Burnham libros de la historia de la astronomía, escritos por el astrónomo y historiador Robert Burnham. Viene en tres volúmenes y los pueden comprar en Amazon. El único inconveniente es que esta en inglés.
En nuestra segunda nota invitada de nuestros amigos de Red Latinoamericana de Blogs de Ciencia (@RedLBC), Gabriel León nos cuenta sobre el origen de las frutillas.
Las frutillas son una de las frutas más populares del mundo. Su color rojo, delicado sabor y aromática fragancia la han convertido en todo un icono gastronómico. Las frutillas tienen su momento más glamoroso durante el torneo de tenis de Wimbledon, donde servidas con crema se han convertido en un clásico, pero también quedan muy bien nadando en una buena jarra de Borgoña.
Sin embargo, el hecho más interesante asociado a las frutillas es su curiosos origen, ya que nunca existieron en la naturaleza. En efecto, la frutilla comercial que todos conocemos se llama Fragaria x ananassa (algo así como frutilla piña) y la x en su nombre denota que se trata de un híbrido entre dos especies diferentes de frutilla: la Fragaria virginiana y la Fragaria chiloensis. La historia que rodea al origen de la F. ananassa es fascinante y afortunadamente está muy bien documentada.
El espía del rey
El 7 de enero de 1712, el teniente coronel Amédée François Frézier –Ingeniero de 30 años– zarpó rumbo a Chile a bordo del St. Joseph, un barco mercante Francés equipado con armamento. Frézier fue enviado como espía por el Rey Luis XIV con la importante misión de hacer mapas más precisos de los puertos y fortificaciones Españolas que había en la costa de Chile y Perú. Luego de un viaje de 160 días, que incluyó el paso por el peligroso Cabo de Hornos, Frézier arribó al puerto de Concepción el 16 de junio de 1712.
Fézier, que había demostrado su talento sirviendo a la corona Francesa anteriormente, usó Concepción como base para recorrer la costa de Chile y Perú, haciendo mapas precisos de los puertos y tomando nota de las posibles rutas de escape, defensas disponibles y organización administrativa de los lugares que visitaba. De hecho, el primer mapa de Santiago elaborado con estándares técnicos fue elaborado por Frézier.
Mapa de Santiago elaborado por Frézier.
Adicionalmente, hizo algunas interesantes observaciones sobre la flora y fauna que encontró durante su viaje. Una de las cosas que más llamó su atención fue la presencia de un tipo de frutilla que no se conocía en Europa, llamada quellghen por los Mapuche –quienes además la cultivaban– y frutillar por los Españoles. A diferencia de otras frutillas silvestres (llamadas llahuen, alueñe o lahueni) las frutillas quellghen eran de color blanco o rosado pálido. Sin embargo, no fue el color lo que sorprendió a Frézier, sino que su tamaño: eran mucho más grandes que las frutillas conocidas en Europa.
Dibujo de la “Fragaria chiliensis” realizado por Frézier
El 19 de febrero de 1714, Frézier se embarcó rumbo a Francia llevando junto con sus notas y dibujos, cinco plantas de quellghen, a las que describió como “Fragaria Chiliensis, fructu maximo, foliis carnosis hirsutis, vulgo frutilla” en un libro que publicó más tarde, titulado “Viaje a los mares del sur” y que por su interesante contenido fue traducido del Francés al Inglés, Alemán y Holandés en menos de tres años, algo bastante inusual en esa época. De esta forma, el 17 de agosto de 1714, las cinco plantas de frutilla Chilena llegaron como inmigrantes a Europa.
El problema del sexo
Una de las cosas que más atrajo la atención sobre la recién llegada frutilla chilena fue el enorme tamaño de los frutos descritos por Frézier. Sin embargo, ninguna de las plantas que llegaron a Europa dio frutos. La explicación para esto es que Frézier tuvo la mala fortuna de elegir cinco plantas femeninas. La existencia de sexos separados en las flores –plantas dioicas– no era conocido en esa época para las frutillas, por lo que Frézier no tenía forma de saberlo. Así, las plantas crecían y daban flores, pero no producían frutos. Gracias a que las frutillas se pueden reproducir vegetativamente por esquejes –es decir, sin producir frutos– pronto las plantas de frutilla chilena fueron distribuidas por parte importante de Europa, siendo particularmente populares en climas costeros. De hecho, en Bretaña (noreste de Francia) las frutillas chilenas crecieron muy bien y se adaptaron al clima. A partir de 1740, algunos botánicos del Reino Unido reportaron que lograron obtener frutos a partir de las plantas chilenas, pero que estos eran de tamaño no muy grande, muy poco homogéneos y, además, de no muy buen sabor. Esto causó una gran desazón entre quienes esperaban ansiosos poder disfrutar de las frutillas descritas por Frézier.
El niño botánico
Los Franceses tuvieron más suerte con las frutillas. De hecho, en la zona de Bretaña se percataron que si crecían las plantas de frutillas chilena cerca de plantas de frutilla presentes en Europa, como la Fragaria vesca o la Fragaria muschata, era posible obtener fruta, de mejor calidad que la obtenida por los Ingleses, pero aún muy poco homogénea.
En 1764, un joven de 16 años llamado Antoine Nicolas Duchesne descubrió que las plantas de Fragaria muschata eran unisexuales. Duchense vivía en Versalles, ya que su padre trabajaba para el Rey Luis XV como arquitecto a cargo de todos los edificios. A los cuatro años ya podía leer, sabía al menos cien palabras en latín y tempranamente se interesó en las ciencias. La curiosidad de este joven naturalista fue además alimentada por Bernard de Jussieu, botánico encargado de los jardines de Versalles y hermano de Antoine de Jussieu, quien recibió de manos de Frézier una de las cinco plantas de frutilla chilena llegadas a Europa.
Si bien algunos botánicos habían descrito la presencia de sexos separados en frutillas, Duchesne fue el primero en hacer observaciones detalladas y experimentos de polinización controlados con las frutillas. Inicialmente demostró que las plantas de F. muschata, cuando eran crecidas aisladas, no producían frutos. Luego, cuando se percató que las plantas de frutillas chilena tampoco producían frutos, pensó que podía tratarse también de un caso de flores unisexuales. Sus observaciones le permitieron entonces demostrar que las plantas de frutillas chilenas que crecían en Europa eran todas femeninas, ya que sus estambres atrofiados no producían polen. Algunos botánicos habían tratado previamente de cruzar la frutilla chilena con F. vesca, sin éxito. A Duchense se le ocurrió, debido a la similitud entre las plantas, crecer en maceteros cercanos frutillas chilenas y F. muschata en el verano de 1764. Al poco tiempo se dio cuenta que algunas flores de las plantas chilenas estaban desarrollando frutos. Esta vez, la fruta que produjeron era de una belleza extraordinaria, homogénea, roja y aromática. El 6 de julio de 1764 le presentó al Rey Luis XV un plato con estas frutillas, producto del cruce entre F. chiloensis y F. muschata. Las semillas de este cruce no produjeron plantas, por lo que Duchense decidió seguir experimentando y creció plantas de F. chiloensis junto a plantas de F. virginiana, una especie de frutilla introducida a Europa desde América del Norte. Las frutillas de ese cruce eran grandes, rojas y de buen sabor y además producían semillas viables. Así, en 1765, nació el primer híbrido derivado de la frutilla chilena, bautizado por Duchense como Fresa Piña o Fragaria x ananassa. Estas plantas eran hermafroditas perfectas, por lo que se podían polinizar sin la necesidad de crecerlas junto a plantas de especies diferentes. El mejoramiento genético posterior ha permitido generar las diferentes variedades de frutillas comerciales, todas derivadas de la frutilla chilena.
Fotografía familiar: el papá (Fragaria virginiana), la mamá (Fragaria chiloensis) y la hija (Fragaria x ananassa)
Las fresas de Frézier
La historia termina con un relato que, a falta de pruebas, dejo como anecdótico, ya que podría ser apócrifo. Tal vez más de alguien haya notado el parecido entre el apellido Frézier y la palabra fresa. Según el libro The Strawberry: History, Breeding and Physiology, Amédée François Frézier es descendiente de Julius de Berry, un ciudadano Francés que en el año 917 fue nombrado caballero por el Emperador Carlos III al presentar como regalo una canasta con frutillas mientras negociaban un conflicto con un cardenal Italiano. Cuenta la leyenda que las frutillas eran tan deliciosas que, en agradecimiento, el Emperador lo nombró caballero y cambió su apellido de Berry a Fresier, la palabra francesa para frutilla (fresa).
Como les mencionamos en el comienzo esta nota fue escrita por Grabiel León (@GaboTuitero) y fue publicada anteriormente en su blog El Efecto Rayleigh, donde pueden encontrar más y entretenidas notas sobre ciencia.
La Paradoja de Fermi, resultado de un argumento entre Enrico Fermi y Michael H. Hart, nos deja ver una aparente contradicción entre la alta probabilidad de que existan civilizaciones extraterrestres y la falta de contacto o evidencias de tales civilizaciones.
Los puntos básicos que se toman en cuenta al plantear esta paradoja son:
– El Sol es una estrella joven. Hay miles de millones de estrellas en nuestra propia galaxia que son miles de millones de años más viejas que nuestro Sol.
– Algunas de estas estrellas podrían albergar planetas tipo Tierra, donde se podría llegar a desarrollar vida inteligente.
– Es posible que estas civilizaciones desarrollen la tecnología necesaria para hacer viajes interestelares, algo que en la Tierra aún está en proceso de estudio.
– Una vez que los viajes interestelares se hacen factibles, la galaxia podría ser colonizada en unas pocas decenas de millones de años.
Si seguimos esta línea, la Tierra debería haber sido colonizada o al menos visitada por otras civilizaciones. Sin embargo no hay evidencia de tales visitas, ni tenemos evidencia de vida en otros lugares de nuestra galaxia u otras galaxias. Lo que llevó a Fermi a preguntarse “¿dónde está todo el mundo?”.
Un enfoque similar es el que da la famosa Ecuación de Drake, un argumento probabilístico que busca estimar el número de civilizaciones activas capaces de comunicarse por radio con nosotros dentro de la Vía Láctea. Esta ecuación toma en cuenta factores como la tasa de formación estelar en nuestra galaxia, la fracción de estrellas que tienen planetas, el número promedio de planetas en cada una de esas estrellas que potencialmente podrían albergar vida, la fracción de planetas aptos que logra desarrollar vida, la cantidad de planetas con vida que logra desarrollar civilizaciones inteligentes, la fracción de civilizaciones capaces de desarrollar le tecnología para enviar señales al espacio que evidencien su existencia y la cantidad de tiempo durante la cual pueden enviar estas señales. Sin embargo, esta ecuación continúa siendo controversial, ya que muchos de sus términos no han logrado determinarse con precisión.
Dentro del contexto de la Paradoja de Fermi, Robin Hanson, un profesor de economía de la Universidad George Mason e investigador asociado del “Future of Humanity Institute” de la Universidad de Oxford, desarrolló un concepto al que llamó “el Gran Filtro”. Este filtro es todo aquello que pudiese prevenir que las civilizaciones se expandieran y perduraran en el tiempo, como catástrofes industriales, guerras, o el agotamiento de los recursos naturales. De existir este filtro, reduciría de forma importante el gran número de planetas que podrían albergar vida inteligente, al pequeño número de planetas donde efectivamente se ha observado una especie de este tipo (por ahora uno, la Tierra). Además, la ubicación temporal de este filtro se desconoce. No sabemos si la Tierra ya ha pasado por él, o aún nos espera en el futuro, ni siquiera sabemos si existe realmente.
Los argumentos a favor de este planteamiento incluyen muchas de las características que observamos en nuestra Tierra y que pensamos que también deberían tener otros planetas que pudiesen albergar vida como la conocemos. Además de necesitar un planeta rocoso con presencia de agua líquida y una atmósfera apropiada, se necesita una estrella lo suficientemente alejada del centro galáctico para evadir cualquier radiación que pudiese resultar destructiva. La presencia de planetas gigantes gaseosos podría ser fundamental para liberar la trayectoria del planeta de potenciales amenazas, como asteroides o cometas. En nuestro caso, la presencia de la Luna hace que el eje de la Tierra esté estable en su inclinación, la cual permite que tengamos estaciones durante el año. Y por último, se necesitan desarrollos intelectuales y tecnológicos dentro de la civilización en sí.
Representación artística de Kepler 186f. Créditos: NASACon el reciente descubrimiento de Kepler-186f, un planeta de tamaño comparable a la Tierra que orbita a una distancia de su estrella que permitiría que el agua (si existe) se encontrara en forma líquida, ha reabierto el debate, pero ¿por qué? Se argumenta (ver artículo) que el hecho de encontrar cada vez más planetas similares a la Tierra hace que sea menos probable que no existan otros mundos donde pueda surgir la vida. Y el que aún no tengamos noticias de otras civilizaciones puede significar que el filtro se encuentre en el camino entre la existencia del planeta habitable (aunque no podemos saber si Kepler-186f lo es o no) y una civilización floreciente.
Además, dicen que si Kepler-186f albergase vida inteligente, entonces sería una muy mala noticia para la humanidad, ya que eso pondría la posición del Gran Filtro dentro de las etapas tecnológicas del desarrollo de una civilización, por lo que podríamos esperar que la extinción nos aguarde en el futuro.
Pero, ¿estamos realmente en condiciones de zanjar el hecho de que un planeta dado sea habitable con las tecnologías actuales?
Efectivamente en la actualidad no hemos sido capaces de encontrar vida en otros planetas (o lunas) además de la Tierra. Pero son muchos los factores a tomar en cuenta sin tener que pasar necesariamente por la idea de un Gran Filtro.
La detección de planetas extrasolares ha avanzado mucho en los últimos años, acercándonos cada vez más al descubrimiento de planetas ‘gemelos’ de la Tierra. Pero en la actualidad los astrónomos deben restringirse debido a limitaciones tecnológicas: los planetas más pequeños en su mayoría han sido descubiertos por el método de tránsitos, lo que sólo permite la determinación del tamaño del planeta, pero no da información sobre su masa. La confirmación por velocidades radiales resulta aún más complicada para pequeños planetas. Además, por cuestiones de tiempo de muestreo, la mayoría de los planetas detectados tiene periodos relativamente cortos y se encuentran muy cerca de su estrella. Esto hace que aumenten las posibilidades de que el planeta esté en una rotación sincrónica y de siempre la misma cara a la estrella, lo que lo convertiría en un lugar más o menos hostil para la vida.
Distintas atmósferas posibles para los exoplanetas. El primero es el caso ideal en que logramos detectar los componentes de la atmósfera, gracias a la luz que pasa a través de esta. El segundo ejemplo es una atmósfera muy fina, y cercana a la superficie y la luz que detectamos no nos entrega información respecto a la composición. En el tercer caso, el paso de la luz de la estrella se ve bloqueado por la presencia de nubes, lo que impide que llegue hasta nosotros. Imagen cortesía de Nature.Distintas atmósferas posibles para los exoplanetas. El primero es el caso ideal en que logramos detectar los componentes de la atmósfera, gracias a la luz que pasa a través de esta. El segundo ejemplo es una atmósfera muy fina, y cercana a la superficie y la luz que detectamos no nos entrega información respecto a la composición. En el tercer caso, el paso de la luz de la estrella se ve bloqueado por la presencia de nubes, lo que impide que llegue hasta nosotros. Imagen cortesía de Nature.[/caption]
Ahora, pongámonos en el caso de que logremos detectar un planeta tipo Tierra en la zona habitable por tránsitos y velocidades radiales, lo que nos daría información crucial, como la masa y tamaño (y por lo tanto densidad) del planeta. Aún nos falta una parte importante. Su composición superficial y de su atmósfera. La atmósfera de un planeta resulta un factor demasiado importante a la hora de discriminar la posible existencia de vida. Tomemos como ejemplo Venus, Marte y la Tierra: en el primero, la atmósfera demasiado densa y el efecto invernadero hacen que las presiones y temperaturas sean demasiado altas. En Marte, por el contrario, tenemos una atmósfera ligera donde muchos de los elementos se han escapado producto de la baja gravedad del planeta. Y finalmente en la Tierra, la masa de la atmósfera que cubre nuestro planeta permite que nuestros océanos se mantengan, la presencia de ozono nos protege de la radiación UV, tenemos el oxígeno necesario para nuestro tipo de vida inteligente, y por último tenemos las temperaturas adecuadas para que nuestra agua se encuentre en estado líquido.
Detectar los componentes de la atmósfera de un exoplaneta no es cosa fácil. Necesitamos información sobre la luz emitida y reflejada por el planeta. Para esto, necesitamos recolectar luz directamente del planeta y, por lo tanto, el instrumento que utilicemos debe tener la resolución angular suficiente para separar al planeta de su estrella. Aún si logramos esto, no podremos resolver espacialmente el planeta, sino que lo veremos de forma puntual y no un disco como realmente debería verse. Esto significa que toda la información que obtengamos de sus componentes, estará reducida a una señal puntual. No tendremos información respecto a qué componentes provienen de qué partes del planeta. Además, la presencia de nubes podría impedir una buena profundidad atmosférica en la detección, ya que bloquearía una buena parte de las señales a más baja altitud que la nubosidad.
Saliendo del tema de la detección de los planetas en sí, puede haber muchas otras razones por las que podríamos no haber tenido contacto aún con otra civilización. Quizá los viajes interestelares son realmente imposibles en cortas escalas de tiempo. Recordemos que objetos con masa distinta de cero no pueden viajar a la velocidad de la luz (que es lo más rápido que conocemos), y aún no sabemos si existen otras tecnologías que nos permitan “acortar camino” entre dos puntos del espacio. Es posible que otras civilizaciones sean más “precavidas” y simplemente no deseen ser detectadas. O quizá la vida inteligente es todavía algo muy joven. Recordemos que las primeras estrellas prácticamente carecían de elementos más pesados que el Hidrógeno y el Helio que generaban internamente, por lo que la creación de planetas es algo que debiese haber ido aumentando a medida que nacían nuevas generaciones de estrellas con elementos pesados capaces de formar planetas rocosos. Es posible que existan civilizaciones en nuestra galaxia con un nivel de desarrollo similar al nuestro, donde aún no son capaces de realizar viajes largos por el espacio ni tampoco están enviando señales desesperadamente para que alguien los encuentre. Supongo que es algo que el tiempo nos dirá.
En cuanto al Gran Filtro, plantear la idea de un término para las civilizaciones parece un poco alarmista. Como dijimos anteriormente, algunos aseguran que encontrar vida inteligente sería una mala noticia para nosotros, porque implicaría que el filtro nos espera en el futuro. No podemos saberlo, ya que incluso si existiera tal filtro, perfectamente nosotros junto a otras civilizaciones podríamos haberlo superado.
Para nosotros, el problema es que aún estemos en una etapa muy temprana del descubrimiento de nuestra vecindad planetaria. Creemos que existe vida en otros lugares de nuestro Universo, pero quizá nuestras (y sus) limitaciones tecnológicas nos han impedido detectarla. Aún nos queda un largo camino en la detección de planetas potencialmente habitables y su caracterización detallada. Tal vez el descubrimiento de nuevas civilizaciones venga después… o quizá no.
Y como alguna vez dijo Arthur C. Clarke: “O estamos solos en el Universo o no lo estamos. Ambas perspectivas son igualmente aterradoras.”
Esta nota fue escrita en conjunto con @Astro_Pipe del blog Cosmonoticias, parte de la Red Latinoamericana de Blogs de Ciencia (@RedLBC). Nuestros más sinceros agradecimientos por esta colaboración que inaugura la serie de posts de la semana de cumpleaños de Star Tres!