sábado, 3 de diciembre de 2016

Volkswagen venderá autos eléctricos en la Argentina



 


El Grupo VW Argentina (Volkswagen Autos, Volkswagen Camiones, Audi y Ducati) realizó ayer su tradicional fiesta de fin de año. Es un habitual encuentro con los principales directivos, proveedores y concesionarios, donde se realiza un repaso del pasado, presente y futuro del consorcio alemán en nuestro país.

Por eso mismo, allí estaban en exposición la Suran producida en Pacheco, la nueva Amarok 2017, el camión Constellation 17280, el flamante Audi TT-S y varias Ducati. Pero también estaba una veterana Kombi Food Truck y un inmaculado Escarabajo “Última Edición” de 2003, el único ejemplar que permanece en poder de la filial local.

Eso fue sobre el pasado y el presente.

Sobre el futuro se encargó de hablar Pablo Di Si, CEO de Volkswagen Argentina, quien destacó que la marca cierra el 2016 manteniendo el liderazgo en ventas en nuestro mercado por décimotercer año consecutivo (aunque esta vez seguida bien de cerca por Chevrolet, Renault y Ford).

Di Si también realizó un anuncio: sobre una imagen que rezaba “futuro eléctrico”, anunció los planes de la marca para vender autos a batería en la Argentina. “Este año, en el Salón de París, la marca presentó el Concept I.D. que saldrá a la venta en 2020. Será un auto eléctrico y autónomo, que marcará el futuro del grupo en materia de movilidad. Ese futuro también llegará a la Argentina en la forma de autos eléctricos”, manifestó el directivo.

Di Si no brindó detalles sobre los modelos eléctricos que se venderán en la Argentina. VW cuenta en la actualidad con una amplia gama: e-Up, e-Golf, Golf GTE y Passat GTE.

De esta manera, la filial local se sumará a la tendencia mundial del grupo en ofrecer modelos impulsados por energías alternativas en cada segmento del mercado. Además, así responderá VW al pedido de la Mesa de Autos Eléctricos, impulsada por el Gobierno de Mauricio Macri, donde se invitó a todas las automotrices a difundir, comercializar y hasta fabricar en la Argentina vehículos a batería.

En junio próximo, durante el Salón de Buenos Aires 2017, se espera que VW anuncie ya cuáles serán los modelos eléctricos que se venderán en nuestro mercado.

C.C.

***
Pablo Di Si, CEO de VW Argentina, celebró 13 años de liderazgo en ventas en nuestro mercado.


En el salón de eventos Herencia Pilar: Suran, Amarok y Constellation.


Gama Ducati y Audi TT-S.


Kombi Food Truck.


El más fotografiado de la noche: Escarabajo “Última Edición” 2003.

***



Fuente: autoblog.com.ar
Longvie saca a la venta los termotanques mendocinos
Longvie llegó a un acuerdo con el fabricante mendocino Energe para comercializar los productos en las cadenas. Es la misma empresa local a la que el Presidente le compró un equipo para Olivos. 






Tras la promoción que terminó haciéndole Mauricio Macri a los termotanques solares, la argentina Longvie lanzó ayer oficialmente esos productos con su marca, producidos por la mendocina Energe, la misma a la que el Presidente le compró un equipo para Olivos. Ambas empresas vienen trabajando desde fines del año pasado en el proyecto, que prevé inicialmente producir unos 300 equipos mensuales, para llegar a 1.000 en un año.

El termotanque, que supuestamente ahorra hasta 80% del consumo de gas, complementa el tradicional, pero no lo reemplaza. Tampoco es barato: el más chico, de 90 litros, vale $ 24.000 (uno a gas cuesta $ 7.000) pero Eduardo Zimmermann, gerente comercial de Longvie, dice que ya están trabajando para bajar los costos. “La amortización está calculada en 7 a 9 años -dice- y la vida útil es de 30 años”.

En el marco de una nueva ola verde, Longvie también está por lanzar un calefón sin piloto (no hay en el mercado y también apunta a ahorrar gas).

La apuesta a los termontanques solares se da en medio de un año en que las ventas cayeron 20%, con pisos de 40% en lavarropas. Por eso, hasta diciembre, la empresa suspendió dos días a la semana a los trabajadores de su planta de Catamarca. En Paraná, donde hacen los termotanques y estufas, también tuvieron suspensiones que ahora se levantaron. La fábrica de Villa Martelli fue la única que trabajó sin paradas este año.

La compañía, que emplea a 780 personas, tendrá ventas en pesos similares a las del año pasado, que fueron de $ 1.030 millones. 



Fuente: MendozaOpina
Fergus Simpson: “La especie humana podría extinguirse en menos de 700 años”
Este cosmólogo de la Universitat de Barcelona cree que la humanidad ha vivido ya más de la mitad de su existencia 
por Josep Fita

El cosmólogo Fergus Simpson (F. S.)


La estadística lo apunta. Las matemáticas parecen corroborarlo. La especie humana camina hacia su desaparición si el hombre no toma cartas en el asunto. Alguien puede pensar que el final está todavía lejos, que el margen es lo suficientemente amplio para no empezar a preocuparse todavía. Pero hay investigaciones que acortan este tiempo de manera preocupante, como la del cosmólogo escocés Fergus Simpson, investigador del Institute of Cosmos Sciences de la Universitat de Barcelona (ICCUB). Este físico defiende que es probable que a la humanidad le queden menos de 700 años de vida. No deja de ser una conjetura, pero da cierto vértigo.

Simpson ha revisado el llamado argumento del juicio final (Doomsday argument) el cual sostiene, evaluando el número de personas que han nacido a lo largo de la historia de la humanidad, que es probable que la vida de la especie humana se encuentre ya a mitad del camino. “Se pensó que era posible sortear las conclusiones del ‘Doomsday argument’, pero mis cálculos muestran que, desafortunadamente, no hay vía de escape”, explica Simpson a La Vanguardia.

Gráfica del Doomsday argument en el que se hace una estimación de la probabilidad de la extinción de la especie humana hasta el año 2150, donde habría un 18% (LV)

El planteamiento del argumento del juicio final es simple a la vez que complicado de concebir. Simpson lo intenta explicar, para los neófitos en la materia, mediante el siguiente ejemplo: “Si yo intento aprender a tocar el violín me puedo preguntar, ‘¿cómo de bueno seré?’. Probablemente no seré el mejor del mundo, pero hay muchas posibilidades de que tampoco sea el peor. Tengo la expectativa de estar en el medio”.

Pues algo similar se plantea en el Doomsday argument. “Para el 50% de todas las personas que han formado parte de la historia de la humanidad, es correcto plantear la siguiente idea: ‘menos gente nacerá después de mí de la que nació antes’. ¡Esto es un hecho irrefutable!”, subraya Simpson. Y añade: “La pregunta importante es: ¿formas parte tú de ese 50%? Si es así, nacerán menos de cien mil millones de personas en el futuro [cifra de habitantes que hasta la fecha se calcula que ha tenido nuestro planeta]”.

Tenemos, pues, la posible cifra del total de nacimientos que acontecerán en el futuro –menos de cien mil millones- y sabemos cuántos alumbramientos hay cada año –ni más ni menos que 140 millones, una cifra que se ha mantenido inalterable en las tres últimas décadas-. A partir de ahí, el cálculo es simple: “Si cada año somos 140 millones más de personas, nos extinguiremos en menos de 700 años”, sentencia Simpson.

Es precisamente en la mezcla de estos dos guarismos –las personas que han nacido hasta el día de hoy y las que nacen cada año- que este físico escocés, a través de una maraña de ecuaciones matemáticas, llega a la conclusión de que los postulados del Doomsday argument son verosímiles. “La idea de que la humanidad haya vivido ya más de la mitad de su existencia es bastante probable”, afirma.

Este cosmólogo escocés se vio en la tesitura de intentar validar el argumento del juicio final para ratificar su teoría sobre el tamaño de los planetas que podrían llegar a albergar vida inteligente, una investigación que publicó en la prestigiosa revista especializada MNRAS. En este curioso estudio, Simpson defiende que de haber vida inteligente en el Universo, ésta probablemente residiría en planetas más pequeños que la Tierra. A la vez, sostiene que los extraterrestres, de existir, serían de un tamaño mucho mayor que los humanos.

¿Y cómo llega a estas conclusiones este investigador del ICCUB? En primer lugar, sostiene que la mayoría de seres humanos vive en países grandes y muy poblados. Sin embargo, el país típico por excelencia es el pequeño, porque hay muchos más. Repasando los números, el planteamiento se hace difícil de rebatir. Hay sólo 12 países que superen los 100 millones de habitantes en el mundo. El resto, casi 200, están por debajo de esa cifra. Es por eso que Simpson entiende que un planeta grande y poblado es una anomalía en el Universo y que por tanto no puede ser considerado como algo habitual.

De ahí que plantee que los otros planetas que hipotéticamente puedan albergar vida inteligente sean más pequeños y, a la vez, menos poblados. Esta visión podría chocar con el hecho de que muchos de los exoplanetas descubiertos hasta al momento son mayores que la Tierra, aspecto que Simpson atribuye a que todavía no existe la tecnología “para detectar los planetas de menor tamaño”.

Siguiendo con el razonamiento, cuando más pequeña –a nivel numérico- es la población de una especie, más grande suele ser su talla. “Solo hay que comparar la población de elefantes respecto a la de humanos”, recuerda Simpson. “Nosotros somos como hormigas”, señala. En consecuencia, si como se ha apuntado antes, de haber vida inteligente ésta residiría en planetas más pequeños que la Tierra y menos poblados, eso significaría que el tamaño de sus singulares habitantes sería mayor que el de los seres humanos. Simpson incluso lo llega a cuantificar y pronostica que un alienígena inteligente, en caso de existir, probablemente podría llegar a pesar más de 300 kilos.

Toque de atención

Más allá de conjeturas, lo que parece estar meridianamente claro es que el ser humano, como especie, debe reaccionar si quiere alargar más su presencia sobre la faz de la Tierra. “Mi teoría no deja de ser un aviso a la sociedad para que se proteja, lo mismo que hacemos cada uno de nosotros con nuestra salud. Hay un peligro y debemos ser cuidadosos”, arguye Simpson, quien entiende, basándose en las teorías del astrónomo británico Martin Rees, que el fin de la humanidad no llegará producto de un fenómeno meteorológico, sino por vía de una catástrofe promovida por el hombre. En este sentido, Rees dibuja cuatro escenarios catastróficos: el uso de armas nucleares, la llegada de la inteligencia artificial, la biotecnología y, por último, la nanotecnología. Esperemos que ni uno ni el otro estén en lo cierto.  



Fuente:  lavanguardia.com

viernes, 2 de diciembre de 2016

La misión europea ExoMars envía sus primeras imágenes de Marte
La sonda «Trace Gas Orbiter» ha mandado 11 nuevas fotografías durante el calibrado de sus instrumentos. En el futuro investigará el posible origen biológico del metano en la atmósfera del planeta rojo

por Gonzalo López Sánchez - Gonzalo Syldavia
 

Una de las fotografías captadas. Cada rectángulo ha sido captado por un «filtro» distinto. La imagen final es una composición de las cuatro - ESA

Aunque probablemente el programa ExoMars es recordado por el fracaso del módulo de aterrizaje Schiaparelli, que se estrelló en Marte en Octubre, la misión también depende de un satélite de exploración, el «Trace Gas Orbiter» (TGO), que este martes ha enviado sus primeras imágenes de la superficie del planeta rojo.

Según ha explicado la ESA en un comunicado, la primera de las 11 fotografías se tomó a una distancia de 5.300 kilómetros, en un punto próximo al terminador de la mañana, la región que separa la noche y el día marcianos durante el amanecer. Las otras 10 capturas muestran varias regiones marcianas como Arsia Chasmata, Hebes Chasma o las proximidades del cráter Da Vinci, y en todas ellas se puede apreciar la diversidad del terreno marciano.

Las 11 imágenes se tomaron el pasado 22 de noviembre a lo largo de la órbita de la sonda. Esta se caracteriza por su elevada excentricidad, lo que quiere decir que es muy elíptica y que hay mucha diferencia entre el punto más cercano y el más lejano: tanto que en la nave puede pasar de los solo 230 kilómetros a la superficie a los 98.000 en tan solo 4,2 días.

En esta ocasión, durante el momento de máxima aproximación, la «Trace Gas Orbiter» pasó a 235 kilómetros de la superficie y tomó imágenes al Norte de Valle Marineris, el gran sistema de canales de Marte.
 

En busca de gases

En general, el objetivo primordial de la sonda «Trace Gas Orbiter» (TGO) es investigar el origen de gases minoritarios en la atmósfera de Marte. Todos ellos forman menos del uno por ciento de la atmósfera, e incluyen vapor de agua, dióxido de nitrógeno y acetileno. Pero el más importante es probablemente el metano, porque en la Tierra este gas está relacionado con la actividad biológica y minoritariamente con la actividad geológica, pero cuyo origen no está claro en Marte. 

Fotografía de la garganta Hebes Chasma- ESA

Para ello, la TGO analizará posibles procesos geológicos como la sublimación, la erosión o el vulcanismo. Cuenta para ello en primer lugar con la cámara que ha tomado estas imágenes, el instrumento CaSSIS. Son las siglas de «Colour and Stereo Surface Image System», y recibe este nombre porque es una cámara de alta resolución que capta simultáneamente imágenes de varios colores para hacer una composición con distintos tipos de información.

Representación del proceso de barrido del instrumento CaSSIS, para captar imágenes de la superficie en alta resolución- University of Bern

Este instrumento permite ver el suelo, así que también sirve para buscar potenciales lugares de aterrizaje para futuras misiones, como la esperada segunda misión del programa ExoMars, ExoMars 2020. El objetivo de esta es aterrizar allí un rover de exploración capaz de perforar el subsuelo e investigar las condiciones físico-químicas de las profundidades y posibles huellas en los que no haya amenazas y al mismo tiempo se espere obtener resultados positivos.

La cámara CaSSIS está en la parte de la TGO que apunta hacia la Tierra, pero a causa de la dinámica de la órbita la sonda tiene que cabecear para lograr hacer un barrido eficaz. Y todo sin dejar que los paneles solares apunten al Sol y que los radiadores, que disipan el exceso de calor en la parte de la nave que está expuesta a la estrella, queden a su vez bajo el influjo de la radiación.

Junto a CaSSIS, los instrumentos NOMAD y ACS a bordo de la «Trace Gas Orbiter» buscarán las fuentes de gases y su posible relación con el origen biológico o geológico del metano de Marte.


Mapa global de agua marciana

Además de estos, la agencia espacial rusa Roscosmos ha puesto el instrumento FREND a bordo para detectar los neutrones provenientes de la superficie marciana. El interés de esto es trazar un gran mapa de Marte con información con la composición de la superficie, y muy concretamente de la presencia de hielo y agua en el subsuelo. 
 

Proximidades del cráter Da Vinci, de 100 kilómetros de diámetro- ESA

Tal como explicaron a ABC portavoces de la ESA, esto será clave no solo para posibles futuras misiones tripuladas, sino también para enviar el rover de ExoMars 2020 en busca de huellas de vida marciana. En caso de que los análisis de la composición de metano apuntaran en la dirección de que su origen puede ser biológico (esto podría ocurrir a partir de 2018), sería clave poder cruzar esta información con la de la presencia de agua.

Todos estos trabajos contarán con el apoyo y la colaboración de las misiones de la NASA «Mars Express» y «Mars Reconnaissance Orbiter». Precisamente esta última permitió detectar el lugar del accidente del módulo Schiaparelli.

La «Trace Gas Orbiter» ha estado desde el día 20 hasta el 28 calibrando los instrumentos científicos por primera vez desde su llegada.

Está previsto que a partir de enero de 2017 se ajuste a una órbita más adecuada para las comunicaciones y los experimentos de ciencia, y que entones su órbita dure solo un día. Para eso, la ESA ejecutará por primera vez en su historia la complicada maniobra del aerofrenado, que aprovechará la fricción de la atmósfera de Marte para ralentizar la nave y ajustarla a una órbita circular de tan solo 400 kilómetros de altura, comparable a la que está la Estación Espacial Internacional (ISS) en la Tierra.




Fuente: ABC.es
Jóvenes estudiantes construyeron el primer auto eléctrico 100% argentino
El vehículo "Astor" fue creado con piezas completamente nacionales, por alumnos de la UBA


El "Astor", el primer auto eléctrico completamente argentino. Foto: Twitter Astor300


Alumnos de la Universidad de Buenos Aires construyeron el primer auto eléctrico argentino. "Astor", como bautizaron al vehículo, fue creado con piezas 100% nacionales.

El auto mide 2,20 metros de largo, y usa un motor de 5 KW, según detalló la UBA en su página oficial de Facebook.

Está diseñado para mejorar el desempeño de personas mayores o con movilidad reducida. Se puede visitar en la "Sala Baliero", de Ciudad Universitaria, de 10 a 21, hasta el 2 de diciembre. Luego, el 3 de diciembre, habrá un día de prueba en el estacionamiento norte de Ciudad Universitaria.

Los alumnos a cargo del vehículo fueron Agustín Passerini, Damian López, Delfina Colombo, Cristela Caviglia, Elián Romero Tancoff y Nicolás Fantl, estudiantes de último año de la carrera de Diseño Industrial.

Los alumnos a cargo del vehículo fueron Agustín Passerini, Damian López, Delfina Colombo, Cristela Caviglia, Elián Romero Tancoff y Nicolás Fantl. Foto: Captura YouTube Astor


En la página del proyecto, explicaron el por qué de la iniciativa: "Basándonos en encuestas y estudios realizados por este equipo, entendimos que la necesidad del transporte en la ciudad requiere de distancias menores a 50 km diarios y para una sola persona".

"A raíz de todos estos datos resolvimos priorizar una rápida y cómoda accesibilidad, mejorando la situación de personas mayores con complicaciones motrices e incluyendo a las personas de movilidad reducida. Otro aspecto diferencial reside en mejorar el campo de visión del usuario al plantear una posición de mayor altura del asiento (mejora la accesibilidad para ancianos y discapacitados)", indicaron. 



Fuente: La Nación

jueves, 1 de diciembre de 2016

Crean una forma de vida extravagante capaz de producir moléculas con silicio
Han logrado que una bacteria introduzca átomos de silicio, un elemento similar al carbono pero que casi nunca forma parte de los seres vivos, dentro de sus moléculas. Esto puede expandir enormente la química y a la biología. Esto podría ayudar a entender en el futuro por qué los seres vivos de la Tierra no están hechos de silicio y sí de carbono, o si los extraterrestres podrían estar basados en el primero
 
por Gonzalo López Sánchez - Gonzalo Syldavia 


Representación de una forma de vida basada en el silicio y no en el carbono. Estos dos elementos son muy similares químicamente, pero la vida no está hecha del primero pero sí del segundo - Lei Chen y Yan Liang (de BeautyOfScience.com) para Caltech


La vida es un poco maniática. Aunque la química y la física le ofrecen un repertorio muy amplio de opciones para hacer reacciones y construir la estructura de los seres vivos, tiene la costumbre de siempre escoger las mismas opciones, como si tuviera un color favorito. Por ejemplo, cuando construye proteínas con aminoácidos casi siempre escoge las formas L y casi nunca las formas D (L y D son tipos de moléculas con la misma composición pero que se diferencian en la colocación de sus componentes). Pero si hay una «manía» que intriga a los científicos es por qué la vida está hecha básicamente de carbono y no de silicio, cuando este elemento que tanto se usa en los chips resulta tener unas propiedades químicas muy similares a las del carbono y además es el segundo más abundante en la Tierra, después del oxígeno.

El carbono y el silicio se parecen tanto que algunos han propuesto que podría haber vida extraterrestre basada en silicio. Pero desde este jueves no hay que mirar a las estrellas para encontrar formas de vida extravagantes. Investigadores del Instituto Tecnológico de California han presentado en Science un artículo en el que demuestran que es posible hacer que los seres vivos produzcan componentes de la vida extraños basados en el silicio. En concreto, han logrado crear una enzima que produce enlaces entre el carbono y el silicio. Esto permitirá explorar los límites de la vida y crear medicamentos y aplicaciones completamente novedosas.

«Lo más importante es que hemos podido demostrar que la vida puede crear cosas totalmente nuevas que no existen en la naturaleza», ha explicado a ABC Frances H. Arnold, investigadora del Instituto Tecnológico de California (Caltech) y coautora del estudio. En concreto, han conseguido modificar una enzima que ya existía e introducira en una bacteria para que produzca moléculas de carbono-silicio.

Si bien ya hace muchos años que los investigadores usan métodos químicos para crear compuestos de carbono-silicio, con el fin de obtener catalizadores y enzimas de interés industrial, por ejemplo, esta ha sido la primera vez que se ha logrado producir estos compuestos a través de un método biológico.
Vida sintética

Tal como ha escrito Hendrik F. T. Klare, en un artículo también publicado en Science y que ha acompañado a esta investigación, quizás lo más sorprendente es que este método artificial es extremadamente eficiente. A pesar de haber sido creado en el laboratorio, las enzimas han mostrado tener una gran flexibilidad y versatilidad.

«Teniendo en cuenta el hecho de que las enzimas naturales han evolucionado para llevar a cabo funciones muy bien definidas sobre sustratos muy específicos, es impresionante que apenas un puñado de mutaciones permitan reprogramar una enzima natural para catalizar una reacción que antes solo podían hacer los químicos sintéticos», ha escrito Klare.

Gracias a esto, los investigadores han creado una enzima que podría usarse para hacer nuevos catalizadores y medicamentos, y además han abierto un campo nuevo repleto de posibilidades. «Hemos demostrado que podemos crear compuestos muy selectivamente con este método, así que creo que mucha gente va a tratar de explorar nuevas aplicaciones», ha dicho Arnold.

Las diatomeas tienen «esqueletos» de silicio, pero este forma parte de moléculas inorgánicas (sin carbono). En la Tierra, ningún ser vivo incorpora silicio en sus moléculas orgánicas o se basa en el primero, a pesar de sus similitudes químicas con el segundo- Gordon T. Taylor, Stony Brook University


Pero lo que los científicos no han hecho, todavía, es crear un organismo realmente basado en silicio. En primer lugar la bacteria que han modificado solo puede vivir en las delicadas condiciones de los laboratorios y nunca crecería en el exigente entorno natural. Para continuar, solo han conseguido que una enzima incorpore estos extraños enlaces, pero solo cuando se le de la «comida» y los sustratos necesarios.

Los límites de la vida

Pero aparte de esto, esta investigación también podría ayudar a entender por qué la vida apenas aprovecha el silicio y, por qué no, si en realidad podría basarse en este elemento. «Ahora también podemos preguntarnos por qué la vida no incorpora silicio en las biomoléculas y averiguar cuáles son los costes y los beneficios de introducir el silicio en las moléculas».

El silicio no sustituye al carbono ni está presente en las moléculas orgánicas (compuestas por este átomo) de los seres vivos, (aunque sí forma parte de los componentes inorgánicos de algunos seres vivos, como las diatomeas). Y no se sabe por qué. Una posible explicación es que el silicio, el segundo elemento más abundante de la Tierra detrás del oxígeno, suele estar enterrado y capturado por fuertes enlaces dentro de los silicatos, lo que dificulta el acceso de los organismos a este átomo.

Una enorme expansión de la química

«Pero si piensas en una imagen global, es muy excitante. Hemos mostrado que las enzimas pueden hacer reacciones totalmente nuevas, y que podemos incorporarlas a sistemas naturales», ha dicho Arnold. «Esto puede expandir enormemente la química».

A la pregunta de si también podría expandir la biología y crear seres vivos basados en silicio, la investigadora ha dicho: «No es imposible de imaginar. Sería divertido».

Enzima prestada

Para conseguir que una bacteria produjera compuestos de carbono-silicio, los científicos «extrajeron» una enzima ya existente de un microorganismo marino que vive en aguas termales en Islandia: Rhodothermus marinus. La «introdujeron» en una bacteria que es el caballo de batalla de los laboratorios, Escherichia coli, y la modificaron para que «aprendiera» a producir eficazmente compuestos de este tipo. Para ello, forzaron la aparición de mutaciones la enzima, y esperaron a que pasaran varias generaciones de bacterias (cosa que ocurre en cuestión de minutos en el laboratorio) para escoger a la bacteria más eficaz (esto se llama evolución dirigida). Gracias a esto, consiguieron que esta enzima, que nunca produciría estos compuestos extravagantes en medio natural, los fabricara en el laboratorio y además con mucha eficiencia.

En biotecnología es muy habitual que las bacterias hagan funciones artificiales, pero esta es la primera vez que se logra que un ser vivo introduzca silicio en sus moléculas orgánicas- NIAID

Tal como informa Nature, Arnold ganó este año un millón de dólares en el «Millenium Technology Prize» por la técnica de la evolución dirigida, que desarrolló en 1990. Desde entonces, este método ha permitido desarrollar nuevos medicamentos o incluso nuevos detergentes. La creación de enlaces carbono-silicio promete con ampliar aún más las posibilidades de esta tecnología.



Fuente: ABC.es
Invap, la empresa que los franceses vinieron a buscar
Socios. Sus rivales de Areva les plantearon asociarse para dos reactores en Sudáfrica. 
por Silvia Naishtat

Energía eólica. Las paletas también se construyen en Bariloche.


Inspirado durante su formación en Estados Unidos, el físico Conrado Varotto, egresado del Balseiro, volvió a Bariloche con la idea fija de crear un polo de empresas de alta tecnología. Pensaba en grande. Y había sido testigo del surgimiento de lo que hoy conocemos como el Silicon Valley. Así nació Invap.

Corría 1976, un año trágico para la Argentina. Pero lejos de ser parte de un proyecto militar, Invap representó desde sus inicios. con un magro capital de US$200.000, el esfuerzo de un grupo de científicos por aplicar sus conocimientos. Empezaron fabricando esponjas de circonio, un elemento que se utiliza en aplicaciones nucleares. Varotto dirigió la empresa, que pertenece a la provincia de Río Negro, durante 20 años. Su sucesor y también su discípulo, Héctor Otheguy, se convirtió en su CEO y la dirige desde entonces.

En 1985 firmaron el primer contrato de exportación de importancia. Era un reactor nuclear y el primero que se vendía llave en mano, a los argelinos. Se trató del reactor de investigación OPAL.

Ese gran salto no sólo los colocó en el firmamento internacional. También los impulsó a ampliarse hacia lo aeroespacial. Y emprendieron una carrera vertiginosa, con la fabricación de satélites de observación y de comunicaciones, y radares para el control aerocomercial y de seguridad de fronteras.

INVAP contabiliza actualmente un patrimonio de US$50 millones, una facturación de US$200 millones y 1.420 empleados entre científicos y técnicos.

En 2010 inauguraron la sede central luego de trabajar en 20 sedes distintas por los barrios periféricos de Bariloche. “Nunca tuvimos un presupuesto estatal, vivimos de lo que vendemos y reinvertimos todas las utilidades”, explica Otheguy. Ahora está en juego un contrato por US$350 millones para Sudáfrica. La novedad es que se presentan junto a Areva, sus competidores franceses. “Ellos son protagonistas de la industria nuclear global y nos vinieron a buscar para la construcción de dos reactores nucleares, uno de potencia para generar electricidad y otro de investigación, que será utilizado para la fabricación de radioisótopos medicinales”, dijo orgulloso Otheguy.  



Fuente:  ieco.clarin.com

martes, 29 de noviembre de 2016

Eckhard Elsen: «La Física que conocemos está agotada, tiene que haber algo más»
El director científico del CERN explica cómo el LHC busca la misteriosa materia oscura. Los experimentos para detectar agujeros negros microscópicos o dimensiones desconocidas ya están listos

por Judith de Jorge Gama

Eckhard Elsen, director científico del CERN, en Madrid - Maya Balanya


El Gran Colisionador de Hadrones (LHC), un gigantesco túnel en forma de círculo a cien metros bajo tierra en las cercanías de Ginebra, es la catedral de la Física por excelencia. La máquina que detectó el bosón de Higgs, la partícula elusiva durante más de cincuenta años, acaba de concluir la temporada 2016 de choques de protones. Eckhard Elsen, director de Investigación y Computación del CERN, organismo que opera el acelerador, ha explicado en Madrid, invitado por la Fundación BBVA, cuál ha sido la «cosecha» científica recogida por los experimentos. Realizados a un nivel de energía nunca antes alcanzada, 13 Tev, «nos han llevado más allá de las fronteras del conocimiento».

¿Ha sido un buen año para el LHC?

Sí. Este año se han logrado dos hitos en la operación de la máquina, tremendamente necesarios para la Física. El primero es que hemos comprimido el haz de protones como jamás antes se había logrado (En el LHC los protones viajan a velocidades próximas a las de la luz y el objetivo es que choquen unos contra otros, cuantas más veces mejor; así se pueden detectar nuevas partículas). El segundo, su disponibilidad, que se ha multiplicado por dos, lo que quiere decir que está en muy buenas condiciones y se han resuelto antiguos problemas con el control, los imanes...

¿Qué han permitido ver esos avances, alguna nueva partícula?

Hemos obtenido ocho veces más datos, lo que nos permite esclarecer que nuestros resultados son compatibles con una fluctuación estadística. Duele reconocerlo, nos hubiera complacido descubrir algo nuevo, pero esto es lo que ha ocurrido.

¿Eso no es una lástima?

Permíteme un ejemplo. Voy caminando por las calles de Madrid y veo a dos personas con un abrigo rojo. ¿Se trata de una nueva moda? ¿Voy a invertir en la fabricación de abrigos rojos? O quizás deba andar más tiempo por la ciudad y ver si también hay abrigos verdes o azules. Esa es nuestra forma de trabajar en el LHC, mirar más, obtener más datos para confirmar si una tendencia es algo nuevo o no. El resultado permite una comprensión mucho mayor de lo que llamamos el Modelo Estándar de la Física, y resulta que ya no es suficiente. Las ideas más sencillas se nos han acabado. Sabemos que tiene que haber algo más, pero no sabemos cómo es realizable esa ampliación del modelo estándar.

¿Por qué?

Es deprimente, pero solo comprendemos el 5% de la masa del Universo. Hay otra materia que no conocemos y no sabemos de qué está hecha, la materia oscura. La estamos buscando con el gran colisionador de hadrones.

¿Cómo lo hacen?

El LHC busca la materia oscura en una cierta ventana de masas: o en partículas pesadas si necesitas pocas o en partículas muy muy ligeras que están en todas partes, pero que jamás interactúan. No se pueden usar luz, imanes, interacciones débiles (las fuerzas responsables de la desintegración radiactiva) ni fuertes (lo que mantiene los núcleos juntos) para entrar en contacto con estas partículas. Ese es el problema. Por eso se llama oscura.

Pero saben que existe.

Elsen, en un momento de la entrevista- M.B.
Es un rompecabezas. Sabemos que existe por el comportamiento de las estrellas y las galaxias, pero no hemos encontrado cuál es su portador.

¿Y usted por cuál apostaría?

El Premio Nobel de Física de este año se ha dado a los descubrimientos sobre los efectos topológicos de la materia (estados de la materia que ocurren en ciertas agrupaciones de átomos). Podría ocurrir un efecto semejante, y esto es pura especulación, cuando se forman los axiones, una partículas que quizás puedan explicar lo que es la materia oscura. Se han propuesto nuevos experimentos para estudiarla en ese rango de masas. Ahora la pelota está en el terreno de los físicos experimentalistas.

La confirmación del modelo estándar, ¿es una buena o mala noticia?

Es buena, por supuesto, porque es una teoría bellísima. No es aburrida. A partir de ella podemos diseñar experimentos que busquen algo nuevo. Tú intentas desafiar a la naturaleza pero si haces la respuesta equivocada, la naturaleza te responde: esto ya lo sabías, es lo mismo de antes. Si haces la pregunta adecuada, la naturaleza te dirá: sí, y por qué no lo buscaste antes.

El bosón de Higgs fue un hallazgo fantástico. ¿Podemos esperar otro del mismo calibre en un futuro cercano?

Peter Higgs y sus colaboradores lo predijeron en los 60 y lo hemos buscado desde entonces. Ha sido una confirmación espectacular del modelo estándar y estamos altamente complacidos de haber encontrado ese ladrilllo de construcción. Pero lo que sabemos no es suficiente para poder encontrar algo nuevo tan espectacular como ha sido el bosón de Higgs.

También buscan agujeros negros microscópicos, otras dimensiones...

Sí, son realizaciones particulares de las nuevas teorías. Conocemos cuatro dimensiones, tres en el espacio y una en el tiempo, pero podría haber más que se utilizasen solo para determinados tipo de interacciones. Por ejemplo, a través de la gravitación. En el LHC los experimentos ya están listos para intentar estudiar interacciones de ese tipo.

¿Qué hace falta para que lo consiga?

Hemos recogido entre el 1% y 2% de lo que nos planteamos registrar. Tenemos que seguir recogiendo muchísimos datos para llegar a la sensibilidad suficiente y obtener un resultado estadístico significativo. Eso establece la escala para la Física.

El CERN quiere construir un acelerador aún más potente que el LHC. ¿Cómo será su sucesor?

Hay dos proyectos: el Colisionador Lineal Compacto (CLIC) y el Futuro Colisionador Circular (FCC). El CLIC es lineal y utiliza electrones, que son partículas elementales, no están compuestas de quarks como los protones. Cuando el LHC colisiona protones, incluso a 13 Tev, los quarks representan solo una fracción de esa energía. Mientras que con los electrones, toda la energía llega a la colisión. ¿Por qué entonces no usamos electrones todo el tiempo? Porque no les gusta ir en círculos; pierden energía, irradian fotones. Por eso la idea de un colisionador lineal. El problema es encontrar el dinero para construir 30 km de una infraestructura como un túnel de metro. Pero la tecnología está más o menos lista ya.

¿Cuál de los dos modelos tiene más posibilidades?

Durante los próximos tres o cuatro años vamos a decidir cuál va a ser la siguiente estrategia en el dominio de la alta energía. Ambas posibilidades tienen ventajas. Más energía de los protones, más eficacia de los electrones. Eso es lo que tenemos que seleccionar. Pero tendremos LHC hasta 2035, así que la construcción de cualquier máquina nueva llevará tiempo. No estará hasta la segunda mitad de la década de 2020.

¿Cuál cree que será el próximo gran descubrimiento de la Física de partículas?

Es imposible adivinar el futuro, pero estará en la materia oscura, dimensiones extra, gravitones (partículas hipotéticas que transmiten la interacción gravitacional)... Hay toda una serie de posibilidades. Lo importante es seguir buscando.




Fuente: ABC.es
Una teoría que contradice a Einstein pronto se pondrá a prueba
Investigadores británicos creen que la velocidad de la luz es variable, lo que significa que las leyes de la naturaleza podrían haber sido diferentes en los inicios del Universo 


Los investigadores creen que la velocidad de la luz fue mucho mayor en el Universo temprano - Imperial College de Londres


Albert Einstein observó que la velocidad de la luz es constante, la misma en cualquier situación. Esta suposición apuntaló muchas teorías de la física, como la de la relatividad general, y desempeñó un papel importante para explicar lo sucedido en los comienzos del Universo, segundos después del Big Bang, la gran explosión. Sin embargo, algunos científicos creen que el físico más importante del siglo XX pudo estar equivocado, y que la velocidad de la luz es, en realidad, variable, lo que significa que el espacio y el tiempo podrían ser diferentes en diferentes situaciones. Y es hora de demostrarlo. Investigadores del Imperial Collage de Londres que defienden esta teoría rompedora han hecho una nueva predicción matemática que podría ser probada.

La idea de que la velocidad de la luz podría ser variable fue radical cuando se propuso por primera vez, pero con una predicción numérica, se convierte en algo que los físicos pueden probar realmente. De ser cierto, significaría que las leyes de la naturaleza no siempre fueron las mismas que en la actualidad.

En concreto, algunos investigadores han sugerido que la velocidad de la luz podría haber sido mucho mayor en este Universo temprano. Ahora, uno de los creadores de esta teoría, el profesor João Magueijo, del Imperial College, en colaboración con Niayesh Afshordi, profesor en el Instituto Perimeter en Canadá, ha hecho una predicción que podría ser utilizada para poner a prueba su validez.

Las estructuras en el Universo, por ejemplo, las galaxias, se forman a partir de fluctuaciones en los inicios del Cosmos, pequeñas diferencias en la densidad de una región a otra. Un registro de estas primeras fluctuaciones se imprime en el fondo de microondas cósmico, el mapa de la luz más antigua del Universo, en forma de un «índice espectral».

Trabajando con su teoría de que las fluctuaciones fueron influenciadas por una variación en la velocidad de la luz en el universo temprano, Magueijo y Afshordi han utilizado un modelo para poner una cifra exacta sobre el índice espectral. La cifra prevista y el modelo en que se basa se publican en la revista Physical Review D.

Los cosmólogos están actualmente recibiendo lecturas cada vez más precisas de esta cifra, por lo que la predicción pronto podría ser probada, y de esta forma confirmado o descartado el modelo del universo primitivo del equipo. Su figura es un muy preciso 0,96478. Esto se acerca a la estimación actual de lecturas de la radiación cósmica de fondo, de alrededor de 0,968, con un poco de margen de error.

«La teoría, que por primera vez se propuso a finales de la década de 1990, ha llegado a un punto de madurez; se ha producido una predicción comprobable. Si las observaciones en un futuro próximo encuentran este número exacto, podrían dar lugar a una modificación de la teoría de la gravedad de Einstein», dice Magueijo.

La capacidad de poner a prueba la teoría de la velocidad variable de la luz la diferencia de su teoría rival más convencional: la inflación. La inflación dice que el Universo temprano pasó por una fase de expansión extremadamente rápida, mucho más rápida que la actual tasa de expansión del Universo.

El problema del horizonte

Estas teorías son necesarias para superar lo que los físicos llaman el «problema del horizonte». El Universo como lo vemos hoy en día parece ser igual en todas partes, por ejemplo, tiene una densidad relativamente homogénea.

Esto sólo podría ser cierto si todas las regiones del Universo fueron capaces de influir en las demás. Sin embargo, si la velocidad de la luz ha sido siempre la misma, entonces no hay suficiente tiempo para que la luz viajara a los confines del Universo.

Como analogía, para calentar una habitación de manera uniforme, el aire caliente de los radiadores en cada extremo tiene que viajar a través del cuarto y mezclarse completamente. El problema para el Universo es que el «espacio» -el tamaño observado del Universo- parece ser demasiado grande para que esto hubiera ocurrido en el tiempo desde que se formó.

La teoría de la velocidad variable de la luz sugiere que la velocidad de la luz era mucho mayor en los inicios del Universo, permitiendo que los bordes distantes se conectaran al tiempo que el Universo se expandía. La velocidad de la luz se habría reducido a continuación, de una manera predecible cuando la densidad del Universo cambió. Esta variabilidad llevó al equipo a la predicción publicada hoy.

La teoría alternativa es la inflación, que intenta resolver este problema diciendo que el universo muy temprano se expandió a partir de un punto increíblemente pequeño, con la uniformidad ya impresa en él. Si bien esto significa que la velocidad de la luz y las otras leyes de la física tal como las conocemos se conservan, se requiere la invención de un «campo de la inflación», un conjunto de condiciones que sólo existían en el momento.



Fuente: ABC.es
La estatal Arsat busca inversiones en EE.UU
La empresa de telecomunicaciones y satélites inició una gira para atraer posibles inversores. 
por Alejandro Alfie

Salida al espacio del Arsat-2, el segundo satélite geoestacionario argentino.


Rodrigo de Loredo, presidente de Arsat mantuvo reuniones con fondos de inversión, empresas del sector y entidades crediticias, a los que les presentó cuatro proyectos específicos para potenciales inversores: la participación en el Arsat 3, que se lanzaría en el año 2021; la compra de capacidad satelital del Arsat 2; la instalación de torres para comunicaciones en la Argentina; y la prestación del servicio de fibra óptica directa al hogar, en combinación con la red troncal de Arsat.

La primera propuesta de participación de inversores privados fue la del satélite Arsat 3, que tendrá un costo de US$ 230 millones. De Loredo aseguró que ya firmaron “acuerdos de confidencialidad con varios interesados”, que pueden participar con financiamiento crediticio, comprando una parte del satélite o haciendo una compra anticipada de la capacidad satelital que tendrá el Arsat 3.

La segunda propuesta que De Loredo presentó a los inversores fue la venta de capacidad satelital del Arsat 2, que tiene 400 megahertz de capacidad en los Estados Unidos, donde participa de una licitación que lleva adelante el “ministerio de Defensa norteamericano”, entre otras iniciativas. El Arsat 2 tiene el 37% de la capacidad ocupada y, a partir del mes próximo, irá sumando un 15% de capacidad, cuando comience a implementarse el plan de conectividad a las 2.000 escuelas rurales del norte argentino.

El tercer plan que presentó Arsat en Estados Unidos fue para potenciar la red 4G de telefonía celular, a través del alquiler de 1.477 torres, nodos y sitios que ya tiene Arsat, para otros usos y que permitirían el ingreso de empresas de torres neutrales, que no pertenezcan a operadores de telefonía celular. “En la Argentina hay 15.000 torres de telefonía celular, casi todas pertenecen a los operadores que brindan el servicio; mientras que a nivel global eso ya no existe, porque el 60% de las torres son de operadores neutrales, que alquilan la infraestructura a los operadores del servicio”, contó De Loredo. Y agregó: “La Argentina está retrasada en este sector, así que buscamos que ingresen torreros neutrales, que inviertan en la Argentina, en un sector que todavía no se desarrolló”.

Y el último plan que presentó Arsat, en la gira por los Estados Unidos, fue el de llevar fibra óptica directa al hogar (tecnología FTTH), con la red troncal de la empresa estatal y la inversión privada en la última milla para llegar con un gran ancho de banda hasta las casas de los abonados. “El objetivo es pasar del 2% de penetración actual, al 20% en los próximos tres años, como ya tiene México, para lo cual necesitamos conseguir US$ 1.000 millones de inversión privada”, dijo De Loredo, quien agregó que España y Uruguay ya tienen, respectivamente, el 25% y el 60% de hogares con esa tecnología. 

Nota del 02/11/16 



Fuente: clarin.com

lunes, 28 de noviembre de 2016

Un hito de la astronáutica: 50 años del primer vuelo de una Soyuz
por Daniel Marín



Parece mentira, pero ya ha pasado medio siglo desde que la primera nave Soyuz viajó al espacio. El 28 de noviembre de 1966 despegaba desde el cosmódromo de Baikonur —por entonces Tyura-Tam— una nave a la que se había bautizado con el anodino nombre de Kosmos 133 para no llamar la atención de los servicios de inteligencia occidentales. Pero en realidad se trataba de la nave tripulada soviética más avanzada y el producto de seis años de duro trabajo.

Una Soyuz acoplándose a la ISS (NASA).


La Soyuz (‘unión’ en ruso) era la sucesora de la Vostok, la nave que había alcanzado fama mundial con Yuri Gagarin y Valentina Tereshkova. Tras seis misiones tripuladas, la Vostok había sido adaptada bajo el nombre de Vosjod (‘aurora’) para llevar a cabo el primer paseo espacial y el primer vuelo con tres cosmonautas. Pero la Vostok/Vosjod era manifiestamente mejorable. Su cápsula sharik con forma esférica era espaciosa para los estándares de la época, pero hacía imposible misiones tripuladas más allá de la órbita baja.

Efectivamente, su forma solo permitía una reentrada balística, lo que suponía someter a la tripulación a unas fuerzas g altísimas, pero aceptables. Sin embargo, para vuelos más allá de la órbita baja se imponía el poder controlar la reentrada para evitar que las fuerzas fuesen demasiado intensas. Además la nueva nave debería ser capaz de realizar acoplamientos en el espacio y actividades extravehiculares. Por este motivo la cápsula de la Soyuz tendría forma de campana. Siempre y cuando el centro de gravedad de la cápsula estuviese descentrado ligeramente, la forma de la cápsula permitiría generar una pequeña pero importante fuerza de sustentación que reduciría las fuerzas de deceleración. Con esta técnica era posible además controlar mejor el punto de aterrizaje.

Elementos de una Soyuz (Paco Arnau/ciudad-futura.net).


En un principio la oficina de diseño OKB-1 dirigida por Serguéi Koroliov creó el proyecto 5K Sever (‘norte’) para crear una nueva nave tripulada relativamente tradicional, pero pronto decidieron apostar por ingenioso diseño —Soyuz A— en el que la parte presurizada de la nave estaba dividida en una cápsula de retorno y en un módulo orbital. De esta manera se lograba reducir el peso total del vehículo, ya que el escudo térmico de ablación es el elemento individual más pesado de una nave tripulada. Como ventaja adicional el módulo orbital podía servir como esclusa para paseos espaciales —la Soyuz tendría una atmósfera interna similar a la terrestre, a diferencia de las naves estadounidenses, con atmósfera de oxígeno puro que eliminaban la necesidad de esclusa para EVAs— y sería el lugar ideal para situar un sistema de acoplamiento. En el otro lado del telón de acero se había estudiado un diseño similar para el CSM Apolo, como fue el caso del Apolo D-2, pero finalmente la NASA optó por un diseño más sencillo y tradicional, aunque también más robusto.

El primer diseño de la Soyuz: el proyecto 5K Sever (A. Shlyadinsky).

La primera Soyuz, la Soyuz A (A. Shlyadinsky).


La Soyuz debía ser el caballo de batalla del programa espacial soviético en todos los frentes. La OKB-1 concibió una versión para vuelos a la órbita baja con tres cosmonautas, la 7K-OK, pero también sería el elemento principal de las misiones lunares. La versión 7K-L1, sin módulo orbital, se concibió para misiones tripuladas con dos cosmonautas alrededor de la Luna dentro del programa L1. La versión 7K-LOK, una especie de ‘súper-Soyuz’, sería el equivalente soviético del CSM Apolo para las misiones de alunizaje del programa N1-L3. La OKB-1 también ideó todo tipo de versiones militares de la Soyuz, aunque ninguna salió adelante.

Lamentablemente en enero de 1966 Serguéi Koroliov falleció de forma inesperada, dejando huérfano al programa espacial soviético. Su sucesor, Vasili Mishin, se vio incapaz de gestionar eficazmente todos los programas y proyectos en los que estaba embarcada la OKB-1, aunque el diseño de la Soyuz 7K-OK ya había sido completado en agosto de 1965. Esta variante disponía de un sistema de acoplamiento denominado Iglá (‘aguja’) que era totalmente automático, fruto del deseo de Koroliov de automatizar lo máximo posible las misiones tripuladas (curiosamente en los EE UU no se desarrollaría ningún sistema parecido y se confió todo el peso de las maniobras de acoplamiento a los astronautas). Eso sí, por falta de tiempo y dinero el sistema no incluía un túnel de acoplamiento presurizado y los cosmonautas se verían obligados a realizar un paseo espacial para pasar de una nave a otra. Puesto que en el programa lunar N1-L3 se había elegido el sistema de acoplamiento Kontakt, que tampoco disponía de un túnel presurizado, las misiones de la 7K-OK servirían para adquirir práctica antes de los vuelos lunares.

Partes de una Soyuz TMA (ESA).


Por este motivo la primera misión de la Soyuz se decidió que fuese un ambicioso acoplamiento orbital entre dos naves no tripuladas en órbita usando el sistema Iglá. La Kosmos 133 llevaba la componente activa —o ‘macho’ en lenguaje no políticamente correcto— denominada 7K-OK(A). El lanzamiento también supuso el debut del cohete 11A511, una versión del misil R-7 Semiorka que sería bautizada de forma retrospectiva como Soyuz siguiendo la tradición soviética de bautizar los lanzadores con el nombre de su primera carga útil.

Un día más tarde del lanzamiento de la Kosmos 133 debía despegar la Soyuz con la componente pasiva, la 7K-OK(P) nº 1. Pero poco después de alcanzar la órbita el control de tierra comprobó que la Kosmos 133 se encontraba girando sin control por culpa de una pérdida de combustible del sistema de propulsión DPO. Contra todo pronóstico los ingenieros lograron recuperar el control del Kosmos 133 y pudieron encender el motor SKDU para frenar la nave y traerla de vuelta a la Tierra. No obstante pronto comprobaron que la cápsula caería fuera del territorio soviético y, siguiendo los protocolos habituales, activaron el sistema de destrucción compuesto por 23 kg de TNT y la cápsula explotó sobre el Pacífico. De esta forma tan poco digna terminó el primer vuelo de una nave Soyuz.

La Soyuz 3, una Soyuz 7K-OK de primera generación.


La que debía ser la segunda Soyuz, la 7K-OK(P) nº 1, debía despegar el 14 de diciembre de 1966, pero un fallo del lanzador durante el despegue provocó la activación prematura del sistema de escape SAS, un incidente no previsto que le costó la vida a una persona en la rampa de lanzamiento. La segunda Soyuz, la 7K-OK(P) nº 3 o Kosmos 140, partió al espacio el 7 de febrero de 1967 sin tripulación. Esta vez no se intentó un acoplamiento en órbita, pero la misión estuvo plagada de todo tipo de problemas e incluso la cápsula se despresurizó parcialmente durante el descenso por culpa de un agujero en el escudo térmico. Para colmo de males, la nave se hundió en el mar de Aral tras aterrizar sobre su superficie helada. Evidentemente la Soyuz todavía no estaba lista para llevar a cabo una misión tripulada, pero la carrera espacial estaba en pleno apogeo y había que arriesgarse. Quizás demasiado. Como resultado la Soyuz 1 —7K-OK(A) nº 4— con Vladímir Komarov tuvo el final trágico y previsible que todos conocemos.

La Soyuz MS-03, la última Soyuz lanzada al espacio (Roscosmos).


Estos inicios tan poco optimistas apuntaban a un futuro nada halagüeño para la Soyuz. Pero cincuenta años después la Soyuz sigue volando y se ha convertido en la nave espacial tripulada más fiable y con más misiones a sus espaldas. A pesar de que la URSS desarrolló otras naves tripuladas como la TKS-VA o las lanzaderas del programa Burán, ninguna logró sustituir a la Soyuz. La cápsula Zaryá, que debía ser su reemplazo, tampoco vio la luz antes del colapso de la Unión Soviética. Todas las estaciones espaciales soviéticas (DOS y OPS), y ahora la estación espacial internacional, han dependido de la Soyuz. Actualmente la Soyuz es el único vehículo espacial tripulado en servicio junto con la Shenzhou china. Debe ser sustituida por la nueva nave rusa Federatsia (PTK-NP) durante la próxima década, pero viendo su trayectoria es difícil imaginar que algún día la Soyuz dejará de volar.

Versiones de la Soyuz (Giuseppe De Chiara).


Versiones de naves Soyuz:
  • Séver / 5K: proyecto de nave antecesora de la Soyuz para abastecer estaciones espaciales. La cápsula tenía forma de campana, pero carecía de módulo orbital.
  • Soyuz A: diseño preliminar de la Soyuz con un módulo orbital cilíndrico.
  • Soyuz 7K-OK (11F615): primera versión tripulada de las Soyuz de 6,6 toneladas para vuelos orbitales en solitario o acoplamientos mutuos. Fueron lanzadas 17 veces, en 9 ocasiones sin tripulación. Incorporaban un sistema de atraque entre naves usando el sistema Iglá, pero no un túnel de conexión. Esto obligaba a realizar una EVA para pasar de un vehículo a otro (Soyuz 4 y 5). Podía transportar a tres cosmonautas sin trajes de presión (1964-1970).
  • Soyuz 7K-T (11F615A8): versión de la Soyuz para misiones a las estaciones Salyut. La primera versión, para la Salyut 1, incluía paneles solares y podía transportar a tres cosmonautas sin escafandras. Tenía una masa de 6800 kg y una longitud de 7,5 metros. La siguiente versión, para misiones a la Salyut 4 y Salyut 6 introducida tras el accidente de la Soyuz 11, carecía de paneles solares y sólo tenía capacidad para dos cosmonautas con trajes de presión Sokol-KV. Su masa era de 6700 kg y su longitud de 7,5 metros (1973-1981). Se lanzaron 26 Soyuz 11F615A8, 4 no tripuladas.
  • Soyuz 7K-T (11F615A9): versión de la 7K-T para las estaciones militares Almaz Salyut 3 y Salyut 5. Masa: 6700 kg. Se lanzaron 7 unidades, de las cuales una no tripulada.
  • Soyuz 7K-TM (11F615A12/EPAS): versión de la 7K-T desarrollada para el programa Apolo-Soyuz con paneles solares. Masa: 6550 kg (1974-1976). Se lanzaron un total de 5 unidades, dos no tripuladas.
  • Soyuz T / 7K-ST (11F732): versión completamente remodelada de la Soyuz para misiones a la Salyut 6 y Salyut 7. Tenía paneles solares y capacidad para tres cosmonautas con el traje de presión Sokol-KV2. Entre otras modificaciones, presentaba nuevo sistema de propulsión, nuevo paracaídas y ordenador mejorado. A diferencia de las 7K-OK, 7K-TM y 7K-T, con una superficie exterior de color verde, las cubiertas térmicas exteriores son de color gris oscuro. Masa: 6900 kg. Longitud: 6,98 metros (1978-1986). Se lanzaron 18 unidades, 3 no tripuladas.
  • Soyuz TM (11F732): versión avanzada de la Soyuz T para vuelos a la Mir y la ISS. Hacía uso del nuevo sistema de acoplamiento automático Kurs en vez del voluminoso Iglá, así como nueva aviónica y paracaídas. Masa: 7000 kg. Longitud: 6,98 metros (1986-2002). Se lanzaron 34 unidades, incluyendo una no tripulada.
  • Soyuz TMA (11F732A17): modificación de la Soyuz TM financiada por la NASA para ampliar el rango de alturas permitidas a los tripulantes. También tenía un panel de control digital en la cápsula completamente nuevo (2002-2011). Se lanzaron 22 unidades.
  • Soyuz TMA-M (11F732A47): modificación de la Soyuz TMA con un nuevo ordenador TsVM-101 en vez del Argon-16 y telemetría digital (2010-2016). Se lanzaron 20 unidades.
  • Soyuz MS (11F732A48): última versión de la Soyuz con sistemas mejorados introducida en 2016. Tres lanzamientos hasta la fecha.

Nave Soyuz acoplada a la ISS (NASA).



Fuente:  danielmarin.naukas.com
YPF avanza con la instalación de la primera planta de producción de ion-litio de Argentina
Junto a la compañía italiana FIB-FAAM y la empresa Jujuy Energía y Minería Sociedad del Estado firmaron una carta de intención para avanzar con el proyecto.






La compañía italiana FIB-FAAM (SERI Group), Y-TEC (YPF Tecnología S.A.) y la empresa Jujuy Energía y Minería Sociedad del Estado (JEMSE) firmaron este miércoles una carta de intención para avanzar con la instalación de la primera planta de producción de celdas de ion-litio de la Argentina.

La firma se realizó en la embajada de nuestro país en Roma por el presidente de FIB-FAAM, Federico Vitali; el gerente general de Y-TEC, Santiago Sacerdote; el presidente de JEMSE, José María Palomares y el Ministro de Desarrollo Económico y Producción de la Provincia de Jujuy, Juan Carlos Robles.

El acuerdo oficializa la decisión del grupo italiano, líder de la industria dedicada a la fabricación de baterías, de avanzar con la inversión y puesta en marcha de la planta que se convertirá en un eslabón clave para el desarrollo completo de la cadena de valor del litio en el país.

"Lo consideramos una apuesta global. Ya estamos construyendo una planta similar en el sur de Italia. Resulta estratégico para nosotros invertir en esta industria, y Argentina es un actor clave en el mapa internacional del litio. También estaremos avanzando con Y-TEC en el desarrollo y escalado de la tecnología que nos permita producir a partir del litio argentino el material activo para nuestras plantas de producción de celdas", dijo el presidente de FIB, Federico Vitali.

Durante los próximos meses, las partes trabajarán en la puesta a punto del proyecto técnico de instalación de la fábrica, que integrará un socio industrial local para su desarrollo.

Y-TEC tendrá un rol clave en esta alianza como socio tecnológico de Lithops, empresa perteneciente a SERI Group, con la cual mantiene un vínculo técnico desde 2015 y que ha sido pionera en Europa en el desarrollo de tecnologías para la fabricación de celdas de ion-litio. La empresa italiana aplicará sus conocimientos y tecnologías para el diseño y puesta a punto de la planta de celdas de ion-litio, que será única en su tipo en Sudamérica.

"Estamos dando un importante paso para la conformación de una nueva industria de base tecnológica en el país, clave para impulsar los mercados emergente de energías renovables y movilidad eléctrica.", resaltó Sacerdote. Y agregó: "Hemos integrado nuestras capacidades con las de distintos institutos y grupos de investigación del país. Con esta alianza pasamos a acoplar nuestra agenda de I+D con un proyecto de alcance global, lo cual nos permitirá mantenernos en la frontera del conocimiento y desarrollar soluciones energéticas de valor, proyectando una plataforma industrial realmente competitiva"

A su vez, el ministro Robles señaló que la nueva planta "permitirá agregar valor e integrar en Jujuy la cadena de valor del litio, con un trabajo articulado entre el sector público y el sector privado"

Sobre Y-TEC

Y-TEC es una empresa de tecnología, creada por YPF y el CONICET, cuya actividad central es la investigación y el desarrollo, la generación y transferencia de soluciones tecnológicas a la industria energética nacional.

La empresa cuenta con el centro tecnológico de vanguardia más importante de la Argentina, con 47 laboratorios, 12 plantas piloto y más de 300 personas, entre investigadores, técnicos, becarios, consultores y personal de áreas staff.

Concentra sus capacidades en una plataforma compuesta por 75 tecnologías en desarrollo, organizadas en 13 Programas Tecnológicos, que abordan integralmente oportunidades de mejora de alto valor en 6 áreas estratégicas para la industria energética, entre ellas las Nuevas Energías.

Sobre FIB-FAAM

FIB-FAAM (SERI Group) es líder de la industria italiana en la fabricación de baterías desde hace más de 40 años. Los sistemas de almacenamiento con alta eficiencia energética de FIB se utilizan para la industria del automóvil, en aplicaciones industriales y en telecomunicaciones.

En este momento, la empresa trabaja especialmente en el desarrollo de tecnologías para la industria del ion litio y cuenta con una vasta experiencia en toda la cadena del sector, desde el diseño de celdas hasta la construcción de baterías.

Sobre JEMSE

Jujuy Energía y Minería Sociedad del Estado (JEMSE) es una empresa de la provincia de Jujuy.

La compañía impulsa el desarrollo de la actividad minera y de la industria energética provincial. Tiene participación en proyectos mineros de explotación del litio y en proyectos de generación de energía solar. 



Fuente: diario UNO
El Silicon Valley del Nahuel Huapi: tecnología de punta en el sur
Clave. La visión de un grupo de científicos generó en Bariloche un polo tecnológico de clase mundial, con exportaciones de plantas llave en mano. 
por María Eugenia Estenssoro

La fábrica de materia gris. Una vista de la sala en la que se construyen los más sofisticados satélites tanto de baja órbita como geoestacionarios en la sede del Invap en Bariloche.


Hace unos meses, Nadim Morhell, Hernán Pastoriza y Darío Antonio, tres doctores en física del Instituto Balseiro de Bariloche, fueron seleccionados por Singularity University, universidad de Silicon Valley ligada a la Nasa y Google, para acelerar el desarrollo de MZP, la empresa de biotecnología que crearon a orillas del lago Nahuel Huapi.

En los modernos laboratorios que comparten el Instituto Balseiro y el Centro Atómico Bariloche (CAB) –un campus modelo de 60 hectáreas para la formación y la investigación científica– desarrollaron un viscosímetro con un microchip capaz de medir la viscosidad en sangre del recién nacido, extrayendo sólo una gota. Esta tecnología, de bajo costo, permitirá prevenir peligrosas afecciones circulatorias. Pastoriza (profesor del doctorado) propuso la problemática a sus alumnos hace varios años ante una consulta del Hospital Zonal. Norhell, su alumno, encaró la investigación como trabajo de tesis y desarrolló un instrumento de medición en el laboratorio de nanotecnología. Profesor y alumno se asociaron e incorporaron a Darío Antonio, otro científico con experiencia internacional. Con el apoyo de la aceleradora de empresas de California, aspiran a llegar con su “microviscosímetro”, que fue patentado, al mercado global.

Satellogic, una empresa argentina que ya lanzó al espacio 5 nanosatélites de investigación, también fue incubada entre Silicon Valley y Bariloche. El emprendedor Emiliano Kargieman fue a estudiar a Singularity University. Allí imaginó cómo producir nanosatélites de investigación cuyo costo estuviera al alcance de universidades, investigadores y pymes, no sólo de gobiernos. De regreso en Argentina, recibió fondos del Ministerio de Ciencia y trabajó durante dos años en Bariloche, con científicos e ingenieros de INVAP, la empresa estatal de tecnología de alta complejidad creada en los 70 por un físico del Balseiro. Hoy Kargieman pasa gran parte del tiempo en Silicon Valley (el área de innovación tecnológica que rodea a la bahía de San Francisco en California), generando acuerdos con clientes e inversores internacionales. Quiere convertir a Satellogic en una empresa de proyección global.

Justamente, hace medio siglo, dos grandes pioneros, los físicos Carlos Balseiro y Conrado Varotto, profesor y alumno a su vez, concibieron a la investigación científica y la innovación tecnológica como motores del desarrollo argentino. “La materia prima más importante que tiene la Argentina es la materia gris,” sostenía Varotto, fundador de INVAP.

Una visión que adoptaron las grandes potencias del siglo XX, pero que nuestro país ignoró durante décadas, más volcado a la exportación de materias primas o a ensoñaciones industrialistas de baja densidad para el mercado interno. La inversión en investigación en la Argentina es muy baja, tan sólo 0,6% del PBI, y de ese magro porcentaje, el 70% corresponde al Estado. En Brasil, según datos del Banco Mundial, el porcentaje salta a 1,24% del PBI y en EE.UU. al 2,73%.

Hoy, cuando se sabe que la economía del conocimiento será el principal factor de progreso en el siglo XXI, el polo estatal, integrado por el Instituto Balseiro, el Centro Atómico Bariloche y la empresa INVAP, surge como el mayor reservorio de innovación y ciencias aplicadas a la producción del país.

Durante décadas, este polo atendió principalmente los requerimientos del gobierno argentino y gobiernos extranjeros. INVAP fabrica y exporta reactores nucleares de investigación, satélites, radares y centros de telemedicina nuclear. Pero ahora, muchos de los experimentados científicos y jóvenes graduados del sur parecen decididos a encarar un nuevo desafío: cruzar el llamado “valle de la muerte”, ese precipicio que en nuestro país tradicionalmente separó a los académicos de los hombres de negocios, al laboratorio del mercado internacional.

Paradójicamente, este polo de conocimiento nació en el corazón de la Patagonia debido a un gran fraude cuando, a fines de la Segunda Mundial, el físico filo nazi Ronald Richter convenció a Juan Domingo Perón que podía lograr la fusión nuclear, algo que ningún país había alcanzado (ver más información en esta página). En la Isla Huemul, cercana a Bariloche, se instaló un laboratorio secreto con tecnología de avanzada. El proyecto se canceló, pero el reconocido físico Enrique Gaviola propuso aprovechar el gran equipamiento encontrado en el laboratorio secreto para crear en Bariloche una universidad de excelencia para la formación de físicos y científicos. También impulsó al joven José Antonio Balseiro para dirigirlo. El instituto que hoy lleva su nombre se fundó en 1955 y depende de la CNEA y la Universidad de Cuyo. Cada año ingresan 15 alumnos por carrera, tras una rigurosa selección. Desde sus inicios, los estudiantes conviven con un claustro de profesores, integrado por científicos argentinos y visitantes extranjeros.

“En esa época, Bariloche tenía 15.000 habitantes y el avión llegaba sólo dos veces por semana. Era durísimo. Al poco tiempo, la mayoría de los siete profesores que vinieron con mi padre se fueron”, recuerda su hijo, el físico Carlos Balseiro, quien acaba de ser electo rector del Instituto que cumplió 60 años. “Pero mi padre, algunos colegas y los primeros egresados siguieron, convencidos de que en esa comunidad científica, alejada de la convulsión de Buenos Aires, se formarían las mentes que necesitaba la ciencia argentina”.

A principios de los ’70, otro visionario, alumno de José Balseiro, redobló la hazaña de su maestro. Tras una estadía en la Universidad de Stanford, el centro académico que generó el polo de empresas de tecnología digital que dio nombre a Silicon Valley, soñó con crear algo similar en Bariloche. En 1976 fundó INVAP. Varotto la dirigió hasta 1991; y desde entonces la conduce su discípulo Héctor Otheguy. Siguiendo los preceptos de su mentor, el CEO explica con orgullo: “INVAP es una empresa estatal, de la provincia de Río Negro, que vive de lo que vende. Reinvierte sus ganancias y sólo el 10% se reparte en partes iguales entre todos sus empleados. Varotto decidió crear una empresa porque quería hacer algo que sirviera”. INVAP es la empresa pública más innovadora y eficiente de Argentina. En la última década tuvo una gran expansión y construyó una amplia y moderna sede junto al Nahuel Huapi. Para construirla, no recibió subsidios: emitió obligaciones negociables. La empresa, que en 2015 emitió ON por $200 millones, recibió ofertas por $10.000 millones.

Muchos de los profesionales formados en este enclave patagónico dirigen los proyectos más innovadores del país. Algunos cruzaron hacia otras actividades, como el actual director del Banco Central, Demian Reidel. Otros se desempeñan en los principales centros de investigación del mundo. Es el caso de Juan Martín Maldacena, uno de los físicos teóricos más reconocidos en el mundo.

Bariloche ya cuenta con 140.000 habitantes y hasta su intendente, Gustavo Gennuso, es un ingeniero nuclear del Balseiro. El impacto de este polo de conocimiento empieza a retoñar con fuerza en otras partes del país. Es el caso del polo de innovación tecnológica que Sancor Seguros está creando en Sunchales, Santa Fe. Como no podía ser de otra manera, su promotor es otro físico visionario egresado del Balseiro. Nicolás Tognalli regresó a su Sunchales natal y convenció a empresarios que nacieron de la producción de lácteos de que el futuro de la Argentina no está sólo en las materias primas, sino en la exportación de conocimiento. Así nació Cites, la primera incubadora privada de empresas de base científica y tecnológica de Latinoamérica.


La historia

​Del fraude de la isla Huemul al Instituto Balseiro


A poco de finalizada la Segunda Guerra Mundial, en 1948, el físico austríaco Ronald Richter le presentó a Juan Domingo Perón un proyecto para controlar la fusión nuclear controlada. A fines de 1949 se inició la construcción de laboratorios secretos destinados a ese fin en la Isla Huemul, sobre el lago Nahuel Huapi, al frente de Bariloche.

Pero la posibilidad de la fusión nuclear controlada no la había logrado ningún laboratorio en el mundo. Richter lo presentó como un tema de gran interés porque implicaría contar con una fuente prácticamente inagotable de energía, que se pensaba utilizar en la transformación industrial del país. Richter, que había iniciado sus trabajos en el Instituto Aerotécnico de Córdoba, después de considerar Catamarca, San Juan o La Rioja, se decide por la Isla Huemul. A fines de 1949 y principios de 1950 se inició el montaje de los laboratorios secretos frente a Bariloche.

Perón comenzó a dudar y convoca, entonces, a físicos argentinos para que integren una comisión fiscalizadora. La presidió José Antonio Balseiro, traído especialmente desde Manchester, Inglaterra. Balseiro invalidó los argumentos de Richter y demostró que no tenía allí ningún dispositivo para lograr lo que se proponía. Concluyó que se trataba de un fraude. Era 1952. El jóven científico fue categórico: “El Dr. Richter ha mostrado un desconocimiento sorprendente sobre el tema,” sentenció.

El proyecto se canceló, pero el reconocido físico Enrique Gaviola le propuso a la Comisión Nacional de Energía Atómica aprovechar el gran equipamiento encontrado en el laboratorio secreto para crear en Bariloche una universidad de excelencia para la formación de físicos y científicos. Así nació el instituto que hoy lleva su nombre y dirige su hijo Carlos.

José Antonio murió prematuramente en 1962 afectado por una leucemia a los 42 años. 



Fuente:  ieco.clarin.com
Werner Hofmann: «El espacio y el tiempo no son como los entendía Einstein»
El director del Instituto Max Planck de Física Nuclear cree que las observaciones de rayos gamma de la nueva Red de Telescopios Cherenkov pueden cambiar ideas fundamentales de la Física

por Judith de Jorge Gama


Hofmann ha visitado por Madrid para participar en el ciclo de conferencias «La ciencia del cosmos, la ciencia en el cosmos» de la Fundación BBVA - FUNDACIÓN BBVA


El pasado año, en Roque de los Muchachos (La Palma), se colocaba la primera piedra de uno de los observatorios de la red Cherenkov (CTA), un grandioso conjunto de telescopios repartido entre los dos hemisferios capaz de captar rayos gamma provenientes el espacio con una sensibilidad jamás vista. Werner Hofmann, director del Instituto Max Planck de Física Nuclear en Heidelberg (Alemania) ha explicado en una conferencia en Madrid, organizada por la Fundación BBVA, los objetivos de estos instrumentos, que, rastreando la totalidad del cielo, pueden dar pistas sobre algunos de los mayores misterios del Universo, como la auténtica identidad de la materia oscura o la estructura real del espacio-tiempo.

¿Por qué están tan interesados en estudiar los rayos gamma?

Los rayos gamma son partículas de alta energía, un millón de veces superior a la de la luz normal. Fueron descubiertos hace cien años, pero todavía hoy no sabemos cómo se producen ni qué función cumplen en el Cosmos en realidad, aunque sí tenemos claro que influyen en su evolución. No llegan a la Tierra porque son absorbidos por la atmósfera.

¿Cuál es su origen?

Existen varias teorías. Una de ellas, la más aceptada, es que nacen en el estallido de las supernovas. Pero también hemos encontrado otros objetos que producen partículas de alta energía, como los agujeros negros.

¿Cómo van a captarlos los telescopios Cherenkov?

Cuando el rayo gamma choca con la atmósfera, forma más partículas, que a su vez chocan entre sí y producen una especie de cascada. Emiten una luz azul, que llamamos radiación Cherenkov, que se parece mucho a la estela de un meteoro en el cielo. Los telescopios sacan una foto de esa estela, y así pueden estudiar su dirección, de dónde viene, etc... Tener varios telescopios nos permite ver esa estela desde distintos puntos.

¿Por qué son tan eficientes?

Vamos a utilizar hasta cien telescopios distribuidos en una área de 5 km cuadrados. Hay dos instalaciones: Una en La Palma y otra en Chile, cerca de Paranal. Al tener un número mayor de telescopios y una superficie también más grande, podremos hacer muchas más fotos en cada instante y recopilar muchos más rayos gamma. El trabajo in situ ya ha empezado. En 2022 comenzaremos nuestras operaciones rutinarias y dos años después estarán a tope.

Observarán el centro de la Vía Láctea...

En el centro de la Vía Láctea hay un agujero negro gigantesco y sabemos que es una fuente muy importante de rayos cósmicos y gamma.

¿Estará ahí la materia oscura?

Localizar la materia oscura es uno de nuestros principales objetivos. Creemos que hay un montón de materia oscura en el centro de la galaxia y si está formada por partículas elementales, al chocar van a producir rayos gamma. Los instrumentos actuales no tienen la suficiente sensibilidad ni capacidad para ver todo eso, pero si estas partículas existen de verdad, la CTA lo va a poder ver.

¿Cuál es para usted la partícula candidata?

Bueno, muchos creen que esta materia oscura está compuesta por partículas supersimétricas. Claro que también hay otras teorías. Solo los resultados de las observaciones nos van a ir guiando.

La CTA también buscará anomalías en la velocidad de la luz.

La Teoría de la Relatividad General propone que el espacio-tiempo es liso y uniforme. Pero ahora creemos que, a escalas muy pequeñas, no es así, sino que tiene ciertas variaciones. Si estamos en lo cierto, los rayos gamma, que tienen una longitud de onda muy pequeña, podrán meterse en sus «agujerillos», cambiando la velocidad de la luz. Esto iría en contra de lo que creía Einstein y sería un descubrimiento muy importante.

¿Y cree que realmente vamos a poder decir no a Einstein esta vez?

Sí. Estoy convencido de que lo que sabemos del espacio y el tiempo tiene que ser modificado. Si lo descubriremos con los telescopios Cherenkov, eso ya es la pregunta del millón. Algunas teorías lo creen posible, y otras dicen que los efectos serán muy pequeños y difíciles de detectar.

Pero, ¿cómo será ese Universo?

Como una especie de pequeñas estructuras esponjosas, pero quiero dejarlo claro: no lo sabemos. Es una construcción matemática muy dificil de visualizar.

Ese descubrimiento cambiaría todo lo que sabemos.

Está claro que no va a impactar a nuestra vida ordinaria, pero sí, desde luego, cambiaría mucho las ciencias. Ya sabemos que en distancias pequeñas, que son las distancias Planck, la teoría de Einstein tiene ciertas modificaciones. El problema es que todavía no sabemos cómo cambiar la teoría.

¿Y esto tiene alguna relación con los universos múltiples?

Es una pregunta muy interesante. No creo que haya necesariamente una conexión, pero no lo sé. Creo que los multiversos son una buena explicación, una teoría bastante consistente, pero muy difícil de demostrar, así que quizás sea una cuestión más filosófica que científica.

Estos telescopios también detectarán un fenómeno muy violento, que son las explosiones de rayos gamma.

Sí, por supuesto. La CTA tiene telescopios con distintos tamaños de platos. Y los más grandes, de un diámetro de 23 metros, pueden moverse muy rápido, en cuestión de segundos, a cualquier punto del cielo, lo que se ha hecho precisamente para seguir estos estallidos. Vemos uno al día en todo el Universo visible.

Son tan poderosos que han llegado a cegar telescopios espaciales como el Swift. ¿Qué los produce?

Cierto. Creemos que están provocadas por el choque de distintas estrellas. Otros estallidos vienen de agujeros negros muy grandes, como los que están en el centro de las galaxias, y pueden durar minutos o incluso horas.

¿Son las explosiones más poderosas del Cosmos?

No. La explosión más intensa en el Universo es la que produjo las ondas gravitacionales que se detectaron (por el instrumento LIGO, el pasado febrero) causadas por la fusión de dos agujeros negros. Tres veces la masa del Sol convirtiéndose en energía en una escala de tiempo de segundos. Esa es la fuente de energía más intensa.

Algunas investigaciones dicen que puede ser la causa de una extinción masiva en la Tierra hace 450 millones de años. ¿Es posible? ¿Podrían acabar con la vida en el planeta?

Sí. La única duda es saber cuán cerca estamos de la fuente. Estos rayos gamma producen unos chorros que siguen una dirección y si la Tierra está en ese camino, claramente habrá un montón de energía que entre en nuestra atmósfera. Pero hay muy pocas posibilidades de que pase algo así. Desde luego, no es el peligro más importante para la vida en la Tierra. Los humanos somos mucho más peligrosos.



Fuente: ABC.es