proyecto venus

Visit The Venus Project

jueves, 10 de septiembre de 2009

CADA VEZ MAS CERCA DE LOGRAR LA INVISIBILIDAD



Seguramente muchos recuerdan el clasico film de accion "Depredador", en donde un ser extraterrestre con una avanzada tecnologia viene a la tierra a probar sus habilidades de caza, equipado con un explendido arsenal de armas y que para desdicha de sus presas tambien poseia un camuflaje que se confundia con el entorno haciendolo casi invisible. Pues bien dejenme decirles que investigadores del Laboratorio Nacional Lawrence Berkeley y de la Universidad de Cornell han desarrollado capas de invisivilidad que trabajan en el espectro de luz visible.

Como bien sabemos un objeto es visible para nosotros debido a la luz que se refleja en èl, si se logra de alguna forma evitar esto, de que el objeto no refleje luz alguna, podriamos hacerlo invisible.Bueno ya dos equipos, dirigidos por Michal Lipson en la Universidad de Cornell y Xiang Zhang en la Universidad de California Berkeley, dijeron que sus capas de invisibilidad de nano-escala permiten que la luz fluya alrededor de un objeto oculto como corrientes de agua alrededor de una roca.

La nueva capa creada por Zhang y su equipo está hecha exclusivamente de materiales dieléctrico, que a menudo son transparentes en frecuencias ópticas. La capa fue demostrada en una losa rectangular de silicio (gruesas 250 nanómetros) que sirve como un waveguide óptico en el que se limita la luz en la dimensión vertical pero libres de propagar en las otras dos dimensiones.La capa fue utilizada para cubrir un área que mide aproximadamente 3,8 micrones por 400 nanómetros. Demostró invisibilidad en ángulo variable de luz incidente.

"Hemos venido con una nueva solución al problema de la invisibilidad basada en el uso de materiales dieléctricos," dice Zhang.

"Nuestra capa óptica no sólo sugiere que la invisibilidad con ciertos materiales están dentro de nuestro alcance, también representa un paso importante hacia la óptica de transformación, abre la puerta a la manipulación de luz en voluntad para la creación de poderosos microscopios nuevos y equipos más rápidos."

En trabajos anteriores,Zhang construyó un material de un fishnet elaborado alternando capas de plata y de flúor de magnesio y otra de nanocables de plata dentro de óxido de aluminio poroso. Con estos metamaterials metálicos, Zhang y su grupo demostraron que la luz puede ser doblada hacia atrás, una propiedad sin precedentes en la naturaleza.

Aunque el area en donde se logro con exito el efecto es muy pequeña, representa un gran paso hacia la invisibilidad, "En este experimento, hemos demostrado una prueba de concepto para esconder ópticamente bien en dos dimensiones", dice Zhang. "Nuestro próximo objetivo es hacer realidad una capa para todas las tres dimensiones, extendiendo la óptica de transformación en aplicaciones potenciales.

Si bien estamos muy cerca de lograr un camuflaje optico, pasara algun tiempo antes que se revele una aplicacion final de esta tecnologia, y no nos extrañemos si dichas aplicaciones estuvieran dirijidas al campo militar, ya que esta investigacion es principalmente financiada por el pentagono, asi que lo mas seguro, en un futuro no muy lejano, habran soldados con un camuflaje al mas puro estilo de depredador..

Lawrence Berkerley National laboratory

viernes, 4 de septiembre de 2009

ENERGIA ELECTRICA DESDE EL ESPACIO


Cada dia es mas necesario la creacion de tecnologias que ayuden a cubrir la gran demanda de energia que va en ascenso a medida que la poblacion mundial crece. En Japon se lanzo un proyecto para la construccion de un satelite que capte los rayos de sol para producir gigavatios de energia, que puedan alimentar a 294.000 hogares.

La Corporacion Misubishi Electric y la empresa de diseño industrial IHI Corp. Se unen para desarrollar en un tiempo estimado de cuatro años nuevas tecnologias para transmitir desde el espacio energia electrica a la tierra sin el uso de cables. Con una inversion incial de 21 millones de dolares se espera que para antes del 2015 se tenga ya un satelite que realice esta tarea.

Con esto Misubishi y IHI entran al grupo de investigacion compuesto por 14 naciones para llevar a cabo la ardua tarea de construir en las proximas tres decadas una estacion espacial solar de cuatro kilometros cuadrados. Todavia hay problemas que resolver como la reduccion de los costos del proyecto para que sea viable y como hacer frente a los objetos presentes en el espacio (basura espacial), que puedan hacer daño a los paneles.

Sin embargo se trabajaria en perfectas condiciones con paneles solares en el espacio, a diferencia de los que estan en tierra los cuales son afectados por el mal tiempo y las nubes.

La idea de energia solar en el espacio no es algo nuevo desde 1968 se ha venido hablando de esto pero no se habia llevado a cabo por la limitaciones tecnologicas. Las empresas Solaren y California’s Pacific Gas and Electric tambien estan trabajando para suministrar 200 megavatios desde el espacio en un periodo de 15 años a partir del 2015.

Proyectos como estes dan un gran aporte a la solucion del problema energetico que posee la humanidad, que aunque se diga otra cosa en los noticieros, este problema es el verdadero causante de las guerras e invaciones de las ultimas decadas hechas por grandes potencias sobre otro paises para controlar y apoderarse de sus recursos energeticos.

Amigos lectores solo espero que en un futuro no muy lejano (antes de que nos destruyamos) ,teorias como la energia del punto cero puedan materializarse y asi terminar con un problema que tantos males nos causa. Lo lamentable es que este problema se puede solucionar si las potencias cambiaran ese modelo consumista( y digo las potencias porque ellas son las que influyen en los demas paises), pero esto es casi imposible porque las transnacionales energeticas haran todo lo que se pueda para mantener el status quo, ya que si se generan cambios en baja en el consumo energetico disminuirian sus ganancias..............." El malestar de muchos para el bienestar de unos pocos"....

Inhabitat

martes, 1 de septiembre de 2009

LHC: EN BUSCA DE LA PARTICULA DE DIOS


En 1995 fue aprovada la construccion por un costo de 1700 millones de euros el Large Hadron Collider(LHC) o Gran Colisionador de Hadrones, un poderoso acelerador de particulas, en donde se colisionaran hadrones (particula subatomica que experimenta la interaccion nuclear fuerte como el proton) con el fin de poder detectar el tan buscado Bosson de Higgs (conocida tambien como la particula de Dios) que se cree es la responsable de propiedades como la masa en la particulas elementales (pilares fundamentales de todas las cosas), y que una vez descubierta confirmaria teorias en el modelo entandar de la fisica.

El LHC esta ubicado en las instalaciones del CERN (Organizacion Europea para la Investigacion Nuclear) en Ginebra, es un anillo de 27 Km de imanes superconductores,en el interior del acelerador dos haces de particulas subatomicas llamadas Hadrones (ya sea protones o iones de plomo) viajaran en direcciones opuestas a velocidades cercanas a la de la luz con muy altas energias antes de colisionar. Todos los imanes del LHC serán pre-enfriados a -193,2ºC con ayuda de 10.080 toneladas de nitrógeno líquido antes de ser llenados con cerca de 60 toneladas de helio líquido que los llevará a -271,3ºC .

Los físicos usarán el LHC para recrear las condiciones que se dieron justo después del Big Bang. Equipos de físicos de todo el mundo analizarán las partículas creadas en las colisiones con detectores especiales en una serie de experimentos dedicados al LHC. Mas de 2000 fisicos de 34 paises y centenares de laboratorios y universidades trabajaron en su construccion.

El LHC producira aproximadamente 15 petabytes (15 millones de gigabytes) de datos anualmente, lo suficiente como para llenar 1.7 millones de DVD de doble capa al año. Para controlar la configuracion primaria de las maquinas de la red de ordenadores del LHC se utiliza una distribucion cientifica del sistema operatico linux (llamada Scientific linux). Esta red se utiliza para recibir y distribuir los 15 petabytes de datos a 100.000 CPU de todo el mundo.

Hay muchas teorías sobre lo que tendrá como resultado de estas colisiones, pero lo que es seguro es que un valiente nuevo mundo de la física saldrá desde el nuevo acelerador, conocimientos en física de partículas que describiran el funcionamiento del universo. Durante décadas, el modelo Standard de física de partículas ha servidos a físicos bien como medio para comprender las leyes fundamentales de la naturaleza, pero no dice toda la verdad.

Lo cierto es que todo lo que vemos en el universo, desde una hormiga a una galaxia, se compone de partículas ordinarias. Esta materia ordinaria, forma el 4 % del universo. La materia oscura y la energía oscura se creen que componen el porcentaje restante, pero son increíblemente difíciles de detectar y de estudiar. Investigar la naturaleza de la materia oscura y la energía oscura es uno de los mayores desafíos hoy en los campos de física de partículas y Cosmología. Los experimentos de ATLAS y CMS buscarán partículas supersimétricas para probar una hipótesis probable para la composición de la materia oscura.

A pesar de la averia que produjo una fuga de helio liquido en el 2008 se espera que para septiembre del 2009 se reanuden las actividades.Sólo datos experimentales utilizando las energías más altas alcanzadas por el LHC pueden empujar conocimiento hacia adelante, un desafío a los que buscan confirmación de conocimiento establecidos y quienes se atreven a soñar más allá del paradigma. Esperemos que funcione, les deseo exito a todos los involucrados en este gran proyecto que podria dar respuesta a incognitas importantes que tenemos sobre nuestro universo.

European Organization for Nuclear Research

DE TERABYTES A PETABYTES: CIENTIFICOS DE YALE DESARROLLAN UN NUEVO SISTEMA DE BASES DE DATOS HIBRIDO

Como las cantidades de datos que se almacenan por bases de datos de todo el mundo entra en el ámbito de la petabyte (la cantidad de datos almacenados en una pila de milla de altura de discos de CD-ROM), gestión de datos eficaz es cada vez más importante. Ahora informáticos en la Universidad de Yale han desarrollado un sistema nuevo de base de datos al combinar las mejores características de varios métodos para crear un sistema híbrido de código abierto llamado HadoopDB.

Los enfoques tradicionales de administración de datos en esta escala normalmente se dividen en dos categorías. El primero incluye sistemas de gestión de paralelo de base de datos (DBMS), que son buenos para trabajar con datos estructurados que contienen, por ejemplo, tablas con billones de filas de datos. El segundo incluye el tipo de enfoque adoptado por MapReduce, el marco de software utilizado por Google para buscar datos contenidos en la Web, lo que le da al usuario más control sobre cómo se recuperan los datos.

“ En esencia, HadoopDB es un híbrido de MapReduce y tecnologías de DBMS paralelos, ” dijo Daniel Abadi, profesor auxiliar de informática en Yale y uno de los diseñadores de sistemas. "Se ha diseñado para tomar las mejores características de ambos mundos. Obtenemos el rendimiento de sistemas de base de datos paralelo con la escalabilidad y facilidad de uso de MapReduce."

HadoopDB fue anunciado en el blog del Abadi el mes pasado. Estudiantes graduados de Yale y co-creators Abouzeid de Azza y Kamil Bajda-Pawlikowski presentará más profundidad detalles del nuevo sistema en la Conferencia VLDB en Lyon, Francia el 27 de agosto. También estarán presentes los resultados de un análisis de rendimiento detallada que realizaron con Abadi, AVI Silberschatz, Presidente de la informática en Yale y Alexander Rasin de Brown University. El equipo demostrara el rendimiento del sistema en una serie de consultas representativos en la Conferencia, tanto en los datos estructurados y se describen las características del HadoopDB a lo largo del rendimiento de tiempo de ejecución, tiempo de carga, dimensiones de la tolerancia y la escalabilidad a errores.

HadoopDB reduce el tiempo necesario para realizar algunas tareas típicas desde los días a horas, haciendo más complicados análisis posible – el tipo que podría utilizarse para encontrar patrones en el mercado de valores, los terremotos, comportamiento del consumidor y incluso brotes, dijo Abadi. “ Personas tienen todos estos datos, pero no está usando en la forma más eficiente o útil ”.

Con las enormes cantidades de datos que se recopila y utiliza en las bases de datos de hoy, de consumidores la información es utilizada por las cadenas minoristas para mejorar experiencias de compras y reducir el abandono de cliente a la información financiera recogida por los bancos para reducir el riesgo y evitar otro catastrófico colapso financiero, el ser capaz de almacenar y analizar esas grandes cantidades de datos continuará creciendo en importancia, dijo Abadi.

Yale University