El sistema actual con mayor capacidad de copiar y pegar es el LHC computing grid
Del estudio de teorías físicas no he conseguido encontrar un uso de cortar y pegar análogo al investigado en clase (relacionado a la velocidad, creatividad, composición,etc.). Inicialmente estudie el LHC por su previsible aportación al descubrimiento de partículas elementales, pero descubrí la gran importancia del sistema de copia y transmisión de datos.
Cuando se diseñaba el accelerador de partículas se descubrió que la cantidad de información producida era tan grande que no se podría procesar, ni transmitir, ni archivar por los métodos existentes. De allí surge la creación del LHC computing grid, que comenzo a funcionar en 2008, utilizandose como proceso fundamental del diseño del propio accelerador.
Definiciones:
Copiar y Pegar
Defino copiar y pegar como la copia de datos digitales y se realiza mediante tres sistemas. Los datos son procesados, distribuidos, y finalmente almacenados. La capacidad máxima por lo tanto se basa en el conjunto de las siguientes características:
* capacidad de procesado (medido en MIPS y GHz)
* capacidad de distribución (medido en MB/s, GB/s)
* capacidad de almacenaje (medido en GB, TB, PB)
Copiar y pegar funciona como un bucle (no considero la creación de datos copiar y pegar), parten de datos almacenados y finaliza con los mismos datos almacenados en otro lugar. Los metodos de copiar y pegar pueden aumentar la capacidad mediante el uso simultaneo de los sistemas, en vez de un sistema lineal.
LHC
El Gran Colisionador de Hadrones LHC es un acelerador y colisionador de partículas ubicado en CERN, cerca de Ginebra, en la frontera franco-suiza. Fue diseñado para colisionar haces de hadrones, más exactamente de protones, de hasta 7 TeV de energía, siendo su propósito principal examinar la validez y límites del Modelo Estándar, el cual es actualmente el marco teórico de la física de partículas, del que se conoce su ruptura a niveles de energía altos.
http://en.wikipedia.org/wiki/Large_Hadron_Collider
computing grid
La computación grid es una tecnología innovadora que permite utilizar de forma coordinada todo tipo de recursos (entre ellos cómputo, almacenamiento y aplicaciones específicas) que no están sujetos a un control centralizado. En este sentido es una nueva forma de computación distribuida, en la cual los recursos pueden ser heterogéneos (diferentes arquitecturas, supercomputadores, clusters...) y se encuentran conectados mediante redes de área extensa (por ejemplo Internet). Desarrollado en ámbitos científicos a principios de los años 1990, su entrada al mercado comercial siguiendo la idea de la llamada Utility computing supone una revolución que dará mucho que hablar.
http://en.wikipedia.org/wiki/Grid_computing
LHC computing grid
La red de computación del LHC es una red de distribución diseñada por el CERN para manejar la enorme cantidad de datos que serán producidos por el Gran Colisionador de Hadrones. Incorpora tanto enlaces propios de fibra óptica como partes de Internet de alta velocidad.
http://en.wikipedia.org/wiki/LHC_Computing_Grid
Proceso de investigación
La investigación continuará definiendo el funcionamiento exacto y capacidad máxima del LHC computing grid para copiar y pegar.
Inicio y futuro de internet
En CERN se inventó la world wide web WWW, para interconectar a cientificos mediante paginas con hipertextos. Este invento se convirtió en el internet que conocemos ahora, pero puede ser que la capacidad de comunicar de internet, basado en parte en lentas lineas telefonicas de cobre, se ha vuelto a quedar pequeño. La computación grid utiliza sólo fibra óptica y no sirve sólo para compartir información sino también pocesadores y almacenamiento. El futuro de internet posiblemente sera una red mundial que permita compartir el hardware de todos los ordenadores del mundo, y su base es la LHC computing grid.
Relación con la arquitectura
Los sitemas de grid actuales se usan principalmente para investigación cientifica. Existen redes dedicadas a la interpretación del genoma, busqueda de vacunas para el SIDA, creación de proteinas, e incluso la busqueda de vida extraterrestre. Pero el uso de las redes ya se plantea para estudiar mercados y otros negocios, y también podría tener usos arquitectónicos. El coste de la construcción y el tiempo necesario pueden hacer necesario la creación de programas de realidad virtual que sirvan para simular el correcto funcionamiento de un edificio. Un sistema grid permitiría pasar de renders y maquetas virtuales a poder crear una simulación extremamente realista de la obra acabada.
LHC computing grid en números
Iniciada Octubre 3 2008
Procesado y transmisión de Datos:
* 300GB/s desde los detectores del LHC
* 300MB/s filtrado automáticamente en el nivel 0 buscando datos "interesantes"
* 10 Gbit/s conexión con los 11 centros nivel 1 (Canada, Francia, Alemania, Italia, Holanda, España, Taipei, paises nórdicos, dos en USA)
* mas de 170 centros de nivel 2 que reciben almacenan y procesan los datos con mas de 100,000 procesadores que permiten a 8000 investigadores de 34 paises recibir datos del LHC casi instantaneamente.
* La mitad de la capacidad de procesado esta en el nivel 0 y 1, y la otra mitad en los nivel 2.
Almacenamiento de Datos:
* 27 TB producidos por día
* 10 TB de resumen de datos diario
* 15 PB anuales durante 10 a 15 años
domingo, 18 de abril de 2010
Suscribirse a:
Enviar comentarios (Atom)
No hay comentarios:
Publicar un comentario