Página principal

Jornada: El impacto de la Nube y el Big Data en la Ciencia Scientific Meeting


Descargar 35.33 Kb.
Fecha de conversión18.07.2016
Tamaño35.33 Kb.



Jornada: El impacto de la Nube y el Big Data en la Ciencia

Scientific Meeting: The impact of Cloud Computing and Big Data on Science
Madrid, 21 de marzo de 2012

Madrid, March 21, 2012
RESÚMENES/ABSTRACT




VOLVER



  1. Cloud Computing y Big Data, la próxima frontera de la innovación. Jordi Torres



  2. Un balance de la e-Investigación en España. Ignacio Blanquer



  3. ¿Qué ofrece la Nube a la investigación científica? Ignacio Martín Llorente 



  4. La iniciativa HELIX NEBULA y el impacto de Cloud Computing en los experimentos del LHC. Fernando Barreiro


  5. Transformando Big Data en conocimiento: gotas de sistemas biológicos en la Nube. Marco Aldinucci



  6. Medical Genome Project. Guillermo Antiñolo



  7. Las oportunidades del Big Data en la Astronomía moderna. Carlos Allende

Cloud Computing y Big Data, la próxima frontera de la innovación. Jordi Torres


Un gran avance de la ciencia se produjo hace siglos cuando la teoría matemática permitió formalizar la experimentación. Pero sin duda otro paso fundamental para el avance de la ciencia se dio gracias a la aparición de los computadores. Gracias a ello hoy en día disponemos de potentes supercomputadores que por medio de simulaciones nos permiten crear escenarios caros, peligrosos o incluso imposibles de reproducir en la vida real. Todo un avance para la ciencia y el progreso. Aunque lamentablemente hasta ahora la potencia de la supercomputación no se ha encontrado al alcance de todo el mundo, reduciéndose a un conjunto limitado de grupos de investigación, dado los costes de crear y mantener las grandes infraestructuras de este tipo. Pero esto está cambiando con la llegada de lo que se conoce como Cloud Computing, y que ya está permitiendo que muchos otros ámbitos de la ciencia que hasta ahora no podían beneficiarse de esta tecnología puedan hacerlo. Ahora bien, dado que hoy en día los datos disponibles para poder realizar los cálculos han adquirido dimensiones de gran magnitud , lo que se conoce por Big Data, los sistemas de computación actuales presentan nuevos retos que la propia ciencia informática ha empezado a abordar. En esta presentación se discutirá cuáles son las características de esta nueva realidad que conforma el Cloud y el Big Data, enfatizando los nuevos retos que deben ser abordados urgentemente para poder dar respuesta a las necesidades del avance de la ciencia.



VOLVER
Un balance de la e-Investigación en España. Ignacio Blanquer

Tomando la definición acuñada en 1999 por John Taylor, se define bajo el término e-Ciencia o e-Investigación la actividad científica mejorada (enhanced-science) mediante el uso de infraestructuras que integran recursos avanzados sobre Internet. Si bien la definición de e-infrastructuras engloba un conjunto mayor de recursos (como instrumentación avanzada o bases de datos) accesibles de forma ubicua, se asocia principalmente este término a las infraestructuras informáticas que integran recursos de cómputo y almacenamiento de datos accesibles desde Internet. Bajo este concepto nacen programas de e-ciencia como el NeSC en el Reino Unido, Open Science Grid en EEUU, NAREGI en Japón y en España la Iniciativa Nacional de Grid (es-NGI ), la Red Española de Supercomputación (RES ), los centros autonómicos de supercomputación y la Red Española de e-Ciencia .


La iniciativa es-NGI , en una estrecha colaboración con la inciativa Portuguesa (INGRID ), engloba 17.690 cores de 28 centros y más de 100 usuarios, habiendo proporcionado en el año 2012, 175.000 millones de horas de CPU normalizadas (SpecInt2K ) a la comunidad científica Española. Igualmente, la Red Española de Supercomputación, liderado por el BSC, ha proporcionado en 2012 aproximadamente 90 millones de horas de cálculo a más de 200 grupos científicos , al igual que los centros autonómicos de supercomputación, entre los que destaca el CESGA. La RES ha renovado recientemente sus recursos en la mayor parte de sus centros, realizando también una recolocación de los recursos del MareNostrum II entre varios de sus centros.
Tanto ES-NGI como la RES tienen una importantísima proyección internacional, con una destacada participación en la iniciativa de Grid Europea (participando tanto en el PMB como en el Council) como en PRACE (siendo uno de los cuatro ‘hosting members’).

La visión en las e-Infraestructuras se completa con la participación española en proyectos e iniciativas destacadas como el LHC computing Grid o MAGIC. La participación de entidades españolas en proyectos europeos del Séptimo programa marco en el ámbito de Infraestructuras de investigación es destacada con presencia en más de 19 proyectos con un coste total superior a los 250M €.

En este contexto, la Red Española de e-Ciencia se crea en 2007 con el objetivo de dinamizar el diálogo entre los diferentes grupos que participan en este escenario. La Red Española de e-Ciencia llega a movilizar 101 grupos de 76 instituciones y más de 1000 investigadores españoles suscritos que se organizaron en 2 áreas temáticas: infraestructuras (ES-NGI, RES y Red IRIS) y usuarios científicos. La Red Española de e-Ciencia logró durante sus cuatro años de existencia realizar seis reuniones plenarias, identificar 60 aplicaciones, identificar xx grupos de soporte y dinamizar 11 proyectos piloto.
Finalmente, en los últimos años merece especial atención el esfuerzo que se ha dirigido hacia el uso de infraestructuras científicas en la nube, en la que el proyecto VENUS-C ha desarrollado un conjunto de utilidades de plataforma que han permitido la adaptación y despliegue de 27 aplicaciones científicas, 5 de ellas españolas. Estas aplicaciones han demostrado la idoneidad de este tipo de infraestructuras, más adecuadas para grupos pequeños y PYMEs innovadoras, en el desarrollo de la investigación.
VOLVER
¿Qué ofrece la Nube a la investigación científica? Ignacio Martín Llorente

 
La Computación Cloud está destinada a jugar un papel clave en los procesos actuales de investigación científica mejorando la competitividad y productividad, reduciendo y eliminando barreras de entrada en determinados campos de investigación, y generando nuevas líneas de investigación. El objetivo de la presentación es describir las posibilidades y limitaciones del Cloud Computing, así como el impacto potencial de su adopción como plataforma de investigación. En la presentación hablaremos de innovación desde dos perspectivas complementarias. Primero desde un punto de vista de usuario o consumidor de los servicios Cloud. Y segundo, desde la perspectiva de la innovación que se está produciendo en la provisión de servicios Cloud.


VOLVER
La iniciativa HELIX NEBULA y el impacto de Cloud Computing en los experimentos del LHC. Fernando Barreiro
El Gran Colisionador de Hadronoes (Large Hadron Collider, LHC) en CERN es el mayor acelerador de partículas del mundo y aquel que alcanza las energías más altas. Ha sido construido con el objetivo de abordar algunas de las cuestiones más fundamentales de la física y de avanzar en la comprensión de las leyes últimas de la naturaleza. Para el almacenamiento y procesamiento de datos, los modelos computacionales de los experimentos del LHC se diseñaron en torno al concepto de 'grid computing' y, desde el inicio de la toma de datos, este modelo ha demostrado ser muy exitoso. Sin embargo, los nuevos paradigmas de la informática, es decir, la virtualización y la computación en la nube ('cloud computing'), ofrecen características atractivas para mejorar las operaciones y la elasticidad de la computación científica distribuida. Si bien no es posible sustituir el 'grid' por la nube, hay maneras de integrar recursos de la nube en la infraestructura 'grid' existente. Un proyecto exitoso para colaborar con la industria europea es Helix Nebula - the Science Cloud o Nube Cientfica - que consiste en un esfuerzo de colaboración de varias organizaciones europeas, entre ellas el CERN, ESA y EMBL, para establecer alianzas público-privadas y la construcción de una infraestructura 'cloud' europea capaz de soportar las misiones de estas organizaciones.
VOLVER

Turning Big data into knowledge: systems biology droplets in the cloud. Marco Aldinucci

The stochastic modelling of biological systems, coupled with Monte Carlo simulation of models, is an increasingly popular technique in Bioinformatics. To be effective, stochastic simulations should be supported by powerful statistical analysis tools. The simulation-analysis workflow may result computationally expensive reducing the interactivity required in model tuning. In this work we advocate the high-level software design as a vehicle for building efficient and portable parallel simulators for the cloud. In particular, the Calculus of Wrapped Components (CWC) simulator for systems biology, which is designed according to the FastFlow pattern-based approach, is presented and discussed. Thanks to the FastFlow framework, the CWC simulator is designed as a high-level workflow that can simulate CWC models, merge simulation results and statistically analyse them in a single parallel workflow in the cloud. To improve interactivity, successive phases are pipelined in such a way the workflow begins to output a stream of analysis results immediately after simulation is started. Performance and effectiveness of the CWC simulator are validated on the Amazon Elastic Compute Cloud

VOLVER

Medical Genome Project. Guillermo Antiñolo

La popularización de metodologías de alto rendimiento (microarrays, genotipado a gran escala, etc.) y en especial la aparición de nuevas metodologías aún más potentes, como la secuenciación de nueva generación (NGS de sus siglas inglesas next generation sequencing), ha cambiado completamente el panorama en el que se va a desarrollar la biomedicina en la próxima década.
Durante los últimos 30 años, el método de Sanger ha constituido la herramienta clásica en la secuenciación del ADN. El lanzamiento comercial en 2005 de la primera plataforma de pirosecuenciación masiva en paralelo marcó el comienzo de una nueva era de análisis genómico de alto rendimiento conocido ahora como NGS. En el corto periodo de tiempo desde 2005, NGS ha modificado la investigación genómica y ha permitido a los investigadores llevar a cabo experimentos a nivel del genoma completo que anteriormente no eran viables o asequibles. De esta manera NGS se ha empezado a aplicar ya con un gran éxito en el descubrimiento de genes de enfermedades mendelianas y en cáncer, y es la herramienta ideal para hacer realidad las promesas de la medicina personalizada. Las tecnologías que constituyen este nuevo paradigma continúan evolucionando de forma muy rápida, de forma que las mejoras previsibles en la robustez tecnológica, el aumento de la eficiencia de los procesos allanarán el camino de la traslación del conocimiento generado al diagnóstico clínico.
El proyecto Medical Genome Project (MGP) es un proyecto singular donde los principales objetivos son el descubrimiento de nuevos genes responsables de enfermedades de enfermedades de base genética y la caracterización de la variabilidad genética de individuos sanos fenotipados, mediante la secuenciación del genoma humano usando las tecnologías de NGS. Además, el proyecto MGP pretende estudiar y validar la forma en la que se procesan los datos, resolver problemas de almacenamiento, decidir cómo se devuelve esta información en una forma clínicamente útil, ver como se integra con los actuales sistemas de información clínicos, y hacer un análisis de validez analítica y de coste-eficiencia de NGS vs el análisis genético convencional .
De esta forma, para llevar a cabo el proyecto MGP se utiliza un entorno de computación de alta capacidad junto con una infraestructura de almacenamiento distribuido para poder procesar el gran volumen de datos que se generan. Además del procesamiento de datos, la interpretación de los resultados de secuenciación requiere de grandes bases de datos que alberguen una completa caracterización de las variaciones nucleotídicas presente en los genomas. Todo ello pone en un primer plano la relevancia de las infraestructuras de computación y almacenamiento a la hora de poder manejar, procesar y transformar en información útil el gran volumen de datos producido por las nuevas tecnologías de nueva secuenciación.

VOLVER


Las oportunidades del Big Data en la Astronomía moderna. Carlos Allende


La Astronomía observacional está sufriendo una transformación fundamental. Antes teníamos proyectos relativamente modestos, llevados a cabo por una sola persona o un pequeño grupo de investigación, que comenzaban con unas pocas noches de observación seguidas por una reducción de datos y un análisis artesanales. Ahora estamos entrando en la era de los grandes equipos, con proyectos mucho más ambiciosos, que utilizan instrumentos altamente optimizados en operación continua durante años. El censo de la Vía Láctea incluirá en el futuro cercano posiciones, velocidades y composiciones químicas para decenas de millones de estrellas. Los mapas del universo están creciendo de miles a millones de galaxias. La computación extrema, los algoritmos avanzados, y las redes de alta velocidad se hacen necesarios para dar abasto con el flujo

de datos.

El análisis de las observaciones sufre una revolución gracias a los progresos en computación. Los simples modelos analíticos son reemplazados por sofisticadas simulaciones numéricas. Las estrellas, que solían ser bolas con simetría esférica, pasan a ser objetos cuadri-dimensionales con planetas en órbita, y las galaxias se transforman de estructuras axisimétricas aisladas en amasijos irregulares de gas, estrellas y materia oscura que interaccionan y evolucionan a la vez que el universo se expande.

Hablaré de algunos de los más ambiciosos programas proyectados o en marcha de la Astronomía observacional, incluyendo el Observatorio Virtual, y los esfuerzos para lidiar con la inundación de datos e interpretar las observaciones con la física de la toda la vida, de la mano de la computación del siglo XXI.



VOLVER

*Todos los derechos de propiedad intelectual son del autor. Queda prohibida la reproducción total o parcial de la obra sin autorización expresa del autor.

© FUNDACIÓN RAMÓN ARECES. Todos los derechos reservados.
*All intellectual property rights belong to the author. Total or partial reproduction of the work without express permission of the author is forbidden.

© FUNDACIÓN RAMÓN ARECES. All rights reserved.



FUNDACIÓN RAMÓN ARECES


La base de datos está protegida por derechos de autor ©espanito.com 2016
enviar mensaje