NeuralNet_Marenostrum

    ES   Hoy en día nos encontramos inmersos en un nuevo proceso en el que las “cosas” pasan del mundo físico al mundo digital y son accesibles desde cualquier dispositivo electrónico. El Cloud Computing es lo que hace posible que la tecnología digital penetre en todos los rincones de nuestra economía y la sociedad.

Este nuevo escenario no sólo permite a los usuarios conectarse a través de sus dispositivos móviles al mundo digital que se avecina, sino que empieza también a permitir la conexión de cualquier objeto o dispositivo. Esto causará un diluvio de información digital, que se conoce como Big Data.

Existen actualmente diferentes frameworks Big Data de código abierto que proporcionan los medios para lidiar con este diluvio de datos. Estos frameworks permiten abstraer la manipulación y el procesamiento de los datos facilitando de esta manera el análisis de ingentes conjuntos de datos.

Sin embargo, con el fin de aprovechar al máximo esta gran oleada de datos, estamos entrando en una nueva era en la computación, donde el modelo actual basado en una programación que genera la automatización de la computación, va a dar paso a un nuevo modelo, en el que la computación va a poder obtener conocimiento accionable por si sola, sin la necesidad de programación por parte de las personas.

Para ello, los sistemas de computación deben incluir herramientas de analítica avanzada en su middleware de sistema para ofrecer modelos predictivos. Gracias a la llegada del Big Data estos modelos se puede mejorar, o “entrenar”, exponiéndolos a grandes volúmenes de datos que antes no estaban disponibles.

Básicamente la idea consiste en que en lugar de instruir a un ordenador qué hacer, simplemente vamos a lanzar datos en el problema y decirle al computador que lo averigüe por sí solo. Para ello, los computadores adquirirán funciones como las del cerebro: inferencia, predicción o abstracción, de ahí el nombre de Computación Cognitiva (o Cognitive Computing).

Todo esto requiere un nuevo desarrollo de los sistemas de computación de altas prestaciones que permiten la convergencia de los algoritmos de análisis avanzados, con las tecnologías de Big Data, permitiendo generar por si mismos nuevo conocimiento en base a las masivas cantidades de datos disponibles.

Usamos el término de High-Performance Big-Data Analytics (HPBDA) para referirnos a la integración de lo más avanzado en conocimiento de Analítica, con los nuevos middleware Big Data y con la impresionante potencia que presenta el hardware de los nuevos sistemas de computación. Esta será la clave que nos permita interpretar grandes volúmenes de datos con una gran variedad de tipos a una velocidad sin precedentes hasta ahora.

 EN   Today we find ourselves immersed in a new process where “things” pass from the physical world to the digital world and are accessible from any electronic device. Cloud Computing is what makes it possible for digital technology to penetrate every corner of our economy and society.

This new scenario not only allows users to be connected to this coming digital world through their mobile devices, but it is also allowing the connection of any object or device. This will cause a deluge of digital information, which is known as Big Data.

Today different open source big data frameworks already exist that provide the means to deal with the information content in the deluge of data. These frameworks abstract the manipulation and processing of data facilitating the analysis of very large data sets.

However, in order to make the most of this big data tidal wave, we are entering into a new era in computing. The current automation process of computing is changing into a new model, which could gain actionable insights by itself.

To do so, the computing systems should include advanced analytics tools in their systems middleware to offer predictive models. Thanks to the advent of Big Data these models can be improved, or “trained”, by exposing them to large data sets that were previously unavailable.

The general idea is that instead of instructing a computer what to do, we are going to simply throw data at the problem and tell the computer to figure it out itself. For this purpose the computers will take functions from the brain like: inference, prediction or abstraction, hence the name Cognitive Computing.

All this requires a new development of High Performance Computing systems enabling the convergence of advanced analytic algorithms and big data technologies driving new insights based on the massive amounts of available data.

We use the term High-Performance Big-Data Analytics (HPBDA) to refer to the integration of the best of Analytics knowledge with new Big Data middleware and the awesome power of emerging computational hardware systems. This will be the key to allow us to interpret massive amounts of a variety of types of data at an unprecedented rate.

2017-08-09T12:15:33+00:00 November 21st, 2015|