Algoritmos


Uno de los grandes problemas que tenemos hoy en un el mundo del análisis de datos es la cantidad de datos y el tiempo.

Aquí la discusión de siempre  ¿Como podemos analizar una gran cantidad de datos? , algunos , son de los que yo llamo ,  de “recursos” lo solucionan metiendo mas medios , ordenadores mas potentes y claro mas caros , los otros son los llamados , “paralelos” , comprar ordenadores baratos y los ponen en granjas (todo el mundo sabe de quien hablo ¿ verdad? XD).

Pero supongamos que tenemos los segundos , el siguiente problema es  ¿Que algoritmos usamos? necesitamos buenos algoritmos para poder conseguir los datos de  manera mas efectiva mas rápidamente.

En el mundo de hoy se prefiere un algoritmo rápido en tiempo pero se desprecia el volumen de datos , es decir, supongamos que si para conseguir 1 hora mas de velocidad , se tienen que acumular no se 10 GB de espacio en disco , ¿es rentable? . Un ordenador común lo puede hacer esta es la pregunta.Donde se aplica esto en Mineria de Datos en DataWarhose en Robotica.

Todo esto viene por un articulo sobre un nuevo algoritmo que ha salido que analiza gran cantidad de información en un ordenador normal.

Bien me he leído el articulo y he llagado a algunas conclusiones .

Evidentemente esto no es lo miso , aplicar Bayes, un Markov o un Kohonen.Es mas bien un divide y vencerás o como lo llaman ellos divide y conquista.

Los científicos tienen más datos en sus dispositivos, a menudo más de los que pueden examinar apropiadamente. Pero un nuevo algoritmo podría facilitarles ver enormes conjuntos de datos.

Y, además, es barato; el software basado en un algoritmo puede correr en computadoras personales con tan poco como 2GB de RAM.

Los científicos en la Universidad de California del Laboratorio Nacional Davis y Lawrence Livermore desarrollaron el algoritmo durante un periodo de cinco años. Basado en el complejo y antiguo Morse-Smale, divide, analiza y recombina conjuntos de datos e ilustra sus cálculos.

El proyecto fue dirigido por Attila Gyulassy, una estudiante graduada en ciencias de la computación de la UC Davis como su tesis de doctorado. Ya que las supercomputadoras ahora pueden simular fenómenos físicos como corrientes oceánicas y la combustión, la gran cantidad de datos que generan hacen imposible trabajar con ellos. “¿Qué son todos los datos sin las herramientas de visualización que nos permitan ver realmente qué es lo que está pasando? Tenemos la habilidad de generar, pero no necesariamente de comprender”, explicó el profesor de Gyulassy, Bernd Hamann, en una conversación con Industry Standard.

Gyulassy probó el algoritmo en una simulación de dos líquidos que venían juntos, un conjunto de datos con cerca de mil millones de una trama tridimensional. Al correr en una computadora portátil, el software fue capaz de analizar la información en 24 horas e ilustrar aspectos del fenómeno en segundos.

Hamann le dio a Gyulassy la mayoría del crédito. “Ella está realmente empujando la tecnología hacia adelante”. Sin embargo, agregó que la mayoría del trabajo debe ser hecho en el software antes de que pueda volverse disponible de forma más amplia.

Fuentes del Articulo
Anuncios

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión / Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión / Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión / Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión / Cambiar )

Conectando a %s