Portal informativo de análisis político y social

CONCIENCIA DIGITAL: A la caza de los grandes datos

CONCIENCIA DIGITAL: A la caza de los grandes datos

Dic 7, 2013

Por José Modesto Barros Romo —-

El empresario David Soloff está reclutando un ejército de buscadores de datos; su empresa Premise, de la que es cofundador, creó una aplicación para teléfonos inteligentes que ahora utilizan 700 personas en 25 países en vías de desarrollo. Esos usuarios, en su mayoría estudiantes universitarios y amas de casa, fotografían comida y artículos cotidianos en mercados públicos.
Analizando las fotos de los precios y la colocación de productos como tomates y champú, y después cotejándolas con otros datos, Premise está creando un índice de inflación en tiempo real para venderlo a empresas y comerciantes.
“En 5 años me gustaría que hubiera 3 mil o 4 mil personas haciendo esto”, afirma Soloff, consejero delegado de Premise. “Es un seguimiento útil de la inflación mundial, una manera de evaluar la seguridad alimentaria y un sistema mediante el cual un fabricante puede juzgar qué lugar ocupan sus productos”.
Recabar datos en todo tipo de lugares extraños y analizarlos con rapidez se ha convertido en uno de los ámbitos con más movimiento en el sector tecnológico. La idea es simple: con toda esa capacidad de procesamiento y un poco de creatividad, los investigadores podrían encontrar nuevos patrones y relaciones entre diferentes clases de información.
En los últimos años, los expertos han bautizado este tipo de análisis como grandes datos (big data). Ahora, los grandes datos están evolucionando, e incluyen toda clase de fuentes. Nuevas empresas como Premise y ClearStory Data, y otras más grandes como General Electric, han entrado en el sector.
Unas estadísticas corrientes podrían predecir las ventas de helados el próximo verano. El objetivo de quienes trabajan en sistemas de grandes datos más novedosos es recabar información aparentemente inconexa, como el calor y la nubosidad del día y la victoria de un equipo local durante el fin de semana, compararla con resultados climatológicos y deportivos anteriores, y averiguar cuántos helados con trocitos de menta comprarían hoy las madres.
Los fotógrafos que trabajan para Premise reciben hasta 10 centavos de dólar por imagen. La empresa también recaba información sobre la hora y la localización a través de los teléfonos, además de algunas notas, como por ejemplo si el mercado estaba abarrotado. Los datos de precios de las fotos se combinan con los precios de 30 mil páginas web. Después, Premise confecciona índices de inflación y mapas de precios de los mercados en lugares como Shanghái y Río de Janeiro.
Entre los suscriptores de Premise hay algunos fondos de Wall Street, la gigante Procter & Gamble también es uno de ellos. Las suscripciones oscilan entre mil 500 y más de 15 mil dólares al mes, aunque hay una versión que ofrece datos gratuitos a escuelas y grupos sin ánimo de lucro.
Las nuevas conexiones se benefician asimismo de una información pública cada vez más abundante. Según un estudio del McKinsey Global Institute, 40 gobiernos ofrecen datos actualmente sobre cuestiones como población y uso de la tierra.
Esos datos oficiales pueden combinarse con sensores de teléfonos, motores a reacción e incluso estacionamientos de bicicletas que suben datos a los supercomputadoras en la nube.
Hasta hace unos años, resultaba caro conseguir datos y era difícil introducirlos en las computadoras. Sin embargo, ahora que los precios de los sensores han bajado y que cosas como el WiFi han permitido la conectividad, eso ha cambiado.
En el mundo de los equipos informáticos, la computación en la nube –un avance que permite recabar datos sin almacenarlos en otra ubicación– ha incrementado la velocidad de la informática y permite una recopilación de información en tiempo real.
General Electric, por ejemplo, que tiene más de 200 sensores en un único motor a reacción y ha trabajado con la compañía Accenture para crear una división que analice el rendimiento de los aviones en el momento del aterrizaje.
El análisis de datos tradicional se basaba en el estudio de información, por ejemplo las nóminas, que podía cargarse en una hoja de cálculo. No obstante, con la explosión de Internet, empresas como Google, Facebook y Yahoo tienen que afrontar unos volúmenes de datos “desestructurados” sin precedentes, por ejemplo cómo navega la gente por la Red o los comentarios que hace. Los nuevos equipos y programas reducen el tiempo necesario para analizar esta información.
ClearStory Data, empresa con sede en Palo Alto, California, ha presentado un producto que puede estudiar datos en tiempo real de distintas fuentes. Puede mezclarse, por ejemplo, información sobre venta de entradas de cine, sobre el clima y mensajes de Twitter, y presentarse en forma de gráfico de barras cambiantes. Sharmila Shahani-Mulligan, cofundadora y consejera delegada de ClearStory, dice que el truco está en desarrollar un sistema para encontrar fuentes de datos con rapidez y averiguar cómo presentarlos de un modo útil. “De esa manera”, dice, “una cafetería puede saber si los clientes beberán Red Bull o chocolate caliente”.

E-mail: barrosromo@gmail.com