IBM otorgó $600.000 a la Universidad Nacional de Córdoba

El objetivo es expandir el procesamiento de grandes volúmenes de datos, la computación cognitiva y el Deep Learning

IBM anunció que trabajará con científicos de la Universidad Nacional de Córdoba (UNC) para expandir el Big Data, y otorgó $600.000 pesos para financiar el proyecto.

La investigación en conjunto busca explorar cuánto y cómo potenciar el procesamiento de grandes volúmenes de datos, la computación cognitiva a gran escala y el aprendizaje profundo. Eficiencia energética, tolerancia de fallos y escalabilidad: los ejes del proyecto.

A través de su programa Faculty Award, IBM articulará a sus propios investigadores con el Grupo de Investigación en Unidades de Procesamiento Gráfico con Propósitos Generales (GPGPU) de la Facultad de Matemática, Astronomía, Física y Computación de la UNC.

¿Con qué trabajarán los cordobeses?

Para indagar en el futuro del Big Data, el equipo cordobés tendrá a disposición los servidores IBM POWER8, la plataforma en la nube que permite trabajar con grandes volúmenes de datos y alcanza importantes niveles de cómputo, memoria y almacenamiento. También contará con la colaboración del IBM T. J. Watson Research Center, en Nueva York.



"Para nosotros representa un nuevo desafío. Nos pone contentos, pues reconocen nuestro trabajo, tanto en investigación como en desarrollo. Intentamos encontrar ventanas de mejora en el área de la computación de alto desempeño y explotarlas", destacó Oscar Reula, profesor de la UNC, investigador de Conicet y miembro del GPGPU.

Y agregó: "Si tenemos éxito, estas representan una oportunidad única, ya que nuestros usuarios –sean científicos o empresas– adquieren una ventaja comparativa con respecto a la competencia, algo que rara vez sucede en Argentina”.

Reula explicó que el tipo de software que tendrán que optimizar de manera plena IBM POWER8 serán las llamadas Redes Neuronales Profundas, "un tema que está muy candente en la comunidad tecnológica mundial y que el país no puede darse el lujo de no explorar y aprovechar", explicó.



¿Cuántos datos genera el mundo en un día?

Según los datos de IBM, cada día se generan 2.5 mil millones de gigabytes de datos –170 periódicos por persona–, y el 80% de los mismos son invisibles para los sistemas tradicionales. Menos del 0.5% de todos estos datos son analizados y usados.

Así, la firma apuesta a los investigadores cordobeses para expandir sus capacidades de aprendizaje profundo –Deep Learning en inglés-, incluyendo el reconocimiento de voz, el procesamiento del lenguaje natural y la visión artificial, entre otras tecnologías.

El temor real es el costo de no saber lo que puede ser conocido: cuál es el problema de un paciente, dónde encontrar recursos naturales críticos o entender los riesgos en nuestra economía global. Sector público y privado debemos trabajar juntos para resolver los desafíos y nos enorgullece hacerlo con la universidad”, explica Stella Loiacono, Directora de Tecnología de IBM Argentina.

¿Qué es el Deep Learning?

El aprendizaje profundo busca "leer" toda la información útil de datos no estructurados como los comentarios en las redes sociales, las fotos y los videos. El desafío de los investigadores cordobeses será llegar a este poder de procesamiento en tiempo real, de forma segura y consumiendo poca energía.

En los últimos dos años se crearon más datos que en todo el resto de la historia de la humanidad y debemos ser capaces de analizarlos para tomar decisiones que impactan en diferentes industrias y en nuestra vida cotidiana. Consideremos sólo la cantidad de información que podemos extraer del clima, autos conectados, internet de las cosas y redes sociales, y cómo podríamos usarla para entender lo que sucede en nuestras ciudades para mejorar la calidad de vida de las personas”, concluyó Loiacono.


Más información: www.ibm.com.