Cabecera personalizada

El blog de Mikel Niño
Industria 4.0, Big Data Analytics, emprendimiento digital y nuevos modelos de negocio

Notas-resumen de la segunda edición de la “International Winter School on Big Data” (BigDat 2016)

El mes pasado tuve la ocasión de acudir a la segunda edición de la International Winter School on Big Data, en la que durante cinco días (con un horario muy intensivo) y a lo largo de varios cursos en paralelo se repasan las principales tendencias de investigación académica en torno a las tecnologías Big Data de la mano de expertos de diferentes universidades y centros de investigación de todo el mundo. La primera edición fue lanzada el año pasado por la Universitat Rovira i Virgili de Tarragona, donde también estuve presente. En esta segunda edición han formado tándem con la Universidad de Deusto para su organización, con lo que en esta ocasión la sede escogida fue el campus bilbaíno de esta última universidad.

El volumen de asistencia se mantuvo similar a la edición anterior, alrededor de los 200 asistentes, y en esta ocasión sí que vi mayor representación de universidades y centros de investigaciones españoles, aunque los asistentes extranjeros seguían siendo amplia mayoría, en torno a tres cuartas partes del total de inscritos.

En cuanto a los contenidos de los cursos (dejando para el final los que quiero destacar especialmente), se combinan diferentes enfoques. En los cursos más de carácter transversal, donde se hablaba de conceptos y herramientas aplicables a cualquier dominio, el mundo de la minería de datos y el aprendizaje automático copaba la mayoría de los contenidos, en algunos casos enfocándose a formalismos de representación de los datos como los “fuzzy sets” o los “rough sets”, o algunos específicos para representar y analizar datos geográficos, o bien con cursos sobre determinados algoritmos de clasificación como los árboles de decisión y los “random forests” (un curso que ya se organizó en la pasada edición, y que seguramente por su alto índice de inscripción se decidió repetir). Respecto a seminarios más “verticales” centrados en aplicaciones en sectores concretos, hubo una elevada representatividad de contenidos enfocados a la explotación de información en redes sociales y a otros campos científicos (sintetización de moléculas, biomedicina, colisionador de partículas, etc.).

De entre los seminarios a destacar especialmente, uno de ellos sería sin duda el impartido por Ernesto Damiani sobre “Architectures, Models and Tools for Big-Data-as-a-Service”, que nos permitió repasar varios aspectos técnicos (plataformas existentes, implementaciones, alternativas) ligados al diseño de un proyecto de analítica de Big Data y a los modelos de datos y de procesamiento de los mismos por los que se puede optar en función de las necesidades de negocio concretas. También me pareció interesante el seminario de Francisco Herrera sobre “Big Data Preprocessing”, recorriendo los diferentes aspectos del procesamiento previo a la aplicación de técnicas de minería de datos ante grandes volúmenes de los mismos, y destacando sobre todo el tratamiento de problemas con “imbalanced datasets” donde se quieren aplicar algoritmos de clasificación sobre bancos de datos en los que (pensando en dos posibles clases) una de ellas está “sobrepresentada” respecto a la otra.

Mención aparte merece la oportunidad de ver desde primera fila a toda una personalidad del mundo de la Informática como Jeffrey D. Ullman, pero eso es digno de una entrada propia :-)

No hay comentarios:

Publicar un comentario