El volumen de asistencia se mantuvo similar a la edición anterior, alrededor de los 200 asistentes, y en esta ocasión sí que vi mayor representación de universidades y centros de investigaciones españoles, aunque los asistentes extranjeros seguían siendo amplia mayoría, en torno a tres cuartas partes del total de inscritos.
En cuanto a los contenidos de los cursos (dejando para el final los que quiero destacar especialmente), se combinan diferentes enfoques. En los cursos más de carácter transversal, donde se hablaba de conceptos y herramientas aplicables a cualquier dominio, el mundo de la minería de datos y el aprendizaje automático copaba la mayoría de los contenidos, en algunos casos enfocándose a formalismos de representación de los datos como los “fuzzy sets” o los “rough sets”, o algunos específicos para representar y analizar datos geográficos, o bien con cursos sobre determinados algoritmos de clasificación como los árboles de decisión y los “random forests” (un curso que ya se organizó en la pasada edición, y que seguramente por su alto índice de inscripción se decidió repetir). Respecto a seminarios más “verticales” centrados en aplicaciones en sectores concretos, hubo una elevada representatividad de contenidos enfocados a la explotación de información en redes sociales y a otros campos científicos (sintetización de moléculas, biomedicina, colisionador de partículas, etc.).
De entre los seminarios a destacar especialmente, uno de ellos sería sin duda el impartido por Ernesto Damiani sobre “Architectures, Models and Tools for Big-Data-as-a-Service”, que nos permitió repasar varios aspectos técnicos (plataformas existentes, implementaciones, alternativas) ligados al diseño de un proyecto de analítica de Big Data y a los modelos de datos y de procesamiento de los mismos por los que se puede optar en función de las necesidades de negocio concretas. También me pareció interesante el seminario de Francisco Herrera sobre “Big Data Preprocessing”, recorriendo los diferentes aspectos del procesamiento previo a la aplicación de técnicas de minería de datos ante grandes volúmenes de los mismos, y destacando sobre todo el tratamiento de problemas con “imbalanced datasets” donde se quieren aplicar algoritmos de clasificación sobre bancos de datos en los que (pensando en dos posibles clases) una de ellas está “sobrepresentada” respecto a la otra.
Mención aparte merece la oportunidad de ver desde primera fila a toda una personalidad del mundo de la Informática como Jeffrey D. Ullman, pero eso es digno de una entrada propia :-)
En cuanto a los contenidos de los cursos (dejando para el final los que quiero destacar especialmente), se combinan diferentes enfoques. En los cursos más de carácter transversal, donde se hablaba de conceptos y herramientas aplicables a cualquier dominio, el mundo de la minería de datos y el aprendizaje automático copaba la mayoría de los contenidos, en algunos casos enfocándose a formalismos de representación de los datos como los “fuzzy sets” o los “rough sets”, o algunos específicos para representar y analizar datos geográficos, o bien con cursos sobre determinados algoritmos de clasificación como los árboles de decisión y los “random forests” (un curso que ya se organizó en la pasada edición, y que seguramente por su alto índice de inscripción se decidió repetir). Respecto a seminarios más “verticales” centrados en aplicaciones en sectores concretos, hubo una elevada representatividad de contenidos enfocados a la explotación de información en redes sociales y a otros campos científicos (sintetización de moléculas, biomedicina, colisionador de partículas, etc.).
De entre los seminarios a destacar especialmente, uno de ellos sería sin duda el impartido por Ernesto Damiani sobre “Architectures, Models and Tools for Big-Data-as-a-Service”, que nos permitió repasar varios aspectos técnicos (plataformas existentes, implementaciones, alternativas) ligados al diseño de un proyecto de analítica de Big Data y a los modelos de datos y de procesamiento de los mismos por los que se puede optar en función de las necesidades de negocio concretas. También me pareció interesante el seminario de Francisco Herrera sobre “Big Data Preprocessing”, recorriendo los diferentes aspectos del procesamiento previo a la aplicación de técnicas de minería de datos ante grandes volúmenes de los mismos, y destacando sobre todo el tratamiento de problemas con “imbalanced datasets” donde se quieren aplicar algoritmos de clasificación sobre bancos de datos en los que (pensando en dos posibles clases) una de ellas está “sobrepresentada” respecto a la otra.
Mención aparte merece la oportunidad de ver desde primera fila a toda una personalidad del mundo de la Informática como Jeffrey D. Ullman, pero eso es digno de una entrada propia :-)
No hay comentarios:
Publicar un comentario