Nuevo panel de Open Social Data para Aragón Open Data: evolución histórica de tendencias 2013-2018

Aragón Open Data, portal de datos abiertos del Gobierno de Aragón, presenta una nueva funcionalidad en Open Social Data para aportar los hechos más significativos y relevantes en Aragón que han tenido reflejo en los datos capturados por este servicio durante el periodo 2013-2018.

Esta información es accesible de una forma ágil e intuitiva, acotando los contenidos por años y semanas. De esta forma, el usuario del portal puede conocer qué contenidos se han escuchado en redes sociales de forma destacada, qué cambios se han producido o qué tendencias han sido importantes.

Mediante este panel, el usuario podrá realizar una búsqueda específica del contenido que sea de mayor utilidad para sus propósitos, o bien podrá obtener los hashtags más utilizados dentro de un periodo temporal de una semana. Es por tanto un sistema de comunicación bidireccional donde el usuario solicita y obtiene información.

Sigue leyendo “Nuevo panel de Open Social Data para Aragón Open Data: evolución histórica de tendencias 2013-2018”

Sponsored Post Learn from the experts: Create a successful blog with our brand new courseThe WordPress.com Blog

WordPress.com is excited to announce our newest offering: a course just for beginning bloggers where you’ll learn everything you need to know about blogging from the most trusted experts in the industry. We have helped millions of blogs get up and running, we know what works, and we want you to to know everything we know. This course provides all the fundamental skills and inspiration you need to get your blog started, an interactive community forum, and content updated annually.

Airflow: procesos con flujos de trabajo y datos

Airflow[1] es una plataforma open-source creada por la Apache Software Foundation[2] que sirve para gestionar, monitorizar y automatizar flujos de trabajo que culminen en complejos pipelines.

Se utiliza frecuentemente en arquitecturas de datos y de Machine Learning por su buena relación entre facilidad de uso, flexibilidad/customización y escalabilidad a la hora de trabajar las capas de procesamiento y transformación de datos.

¿Qué se necesita para trabajar con Airflow?

Para trabajar con Airflow, básicamente solo necesitamos tener claro cómo se ve el pipeline que queremos montar usando esa tecnología, y conocer una serie de conceptos básicos de éste.

Sabiendo eso, solo tenemos que saber ubicar los distintos elementos de ese pipeline y de los distintos flujos de trabajo que lo conforman dentro de la terminología de la herramienta, y finalmente prepararlo. En el siguiente apartado se comentan, entre otras cosas, los distintos elementos que existen dentro de Airflow, que terminan conformando los flujos.

Sigue leyendo “Airflow: procesos con flujos de trabajo y datos”

Etiquetamiento de datos no estructurados

Para muchos el Santo Grial en el área de aprendizaje supervisado viene dado por los conjuntos de datos etiquetados[1]. En efecto, generalmente lo primero que hacemos nosotros como buenos científicos de datos, luego de haber sido encargados con un proyecto, es investigar para determinar si ya existen conjuntos de datos adecuados. Sin embargo, en realidad es muy difícil disponer de conjuntos de datos adecuados y etiquetados.

Lo siguiente que haremos como buenos científicos de datos es buscar conjuntos de datos estructurados, incluso si no están etiquetados. Por suerte, en la gran mayoría de los casos nos encontraremos con una buena disponibilidad de datos sin etiquetar.

Aquí es donde entran las técnicas de etiquetamiento manual de datos. Como su nombre indica, el etiquetado depende de la interacción con un usuario experto que pueda identificar los datos y sepa reconocer cómo han de ser etiquetados. Ésta puede ser una tarea laboriosa y por ello existen muchas herramientas y técnicas que permiten al etiquetador ser más productivo.

Ahora bien, existen tantas herramientas como tipos de datos haya que etiquetar. Por ejemplo, si se tiene una serie de tiempo y se quiere etiquetar un intervalo de ésta como anómalo, entonces es necesaria una herramienta sencilla con un UI adecuado y capacidades de persistencia de datos (Ilustración 1).

Ilustración 1: ejemplo de herramienta de etiquetamiento para series temporales[2]

Sigue leyendo “Etiquetamiento de datos no estructurados”

Presupuestos de Aragón: un ejemplo de transparencia y datos abiertos al servicio de la ciudadanía

Introducción

Los Presupuestos Generales de las administraciones públicas, a cualquier nivel, han sido hasta hace unos años, tradicionalmente un objeto opaco a la ciudadanía, que, a pesar de ser el proveedor de los fondos públicos a través de sus impuestos, solían recibir información parcial, descontextualizada, no suficientemente explicada y en formatos pocos manejables.

El objetivo del servicio de Presupuestos, en una primera fase, consisitó en ofrecer una visualización de los Presupuestos Generales de Aragón suficientemente intuitiva como para ser comprendida por personas sin experiencia previa, pero haciendo a la vez disponibles los detalles de cada elemento del presupueto para las personas interesadas en profundizar más. Esta primera fase mostró la realidad del presupuesto en su conjunto, cubriendo tanto el lado de los ingresos como el de los gastos, y tanto las cantidades previstas como los finalmente realizadas, siempre y cuando la información esté disponible.

El objetivo de la segunda fase fue extender la transparencia de los presupuestos de la comunidad a niveles inferiores: municipios y comarcas.

Sigue leyendo “Presupuestos de Aragón: un ejemplo de transparencia y datos abiertos al servicio de la ciudadanía”