Aragón Open Data ha incorporado nuevos datos a la plataforma sobre el registro de explotaciones ganaderas en la comunidad autónoma de Aragón

El pasado 15 de febrero de 2021 se incorporaron al catálogo de Aragón Open Data una nueva colección de fuentes de datos sobre Explotaciones Ganaderas REGA y Núcleos Zoológicos de Aragón, relativos a las explotaciones de animales de diversas tipologías registradas en la (nuestra) comunidad autónoma.

Los datos, que están gestionados por la Dirección General de Calidad y Seguridad Alimentaria del Gobierno de Aragón, suman un total de 10 datasets (sin incluir los metadatos de la colección), clasificados en función de la especie y tipología de la explotación ganadera:

  • Abejas
  • Aves
  • Bóvidos
  • Cerdos
  • Conejos
  • Équidos
  • Ovino caprino
  • Peces
  • Otras
  • Núcleos Zoológicos

Los datos permiten cuantificar el número de explotaciones de animales por tipología de la explotación, capacidad y lugar físico donde se encuentran (se han incorporado las coordenadas geográficas, el municipio y la provincia del emplazamiento). 

Cabe destacar que, tal y como se posibilita en otras fuentes de datos del catálogo, los datos se han ofrecido en formato JSON, CSV y XML, permitiendo dar respuesta a las necesidades del mayor número de reutilizadores posible y su lectura directa y automática por las máquinas de manera eficiente. 

Asimismo, conviene subrayar la disposición de la api GA_OD_CORE para realizar consultas de los datos publicados en la plataforma. Esta API sirve para acceder a los datos de todas las vistas publicadas por Aragón Open Data en tiempo real. En el caso de los datos de ganadería las vistas corresponden a los id’s del 294 al 303.

Caso de uso con los datos

Por ejemplo, mediante la extracción de de los datos de explotaciones ganaderas avícolas (id de vista=300), podríamos generar mapas como el siguiente, que nos muestra la localización de los diferentes establecimientos de explotación de aves por especie:

Por último, desde Aragón Open Data esperamos que estos datos sean de gran interés. En estos momentos, se sigue trabajando para abrir a la ciudadanía el máximo de datos posibles mediante la apertura de diferentes fuentes de utilidad pública.

Sponsored Post Learn from the experts: Create a successful blog with our brand new courseThe WordPress.com Blog

WordPress.com is excited to announce our newest offering: a course just for beginning bloggers where you’ll learn everything you need to know about blogging from the most trusted experts in the industry. We have helped millions of blogs get up and running, we know what works, and we want you to to know everything we know. This course provides all the fundamental skills and inspiration you need to get your blog started, an interactive community forum, and content updated annually.

Nuevo panel de Open Social Data para Aragón Open Data: evolución histórica de tendencias 2013-2018

Aragón Open Data, portal de datos abiertos del Gobierno de Aragón, presenta una nueva funcionalidad en Open Social Data para aportar los hechos más significativos y relevantes en Aragón que han tenido reflejo en los datos capturados por este servicio durante el periodo 2013-2018.

Esta información es accesible de una forma ágil e intuitiva, acotando los contenidos por años y semanas. De esta forma, el usuario del portal puede conocer qué contenidos se han escuchado en redes sociales de forma destacada, qué cambios se han producido o qué tendencias han sido importantes.

Mediante este panel, el usuario podrá realizar una búsqueda específica del contenido que sea de mayor utilidad para sus propósitos, o bien podrá obtener los hashtags más utilizados dentro de un periodo temporal de una semana. Es por tanto un sistema de comunicación bidireccional donde el usuario solicita y obtiene información.

Sigue leyendo “Nuevo panel de Open Social Data para Aragón Open Data: evolución histórica de tendencias 2013-2018”

Airflow: procesos con flujos de trabajo y datos

Airflow[1] es una plataforma open-source creada por la Apache Software Foundation[2] que sirve para gestionar, monitorizar y automatizar flujos de trabajo que culminen en complejos pipelines.

Se utiliza frecuentemente en arquitecturas de datos y de Machine Learning por su buena relación entre facilidad de uso, flexibilidad/customización y escalabilidad a la hora de trabajar las capas de procesamiento y transformación de datos.

¿Qué se necesita para trabajar con Airflow?

Para trabajar con Airflow, básicamente solo necesitamos tener claro cómo se ve el pipeline que queremos montar usando esa tecnología, y conocer una serie de conceptos básicos de éste.

Sabiendo eso, solo tenemos que saber ubicar los distintos elementos de ese pipeline y de los distintos flujos de trabajo que lo conforman dentro de la terminología de la herramienta, y finalmente prepararlo. En el siguiente apartado se comentan, entre otras cosas, los distintos elementos que existen dentro de Airflow, que terminan conformando los flujos.

Sigue leyendo “Airflow: procesos con flujos de trabajo y datos”

Etiquetamiento de datos no estructurados

Para muchos el Santo Grial en el área de aprendizaje supervisado viene dado por los conjuntos de datos etiquetados[1]. En efecto, generalmente lo primero que hacemos nosotros como buenos científicos de datos, luego de haber sido encargados con un proyecto, es investigar para determinar si ya existen conjuntos de datos adecuados. Sin embargo, en realidad es muy difícil disponer de conjuntos de datos adecuados y etiquetados.

Lo siguiente que haremos como buenos científicos de datos es buscar conjuntos de datos estructurados, incluso si no están etiquetados. Por suerte, en la gran mayoría de los casos nos encontraremos con una buena disponibilidad de datos sin etiquetar.

Aquí es donde entran las técnicas de etiquetamiento manual de datos. Como su nombre indica, el etiquetado depende de la interacción con un usuario experto que pueda identificar los datos y sepa reconocer cómo han de ser etiquetados. Ésta puede ser una tarea laboriosa y por ello existen muchas herramientas y técnicas que permiten al etiquetador ser más productivo.

Ahora bien, existen tantas herramientas como tipos de datos haya que etiquetar. Por ejemplo, si se tiene una serie de tiempo y se quiere etiquetar un intervalo de ésta como anómalo, entonces es necesaria una herramienta sencilla con un UI adecuado y capacidades de persistencia de datos (Ilustración 1).

Ilustración 1: ejemplo de herramienta de etiquetamiento para series temporales[2]

Sigue leyendo “Etiquetamiento de datos no estructurados”