Trasladamos el blog de Aragón Open Data

Hemos trasladado el Blog de Aragón Open Data a https://opendata.aragon.es/informacion/blog-de-aragon-open-data .

Para seguir conociendo nuevas noticias y artículos relacionados con la iniciativa de datos abiertos del Gobierno de Aragón visita esta nueva dirección.

Sigue leyendo «Trasladamos el blog de Aragón Open Data»
Anuncio publicitario

Datos abiertos e inteligencia artificial, un ejemplo con Aragón Open Data

En 2018 Aragón Open Data, portal de datos abiertos del Gobierno de Aragón, empieza a trabajar en crear un chatbot para ofrecer el catálogo de datos abiertos a través de un interfaz más cercano con las posibilidades que brinda la inteligencia artificial. El objetivo principal: facilitar el catálogo de datos, sus datos y mejorar su difusión, evitando barreras entre la consulta del usuario y los datos abiertos disponibles. 

Los chatbots o asistentes conversacionales en estos años han ido variando su tecnología y sentido para dar soluciones reales a las demandas y altas expectativas de los usuarios. No es casualidad que cada año en curso siempre sea “el año del chatbot”, el actual 2021 tampoco podía faltar. Esta buena acogida de los chatbots se ha debido en buena medida a su sencillez de uso y la facilidad de interacción entre el usuario y la información aportada mediante respuestas directas. 

prueba_chatbot1

¿Por qué un chatbot para los Datos Abiertos?

Con estas premisas, surgió el chatbot de Aragón Open Data: un servicio basado en técnicas de Inteligencia Artificial y Procesamiento de Lenguaje Natural para incluir los datos existentes en Aragón Open Data en una conversación natural. A partir de ahí, se entrena al sistema para dar respuestas a las consultas con las diferentes interacciones de los usuarios. El servicio está siendo desarrollado por un  equipo del Instituto Tecnológico de Aragón (ITAINNOVA), y  ha contado con diferentes pruebas de testeo y valoración por usuarios antes de su salida pública. Se trata además de un proyecto del Gobierno de Aragón cofinanciado por el Fondo Europeo de Desarrollo Regional (FEDER) “Construyendo Europa desde Aragón”. 

Sigue leyendo el post en el blog de Analítica Pública

Sigue leyendo «Datos abiertos e inteligencia artificial, un ejemplo con Aragón Open Data»

Aragón Open Data ha incorporado nuevos datos a la plataforma sobre el registro de explotaciones ganaderas en la comunidad autónoma de Aragón

El pasado 15 de febrero de 2021 se incorporaron al catálogo de Aragón Open Data una nueva colección de fuentes de datos sobre Explotaciones Ganaderas REGA y Núcleos Zoológicos de Aragón, relativos a las explotaciones de animales de diversas tipologías registradas en la (nuestra) comunidad autónoma.

Los datos, que están gestionados por la Dirección General de Calidad y Seguridad Alimentaria del Gobierno de Aragón, suman un total de 10 datasets (sin incluir los metadatos de la colección), clasificados en función de la especie y tipología de la explotación ganadera:

  • Abejas
  • Aves
  • Bóvidos
  • Cerdos
  • Conejos
  • Équidos
  • Ovino caprino
  • Peces
  • Otras
  • Núcleos Zoológicos

Los datos permiten cuantificar el número de explotaciones de animales por tipología de la explotación, capacidad y lugar físico donde se encuentran (se han incorporado las coordenadas geográficas, el municipio y la provincia del emplazamiento). 

Cabe destacar que, tal y como se posibilita en otras fuentes de datos del catálogo, los datos se han ofrecido en formato JSON, CSV y XML, permitiendo dar respuesta a las necesidades del mayor número de reutilizadores posible y su lectura directa y automática por las máquinas de manera eficiente. 

Asimismo, conviene subrayar la disposición de la api GA_OD_CORE para realizar consultas de los datos publicados en la plataforma. Esta API sirve para acceder a los datos de todas las vistas publicadas por Aragón Open Data en tiempo real. En el caso de los datos de ganadería las vistas corresponden a los id’s del 294 al 303.

Caso de uso con los datos

Por ejemplo, mediante la extracción de de los datos de explotaciones ganaderas avícolas (id de vista=300), podríamos generar mapas como el siguiente, que nos muestra la localización de los diferentes establecimientos de explotación de aves por especie:

Por último, desde Aragón Open Data esperamos que estos datos sean de gran interés. En estos momentos, se sigue trabajando para abrir a la ciudadanía el máximo de datos posibles mediante la apertura de diferentes fuentes de utilidad pública.

Airflow: procesos con flujos de trabajo y datos

Airflow[1] es una plataforma open-source creada por la Apache Software Foundation[2] que sirve para gestionar, monitorizar y automatizar flujos de trabajo que culminen en complejos pipelines.

Se utiliza frecuentemente en arquitecturas de datos y de Machine Learning por su buena relación entre facilidad de uso, flexibilidad/customización y escalabilidad a la hora de trabajar las capas de procesamiento y transformación de datos.

¿Qué se necesita para trabajar con Airflow?

Para trabajar con Airflow, básicamente solo necesitamos tener claro cómo se ve el pipeline que queremos montar usando esa tecnología, y conocer una serie de conceptos básicos de éste.

Sabiendo eso, solo tenemos que saber ubicar los distintos elementos de ese pipeline y de los distintos flujos de trabajo que lo conforman dentro de la terminología de la herramienta, y finalmente prepararlo. En el siguiente apartado se comentan, entre otras cosas, los distintos elementos que existen dentro de Airflow, que terminan conformando los flujos.

Sigue leyendo «Airflow: procesos con flujos de trabajo y datos»