Use this link to cite:
https://hdl.handle.net/2183/45545 Diseño, construcción y explotación de un Data Warehouse para el análisis de información de desastres naturales
Loading...
Identifiers
Publication date
Authors
Pombo Casais, Ivanna
Other responsabilities
Universidade da Coruña. Facultade de Informática
Journal Title
Bibliographic citation
Type of academic work
Academic degree
Abstract
[Resumen]: El proyecto tiene como objetivo crear un Data Warehouse para el análisis de datos relacionados con desastres naturales. Este Data Warehouse está diseñado para servir como base en investigaciones que ayuden a tomar medidas de prevención y precaución. Para ello, se realizó una búsqueda de conjuntos de datos públicos que pudieran usarse como punto de partida, y a partir de ahí se seleccionaron los datos necesarios para el análisis. Además, para enriquecer este análisis, se combinaron esos datos con variables socioeconómicas de las zonas donde ocurrieron los desastres, con el fin de generar un conocimiento más completo y facilitar la identificación de patrones. Después, se construyó el modelo lógico y se crearon las tablas de dimensiones y hechos adecuadas dentro del sistema gestor de bases de datos PostgreSQL. Utilizando la herramienta Apache Hop, se llevó a cabo el proceso de extracción, transformación y carga de datos (ETL), que garantiza la calidad de la información almacenada en la base de datos final. Esto, además de facilitar el análisis, aporta mayor fiabilidad a los resultados. Para la interpretación de los datos, se desarrollaron paneles interactivos en Power BI, que permitirán a los investigadores tomar decisiones fundamentadas en información precisa. Por último, esta memoria incluye un amplio marco teórico que explica todos los conceptos necesarios para entender el proyecto y el proceso seguido durante su desarrollo. Estos conocimientos son hoy en día fundamentales para que las empresas crezcan y tomen decisiones acertadas.
[Abstract]: The project aims to create a Data Warehouse for analyzing data related to natural disasters. This Data Warehouse is designed to serve as a foundation for research that helps in taking precautionary and preventive measures. To achieve this, public datasets were searched for to serve as a starting point, and from there, the necessary data for analysis were selected. Additionally, to enrich the analysis, these data were combined with socioeconomic variables from the areas affected by the disasters, in order to generate deeper insights and help identify patterns. Next, the logical model was built, and the appropriate dimension and fact tables were created within the PostgreSQL database management system. Using the Apache Hop tool, the extraction, transformation, and loading (ETL) process was carried out, ensuring the quality of the data stored in the target database. This not only facilitates the analysis but also adds reliability to the results. For data analysis, interactive dashboards were developed in Power BI, allowing researchers to make informed decisions based on accurate information. Finally, this report includes a comprehensive theoretical framework that explains all the concepts needed to understand the project and the process followed during its development. These elements are essential today for companies to grow and make sound decisions.
[Abstract]: The project aims to create a Data Warehouse for analyzing data related to natural disasters. This Data Warehouse is designed to serve as a foundation for research that helps in taking precautionary and preventive measures. To achieve this, public datasets were searched for to serve as a starting point, and from there, the necessary data for analysis were selected. Additionally, to enrich the analysis, these data were combined with socioeconomic variables from the areas affected by the disasters, in order to generate deeper insights and help identify patterns. Next, the logical model was built, and the appropriate dimension and fact tables were created within the PostgreSQL database management system. Using the Apache Hop tool, the extraction, transformation, and loading (ETL) process was carried out, ensuring the quality of the data stored in the target database. This not only facilitates the analysis but also adds reliability to the results. For data analysis, interactive dashboards were developed in Power BI, allowing researchers to make informed decisions based on accurate information. Finally, this report includes a comprehensive theoretical framework that explains all the concepts needed to understand the project and the process followed during its development. These elements are essential today for companies to grow and make sound decisions.
Description
Editor version
Rights
Os titulares dos dereitos de autor autorizan a visualización do contido desta obra a través de Internet, así como a súa reprodución, gravación en soporte informático ou impresión para uso privado ou con fins de investigación. En ningún caso se permite o uso lucrativo deste documento. Estes dereitos afectan tanto ao resumo da obra como ao seu contido. Los titulares de los derechos de propiedad intelectual autorizan la visualización del contenido de este trabajo a través de Internet, así como su reproducción, grabación en soporte informático o impresión para su uso privado o con fines de investigación. En ningún caso se permite el uso lucrativo de este documento. Estos derechos afectan tanto al resumen del trabajo como a su contenido.







