• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 131
  • 6
  • 5
  • 1
  • Tagged with
  • 145
  • 98
  • 30
  • 29
  • 28
  • 27
  • 25
  • 22
  • 19
  • 19
  • 18
  • 16
  • 16
  • 16
  • 16
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
141

Proposta de um framework para problemas que integram decisões de localização, roteamento e empacotamento / Proposal for a framework for problems that integrate location, routing, and packing decisions

Ferreira, Kamyla Maria 16 February 2018 (has links)
Submitted by Liliane Ferreira (ljuvencia30@gmail.com) on 2018-03-08T14:57:43Z No. of bitstreams: 2 Dissertação - Kamyla Maria Ferreira - 2018.pdf: 2406020 bytes, checksum: 87a4f31f5a394055dd9a84a1c7c73512 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Approved for entry into archive by Luciana Ferreira (lucgeral@gmail.com) on 2018-03-12T11:16:50Z (GMT) No. of bitstreams: 2 Dissertação - Kamyla Maria Ferreira - 2018.pdf: 2406020 bytes, checksum: 87a4f31f5a394055dd9a84a1c7c73512 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Made available in DSpace on 2018-03-12T11:16:50Z (GMT). No. of bitstreams: 2 Dissertação - Kamyla Maria Ferreira - 2018.pdf: 2406020 bytes, checksum: 87a4f31f5a394055dd9a84a1c7c73512 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Previous issue date: 2018-02-16 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / This research deals with the resolution of problems that involve the location, routing, and packing decisions with focus on the location routing problem, capacitated vehicle routing problem with two-dimensional loading constraints, and location routing problem with two-dimensional loading constraints. For that, it is proposed a framework that reuses part of the algorithms, which are of a common domain, such that the development of the project is systematized. The objective of the framework is allowing the resolution of different variants of problems that integrate location, routing, and packing decisions without the need to replicate algorithms. As a proposal for an algorithm, it is developed a hybrid heuristic, which involves the cooperation between the simulated annealing and the artificial algae algorithm. The simulated annealing has four neighborhood operators, local search, and three procedures to diversify the solution. The artificial algae algorithm is combined with the skyline method in order to verify the feasibility of the two-dimensional packing constraints. Once the framework and heuristics have been codified, computational experiments are performed to test its performance, as well as comparisons are made with the most recent results published in the literature. The results show that the heuristic is competitive with other methods from the literature since it could obtain 36.25% solutions equal to the best ones reported in the literature of the location routing problem, besides the average GAP being 0.57%. For the vehicle routing problem with two-dimensional loading constraints, the heuristic could obtain 43.05% solutions equal to the best known in the literature, besides the average GAP being 3.33%. The results obtained for the location routing problem with twodimensional loading constraints were satisfactory. / Este trabalho trata da resolução de problemas que envolvem decisões de localização, roteamento e empacotamento com foco nos problemas de localização e roteamento, roteamento de veículos capacitado com restrições de empacotamento bidimensional, e localização e roteamento com restrições de empacotamento bidimensional. Para tanto, propõe-se um framework capaz de reutilizar parte dos algoritmos, que são de domínio comum, para que o desenvolvimento do projeto seja sistematizado. O objetivo é que o framework possibilite a resolução de diferentes variantes do problema que integram as decisões de localização, roteamento e empacotamento sem ter que replicar algoritmos. Como proposta de algoritmo, desenvolve-se uma heurística híbrida, a qual envolve a cooperação entre dois métodos, o recozimento simulado e o algoritmo artificial de algas. O recozimento simulado possui quatro operadores de vizinhança, procedimentos de busca local e três procedimentos para diversificar a solução. O algoritmo artificial de algas é combinado com a técnica Skyline para verificar as restrições de empacotamento bidimensional. A partir da codificação do framework e da heurística, experimentos computacionais foram realizados para testar o seu desempenho e comparar os resultados com os mais recentes da literatura. Os resultados indicam que a heurística é competitiva com os demais métodos da literatura, sendo possível obter 36,25% de soluções iguais às melhores reportadas na literatura do problema de localização e roteamento, além do GAP médio ter sido de 0,57%. No problema de roteamento de veículos com restrições de empacotamento bidimensional, a heurística obteve 43,05% soluções iguais às melhores conhecidas na literatura, além do GAP médio ter sido de 3,33%. Os resultados obtidos para o problema de localização e roteamento com restrições de empacotamento bidimensional foram satisfatórios.
142

Técnicas de proteção e restauração em redes ópticas elásticas / Protection and restoration techniques in elastic optical networks

Lourenço, André Luiz Ferraz 26 November 2015 (has links)
As redes ópticas estão passando por mudanças significativas, impulsionadas pelo crescimento exponencial do tráfego, principalmente advindo de serviços multimídia e armazenamento em nuvem. Esta demanda exigirá aumento da capacidade da taxa de transmissão para padrões como 400 Gb/s e 1 Tb/s. Nesse contexto, foi proposta uma arquitetura de rede com grade de frequências granular flexível chamada elastic optical network (EON). A EON divide o espectro de frequências em fatias (slots) de tamanho fixo e aloca grupos de slots contíguos estritamente de acordo com os requisitos de banda das demandas de conexão, implicando eficiência de uso do espectro. Com o aumento significativo da taxa de transmissão, acentuou-se a preocupação em manter a sobrevivência da rede, já que pouco tempo de queda no serviço pode acarretar uma imensa perda de dados. Neste trabalho, investigamos esquemas de proteção baseados em caminhos compartilhados (shared-path protection, SPP) e esquemas de restauração de tráfego. Avaliamos esquemas divulgados na literatura como o dynamic load balancing shared-path protection (DLBSPP) e esquemas de restauração como o traffic aware restoration (TAR) e bandwidth squeezed restoration (BSR). Avaliamos também uma heurística de alocação de slots chamada inverted dual stack (IDS). O DLBSPP utiliza balanceamento dinâmico de carga para computar os caminhos primários e de proteção compartilhados. O TAR executa a restauração dinâmica ordenando as conexões por granularidade de banda. O BSR utiliza a capacidade de contração de banda do EON para restaurar conexões por meio da política de melhor esforço ou de banda garantida, dependendo do acordo de níveis de serviço do cliente. O esquema IDS concentra o maior número possível de slots compartilhados em uma região do espectro. As medidas de desempenho dos algoritmos são avaliadas segundo as métricas: probabilidade de bloqueio, taxa de utilização do espectro, número médio de hops e taxa de restauração falha. As simulações computacionais mostram o bom desempenho da utilização do esquema IDS com DLBSPP. / Optical networks are undergoing significant changes driven by the exponentially growing traffic, especially coming from multimedia and cloud storage services. This demand will require increasing of the transmission rate capacity as high as 400 Gb/s and 1 Tb/s. Within this context, it was proposed the elastic optical network (EON), which is a network architecture with flexible granular frequency grid. EON divides the frequency spectrum into slices (slots) of fixed size and allocates groups of contiguous slots strictly according to the bandwidth requirement of the connection demands, providing high spectrum use efficiency. The significant increase in transmission rate put emphasis on the need to maintain the survival of the network, since the occurrence of faults in the network nodes or links can cause huge loss of data. In this work, we investigate protection schemes based on shared-path protection (SPP) and traffic restoration schemes. We evaluate schemes related in the literature, such as the dynamic load balancing shared-path protection (DLBSPP), and restoration schemes such as the traffic aware restoration (TAR) and the bandwidth squeezed restoration (BSR). The DLBP scheme uses dynamic load balancing to compute primary and shared protection paths. The TAR performs dynamic restoration ordering the connections based on band granularity. The BSR uses EON\'s band squeezing feature to restore connections by means of the best effort or guaranteed bandwidth strategy, depending on the customer\'s service level agreement. IDS scheme concentrates the maximum possible number of shared slots in a given region of the spectrum. Performance of the algorithms are evaluated according to metrics: blocking probability, spectrum utilization rate, average number of hops and failure restoration rate. Computer simulations show that the use of the IDS scheme improves the performance of the investigated algorithms.
143

Geração evolucionária de heurísticas para localização de defeitos de software / Evolutionary generation of heuristics for software fault localization

Freitas, Diogo Machado de 24 September 2018 (has links)
Submitted by Franciele Moreira (francielemoreyra@gmail.com) on 2018-10-30T13:30:59Z No. of bitstreams: 2 Dissertação - Diogo Machado de Freitas - 2018.pdf: 1477764 bytes, checksum: 73759c5ece96bf48ffd4d698f14026b9 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Approved for entry into archive by Luciana Ferreira (lucgeral@gmail.com) on 2018-10-30T13:41:38Z (GMT) No. of bitstreams: 2 Dissertação - Diogo Machado de Freitas - 2018.pdf: 1477764 bytes, checksum: 73759c5ece96bf48ffd4d698f14026b9 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Made available in DSpace on 2018-10-30T13:41:38Z (GMT). No. of bitstreams: 2 Dissertação - Diogo Machado de Freitas - 2018.pdf: 1477764 bytes, checksum: 73759c5ece96bf48ffd4d698f14026b9 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Previous issue date: 2018-09-24 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / Fault Localization is one stage of the software life cycle, which demands important resources such as time and effort spent on a project. There are several initiatives towards the automation of the fault localization process and the reduction of the associated resources. Many techniques are based on heuristics that use information obtained (spectrum) from the execution of test cases, in order to measure the suspiciousness of each program element to be defective. Spectrum data generally refers to code coverage and test results (positive or negative). The present work presents two approaches based on the Genetic Programming algorithm for the problem of Fault Localization: a method to compose a new heuristic from a set of existing ones; and a method for constructing heuristics based on data from program mutation analysis. The innovative aspects of both methods refer to the joint investigation of: (i) specialization of heuristics for certain programs; (ii) application of an evolutionary approach to the generation of heuristics with non-linear equations; (iii) creation of heuristics based on the combination of traditional heuristics; (iv) use of coverage and mutation spectra extracted from the test activity; (v) analyzing and comparing the efficacy of methods that use coverage and mutation spectra for fault localization; and (vi) quality analysis of the mutation spectra as a data source for fault localization. The results have pointed to the competitiveness of both approaches in their contexts. / Localização de Defeitos é uma etapa do ciclo de vida de software, que demanda recursos importantes tais como o tempo e o esforço gastos em um projeto. Existem diversas iniciativas na direção da automação do processo de localização de defeitos e da redução dos recursos associados. Muitas técnicas são baseadas heurísticas que utilizam informação obtida (espectro) a partir da execução de casos de teste, visando a medir a suspeita de cada elemento de programa para ser defeituoso. Os dados de espectro referem-se, em geral, à cobertura de código e aos resultados dos teste (positivo ou negativo). O presente trabalho apresenta duas abordagens baseadas no algoritmo Programação Genética para o problema de Localização de Defeitos: um método para compor automaticamente novas heurísticas a partir de um conjunto de heurísticas existentes; e um método para a construção de heurísticas baseadas em dados oriundos da análise de mutação de programas. Os aspectos inovadores de ambos os métodos referem-se à investigação conjunta de: (i) especialização de heurísticas para determinados programas; (ii) aplicação de abordagem evolutiva para a geração de heurísticas com equações não lineares; (iii) criação de heurísticas a partir da combinação de heurísticas tradicionais; (iv) uso de espectro de cobertura e de mutação extraídos da atividade de teste; (v) análise e comparação da eficácia de métodos que usam os espectros de cobertura e de mutação para a localização de defeitos; e (vi) análise da qualidade dos espectros de mutação como fonte de dados para a localização de defeitos. Os resultados apontaram competitividade de ambas as abordagens em seus contextos.
144

Técnicas de proteção e restauração em redes ópticas elásticas / Protection and restoration techniques in elastic optical networks

André Luiz Ferraz Lourenço 26 November 2015 (has links)
As redes ópticas estão passando por mudanças significativas, impulsionadas pelo crescimento exponencial do tráfego, principalmente advindo de serviços multimídia e armazenamento em nuvem. Esta demanda exigirá aumento da capacidade da taxa de transmissão para padrões como 400 Gb/s e 1 Tb/s. Nesse contexto, foi proposta uma arquitetura de rede com grade de frequências granular flexível chamada elastic optical network (EON). A EON divide o espectro de frequências em fatias (slots) de tamanho fixo e aloca grupos de slots contíguos estritamente de acordo com os requisitos de banda das demandas de conexão, implicando eficiência de uso do espectro. Com o aumento significativo da taxa de transmissão, acentuou-se a preocupação em manter a sobrevivência da rede, já que pouco tempo de queda no serviço pode acarretar uma imensa perda de dados. Neste trabalho, investigamos esquemas de proteção baseados em caminhos compartilhados (shared-path protection, SPP) e esquemas de restauração de tráfego. Avaliamos esquemas divulgados na literatura como o dynamic load balancing shared-path protection (DLBSPP) e esquemas de restauração como o traffic aware restoration (TAR) e bandwidth squeezed restoration (BSR). Avaliamos também uma heurística de alocação de slots chamada inverted dual stack (IDS). O DLBSPP utiliza balanceamento dinâmico de carga para computar os caminhos primários e de proteção compartilhados. O TAR executa a restauração dinâmica ordenando as conexões por granularidade de banda. O BSR utiliza a capacidade de contração de banda do EON para restaurar conexões por meio da política de melhor esforço ou de banda garantida, dependendo do acordo de níveis de serviço do cliente. O esquema IDS concentra o maior número possível de slots compartilhados em uma região do espectro. As medidas de desempenho dos algoritmos são avaliadas segundo as métricas: probabilidade de bloqueio, taxa de utilização do espectro, número médio de hops e taxa de restauração falha. As simulações computacionais mostram o bom desempenho da utilização do esquema IDS com DLBSPP. / Optical networks are undergoing significant changes driven by the exponentially growing traffic, especially coming from multimedia and cloud storage services. This demand will require increasing of the transmission rate capacity as high as 400 Gb/s and 1 Tb/s. Within this context, it was proposed the elastic optical network (EON), which is a network architecture with flexible granular frequency grid. EON divides the frequency spectrum into slices (slots) of fixed size and allocates groups of contiguous slots strictly according to the bandwidth requirement of the connection demands, providing high spectrum use efficiency. The significant increase in transmission rate put emphasis on the need to maintain the survival of the network, since the occurrence of faults in the network nodes or links can cause huge loss of data. In this work, we investigate protection schemes based on shared-path protection (SPP) and traffic restoration schemes. We evaluate schemes related in the literature, such as the dynamic load balancing shared-path protection (DLBSPP), and restoration schemes such as the traffic aware restoration (TAR) and the bandwidth squeezed restoration (BSR). The DLBP scheme uses dynamic load balancing to compute primary and shared protection paths. The TAR performs dynamic restoration ordering the connections based on band granularity. The BSR uses EON\'s band squeezing feature to restore connections by means of the best effort or guaranteed bandwidth strategy, depending on the customer\'s service level agreement. IDS scheme concentrates the maximum possible number of shared slots in a given region of the spectrum. Performance of the algorithms are evaluated according to metrics: blocking probability, spectrum utilization rate, average number of hops and failure restoration rate. Computer simulations show that the use of the IDS scheme improves the performance of the investigated algorithms.
145

Analysis Design and Implementation of Artificial Intelligence Techniques in Edge Computing Environments

Hernández Vicente, Daniel 27 March 2023 (has links)
Tesis por compendio / [ES] Edge Computing es un modelo de computación emergente basado en acercar el procesamiento a los dispositivos de captura de datos en las infraestructuras Internet of things (IoT). Edge computing mejora, entre otras cosas, los tiempos de respuesta, ahorra anchos de banda, incrementa la seguridad de los servicios y oculta las caídas transitorias de la red. Este paradigma actúa en contraposición a la ejecución de servicios en entornos cloud y es muy útil cuando se desea desarrollar soluciones de inteligencia artificial (AI) que aborden problemas en entornos de desastres naturales, como pueden ser inundaciones, incendios u otros eventos derivados del cambio climático. La cobertura de estos escenarios puede resultar especialmente difícil debido a la escasez de infraestructuras disponibles, lo que a menudo impide un análisis de los datos basado en la nube en tiempo real. Por lo tanto, es fundamental habilitar técnicas de IA que no dependan de sistemas de cómputo externos y que puedan ser embebidas en dispositivos de móviles como vehículos aéreos no tripulados (VANT), para que puedan captar y procesar información que permita inferir posibles situaciones de emergencia y determinar así el curso de acción más adecuado de manera autónoma. Históricamente, se hacía frente a este tipo de problemas utilizando los VANT como dispositivos de recogida de datos con el fin de, posteriormente, enviar esta información a la nube donde se dispone de servidores capacitados para analizar esta ingente cantidad de información. Este nuevo enfoque pretende realizar todo el procesamiento y la obtención de resultados en el VANT o en un dispositivo local complementario. Esta aproximación permite eliminar la dependencia de un centro de cómputo remoto que añade complejidad a la infraestructura y que no es una opción en escenarios específicos, donde las conexiones inalámbricas no cumplen los requisitos de transferencia de datos o son entornos en los que la información tiene que obtenerse en ese preciso momento, por requisitos de seguridad o inmediatez. Esta tesis doctoral está compuesta de tres propuestas principales. En primer lugar se plantea un sistema de despegue de enjambres de VANTs basado en el algoritmo de Kuhn Munkres que resuelve el problema de asignación en tiempo polinómico. Nuestra evaluación estudia la complejidad de despegue de grandes enjambres y analiza el coste computacional y de calidad de nuestra propuesta. La segunda propuesta es la definición de una secuencia de procesamiento de imágenes de catástrofes naturales tomadas desde drones basada en Deep learning (DL). El objetivo es reducir el número de imágenes que deben procesar los servicios de emergencias en la catástrofe natural para poder tomar acciones sobre el terreno de una manera más rápida. Por último, se utiliza un conjunto de datos de imágenes obtenidas con VANTs y relativas a diferentes inundaciones, en concreto, de la DANA de 2019, cedidas por el Ayuntamiento de San Javier, ejecutando un modelo DL de segmentación semántica que determina automáticamente las regiones más afectadas por las lluvias (zonas inundadas). Entre los resultados obtenidos se destacan los siguientes: 1- la mejora drástica del rendimiento del despegue vertical coordinado de una red de VANTs. 2- La propuesta de un modelo no supervisado para la vigilancia de zonas desconocidas representa un avance para la exploración autónoma mediante VANTs. Esto permite una visión global de una zona concreta sin realizar un estudio detallado de la misma. 3- Por último, un modelo de segmentación semántica de las zonas inundadas, desplegado para el procesamiento de imágenes en el VANTs, permite la obtención de datos de inundaciones en tiempo real (respetando la privacidad) para una reconstrucción virtual fidedigna del evento. Esta tesis ofrece una propuesta para mejorar el despegue coordinado de drones y dotar de capacidad de procesamiento de algoritmos de deep learning a dispositivos edge, más concretamente UAVs autónomos. / [CA] Edge Computing és un model de computació emergent basat a acostar el processament als dispositius de captura de dades en les infraestructures Internet of things (IoT). Edge computing millora, entre altres coses, els temps de resposta, estalvia amplades de banda, incrementa la seguretat dels serveis i oculta les caigudes transitòries de la xarxa. Aquest paradigma actua en contraposició a l'execució de serveis en entorns cloud i és molt útil quan es desitja desenvolupar solucions d'intel·ligència artificial (AI) que aborden problemes en entorns de desastres naturals, com poden ser inundacions, incendis o altres esdeveniments derivats del canvi climàtic. La cobertura d'aquests escenaris pot resultar especialment difícil a causa de l'escassetat d'infraestructures disponibles, la qual cosa sovint impedeix una anàlisi de les dades basat en el núvol en temps real. Per tant, és fonamental habilitar tècniques de IA que no depenguen de sistemes de còmput externs i que puguen ser embegudes en dispositius de mòbils com a vehicles aeris no tripulats (VANT), perquè puguen captar i processar informació per a inferir possibles situacions d'emergència i determinar així el curs d'acció més adequat de manera autònoma. Històricament, es feia front a aquesta mena de problemes utilitzant els VANT com a dispositius de recollida de dades amb la finalitat de, posteriorment, enviar aquesta informació al núvol on es disposa de servidors capacitats per a analitzar aquesta ingent quantitat d'informació. Aquest nou enfocament pretén realitzar tot el processament i l'obtenció de resultats en el VANT o en un dispositiu local complementari. Aquesta aproximació permet eliminar la dependència d'un centre de còmput remot que afig complexitat a la infraestructura i que no és una opció en escenaris específics, on les connexions sense fils no compleixen els requisits de transferència de dades o són entorns en els quals la informació ha d'obtindre's en aqueix precís moment, per requisits de seguretat o immediatesa. Aquesta tesi doctoral està composta de tres propostes principals. En primer lloc es planteja un sistema d'enlairament d'eixams de VANTs basat en l'algorisme de Kuhn Munkres que resol el problema d'assignació en temps polinòmic. La nostra avaluació estudia la complexitat d'enlairament de grans eixams i analitza el cost computacional i de qualitat de la nostra proposta. La segona proposta és la definició d'una seqüència de processament d'imatges de catàstrofes naturals preses des de drons basada en Deep learning (DL).L'objectiu és reduir el nombre d'imatges que han de processar els serveis d'emergències en la catàstrofe natural per a poder prendre accions sobre el terreny d'una manera més ràpida. Finalment, s'utilitza un conjunt de dades d'imatges obtingudes amb VANTs i relatives a diferents inundacions, en concret, de la DANA de 2019, cedides per l'Ajuntament de San Javier, executant un model DL de segmentació semàntica que determina automàticament les regions més afectades per les pluges (zones inundades). Entre els resultats obtinguts es destaquen els següents: 1- la millora dràstica del rendiment de l'enlairament vertical coordinat d'una xarxa de VANTs. 2- La proposta d'un model no supervisat per a la vigilància de zones desconegudes representa un avanç per a l'exploració autònoma mitjançant VANTs. Això permet una visió global d'una zona concreta sense realitzar un estudi detallat d'aquesta. 3- Finalment, un model de segmentació semàntica de les zones inundades, desplegat per al processament d'imatges en el VANTs, permet l'obtenció de dades d'inundacions en temps real (respectant la privacitat) per a una reconstrucció virtual fidedigna de l'esdeveniment. / [EN] Edge Computing is an emerging computing model based on bringing data processing and storage closer to the location needed to improve response times and save bandwidth. This new paradigm acts as opposed to running services in cloud environments and is very useful in developing artificial intelligence (AI) solutions that address problems in natural disaster environments, such as floods, fires, or other events of an adverse nature. Coverage of these scenarios can be particularly challenging due to the lack of available infrastructure, which often precludes real-time cloud-based data analysis. Therefore, it is critical to enable AI techniques that do not rely on external computing systems and can be embedded in mobile devices such as unmanned aerial vehicles (UAVs) so that they can capture and process information to understand their context and determine the appropriate course of action independently. Historically, this problem was addressed by using UAVs as data collection devices to send this information to the cloud, where servers can process it. This new approach aims to do all the processing and get the results on the UAV or a complementary local device. This approach eliminates the dependency on a remote computing center that adds complexity to the infrastructure and is not an option in specific scenarios where wireless connections do not meet the data transfer requirements. It is also an option in environments where the information has to be obtained at that precise moment due to security or immediacy requirements. This study consists of three main proposals. First, we propose a UAV swarm takeoff system based on the Kuhn Munkres algorithm that solves the assignment problem in polynomial time. Our evaluation studies the takeoff complexity of large swarms and analyzes our proposal's computational and quality cost. The second proposal is the definition of a Deep learning (DL) based image processing sequence for natural disaster images taken from drones to reduce the number of images processed by the first responders in the natural disaster. Finally, a dataset of images obtained with UAVs and related to different floods is used to run a semantic segmentation DL model that automatically determines the regions most affected by the rains (flooded areas). The results are 1- The drastic improvement of the performance of the coordinated vertical take-off of a network of UAVs. 2- The proposal of an unsupervised model for the surveillance of unknown areas represents a breakthrough for autonomous exploration by UAVs. This allows a global view of a specific area without performing a detailed study. 3- Finally, a semantic segmentation model of flooded areas, deployed for image processing in the UAV, allows obtaining real-time flood data (respecting privacy) for a reliable virtual reconstruction of the event. This thesis offers a proposal to improve the coordinated take-off of drones, to provide edge devices with deep learning algorithms processing capacity, more specifically autonomous UAVs, in order to develop services for the surveillance of areas affected by natural disasters such as fire detection, segmentation of flooded areas or detection of people in danger. Thanks to this research, services can be developed that enable the coordination of large arrays of drones and allow image processing without needing additional devices. This flexibility makes our approach a bet for the future and thus provides a development path for anyone interested in deploying an autonomous drone-based surveillance and actuation system. / I would like to acknowledge the project Development of High-Performance IoT Infrastructures against Climate Change based on Artificial Intelligence (GLOBALoT). Funded by Ministerio de Ciencia e Innovación (RTC2019-007159-5), of which this thesis is part. / Hernández Vicente, D. (2023). Analysis Design and Implementation of Artificial Intelligence Techniques in Edge Computing Environments [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/192605 / Compendio

Page generated in 0.0481 seconds