• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 235
  • 105
  • Tagged with
  • 340
  • 340
  • 334
  • 87
  • 50
  • 43
  • 42
  • 41
  • 37
  • 37
  • 35
  • 35
  • 33
  • 33
  • 32
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Mise en oeuvre et validation de la méthode des réponses en fréquence à l'arrêt - Standstill Frequency Response (SSFR) - pour trois générateurs synchrones

Rakotovololona, Stéphanie 23 April 2018 (has links)
Tableau d'honneur de la Faculté des études supérieures et postdorales, 2015-2016 / Ce mémoire présente une application de la méthode des réponses en fréquence à l’arrêt ou Standstill Frequency Response (SSFR) pour trois machines synchrones distinctes : une machine de laboratoire de 5.4kVA à rotor lisse, du type turbogénérateur, une machine de laboratoire de 5.4kVA à rotor saillant, du type hydrogénérateur et un grand alternateur de réseau de 95 MVA, du type hydrogénérateur. Cette méthode est détaillée dans la norme IEEE 115-2009 et permet l’identification des paramètres d’un circuit équivalent dq pour des alternateurs synchrones. Ces modèles sont souvent utilisés pour des études de stabilité du réseau électrique. Nous avons adapté l’utilisation de la méthode SFFR pour chaque machine en essayant de réduire le nombre de mesures à réaliser dans le domaine des basses fréquences. Cette modification permet de minimiser la durée des expériences. Une bonne partie du mémoire rappelle les bases théoriques nécessaires à l’utilisation de la méthode SSFR, notamment le développement du modèle dq, la transformation de Park et les différentes fonctions de transfert qui représentent le comportement d’une machine. Par la suite, nous décrivons le protocole expérimental et l’analyse des données pour l’identification des paramètres du modèle pour chaque alternateur. Une validation des paramètres est réalisée en comparant les données expérimentales et les résultats simulés pour plusieurs essais de courts-circuits (triphasés et biphasés), à différents niveaux de courant d’excitation. / This paper presents an application of the well-known Standstill Frequency Response (SSFR) method for three separate synchronous machines: a 5.4kVA round rotor turbogenerator, a 5.4 kVA salient rotor and a large 95 MVA hydrogenerator. This method is detailed in the IEEE 115-2009 standard and allows the identification of the parameters of an equivalent circuit for dq synchronous generators. These models are often used for the grid stability studies. We adapted the SSFR method for each machine in order to reduce the number of measurements to be performed in the low frequency range. This modification reduces the duration of the experiments. The theoretical basis for the use of SSFR method is reviewed carefully, including the development of dq model, Park transformation and different transfer functions that represent the behavior of a machine. Subsequently, we describe the experimental protocol and data analysis for the identification of the model parameters for each generator. A parameter validation is performed by comparing the experimental and simulated results of several short-circuit tests (three-phase and two-phase), at different levels of excitation current.
2

Laser accordable électroniquement

Deltel, Geoffroy 12 April 2018 (has links)
Dans un contexte de développement important des technologies photoniques et de leurs applications à la plupart des domaines scientifiques (télécommunications, biologie, médecine), il apparaît de plus en plus essentiel de pouvoir se doter de sources laser accordables en longueur d'onde et facilement utilisables. Ce mémoire résume et approfondit la recherche menée dans le cadre de la compagnie Technologies SWAG Inc. sur le laser accordable électroniquement (ETL). Elle présente ainsi les principes inédits mis en œuvre et ayant fait l'objet d'un brevet et développe à la fois les avantages et les limites de ceux-ci. Ces principes ont par la suite fait l'objet de démonstrations expérimentales utilisant différentes technologies disponibles : celle des fibres optiques dopées et celle des semi- conducteurs pompés optiquement et électriquement. / In a context of significant development of photonic technologies and their applications to the majority of the scientific fields (telecommunications, biology, medicine), it appears increasingly essential to be able to use tunable and easy-to-use laser sources. This memorandum summarizes and looks further into the research undertaken within the company Technologies SWAG Inc. on the electronically tunable laser (ETL). It thus presents the new patented principles implemented and develops at the same time the advantages and the limits of those. These principles were the subject thereafter of experimental demonstrations using various available technologies: that of doped optical fibres and that of optically or electrically pumped semiconductors.
3

Quantitative subsurface defect evaluation by pulsed phase thermography: depth retrieval with the phase

Ibarra Castanedo, Clemente 11 April 2018 (has links)
La Thermographie de Phase Pulsée (TPP) est une technique d’Évaluation Non-Destructive basée sur la Transformée de Fourier pouvant être considérée comme étant le lien entre la Thermographie Pulsée, pour laquelle l’acquisition de données est rapide, et la Thermographie Modulée, pour laquelle l’extraction de la profondeur est directe. Une nouvelle technique d’inversion de la profondeur reposant sur l’équation de la longueur de diffusion thermique : μ=(α /πf)½, est proposée. Le problème se résume alors à la détermination de la fréquence de borne fb, c à d, la fréquence à laquelle un défaut à une profondeur particulière présente un contraste de phase suffisant pour être détecté dans le spectre des fréquences. Cependant, les profils de température servant d’entrée en TPP, sont des signaux non-périodiques et non-limités en fréquence pour lesquels, des paramètres d’échantillonnage Δt, et de troncature w(t), doivent être soigneusement choisis lors du processus de discrétisation du signal. Une méthodologie à quatre étapes, basée sur la Dualité Temps-Fréquence de la Transformée de Fourier discrète, est proposée pour la détermination interactive de Δt et w(t), en fonction de la profondeur du défaut. Ainsi, pourvu que l’information thermique utilisée pour alimenter l’algorithme de TPP soit correctement échantillonnée et tronquée, une solution de la forme : z=C1μ, peut être envisagée, où les valeurs expérimentales de C1 se situent typiquement entre 1.5 et 2. Bien que la détermination de fb ne soit pas possible dans le cas de données thermiques incorrectement échantillonnées, les profils de phase exhibent quoi qu’il en soit un comportement caractéristique qui peut être utilisé pour l’extraction de la profondeur. La fréquence de borne apparente f’b, peut être définie comme la fréquence de borne évaluée à un seuil de phase donné φd et peut être utilisée en combinaison avec la définition de la phase pour une onde thermique : φ=z /μ, et le diamètre normalisé Dn=D/z, pour arriver à une expression alternative. L'extraction de la profondeur dans ce cas nécessite d'une étape additionnelle pour récupérer la taille du défaut. / Pulsed Phase Thermography (PPT) is a NonDestructive Testing and Evaluation (NDT& E) technique based on the Fourier Transform that can be thought as being the link between Pulsed Thermography, for which data acquisition is fast and simple; and Lock-In thermography, for which depth retrieval is straightforward. A new depth inversion technique using the phase obtained by PPT is proposed. The technique relies on the thermal diffusion length equation, i.e. μ=(α /π·f)½, in a similar manner as in Lock-In Thermography. The inversion problem reduces to the estimation of the blind frequency, i.e. the limiting frequency at which a defect at a particular depth presents enough phase contrast to be detected on the frequency spectra. However, an additional problem arises in PPT when trying to adequately establish the temporal parameters that will produce the desired frequency response. The decaying thermal profiles such as the ones serving as input in PPT, are non-periodic, non-band-limited functions for which, adequate sampling Δt, and truncation w(t), parameters should be selected during the signal discretization process. These parameters are both function of the depth of the defect and of the thermal properties of the specimen/defect system. A four-step methodology based on the Time-Frequency Duality of the discrete Fourier Transform is proposed to interactively determine Δt and w(t). Hence, provided that thermal data used to feed the PPT algorithm is correctly sampled and truncated, the inversion solution using the phase takes the form: z=C 1 μ, for which typical experimental C 1 values are between 1.5 and 2. Although determination of fb is not possible when working with badly sampled data, phase profiles still present a distinctive behavior that can be used for depth retrieval purposes. An apparent blind frequency f’b , can be defined as the blind frequency at a given phase threshold φd , and be used in combination with the phase delay definition for a thermal wave: φ=z /μ, and the normalized diameter, Dn=D/z, to derive an alternative expression. Depth extraction in this case requires an additional step to recover the size of the defect. / La Termografía de Fase Pulsada (TFP) es una técnica de Evaluación No-Destructiva basada en la Transformada de Fourier y que puede ser vista como el vínculo entre la Termografía Pulsada, en la cual la adquisición de datos se efectúa de manera rápida y sencilla, y la Termografía Modulada, en la que la extracción de la profundidad es directa. Un nuevo método de inversión de la profundidad por TFP es propuesto a partir de la ecuación de la longitud de difusión térmica: μ=(α /π·f)½. El problema de inversion se reduce entonces a la determinación de la frecuencia límite fb (frecuencia a la cual un defecto de profundidad determinada presenta un contraste de fase suficiente para ser detectado en el espectro de frecuencias). Sin embargo, las curvas de temperatura utilizadas como entrada en TFP, son señales no-periódicas y no limitadas en frecuencia para las cuales, los parámetros de muestreo Δt, y de truncamiento w(t), deben ser cuidadosamente seleccionados durante el proceso de discretización de la señal. Una metodología de cuatro etapas, basada en la Dualidad Tiempo-Frecuencia de la Transformada de Fourier discreta, ha sido desarrollada para la determinación interactiva de Δt y w(t), en función de la profundidad del defecto. Así, a condición que la información de temperatura sea correctamente muestreada y truncada, el problema de inversión de la profundidad por la fase toma la forma : z=C 1 μ, donde los valores experimentales de C 1 se sitúan típicamente entre 1.5 y 2. Si bien la determinación de fb no es posible en el caso de datos térmicos incorrectamente muestreados, los perfiles de fase exhiben de cualquier manera un comportamiento característico que puede ser utilizado para la extracción de la profundidad. La frecuencia límite aparente f’b , puede ser definida como la frecuencia límite evaluada en un umbral de fase dado φd , y puede utilizarse en combinación con la definición de la fase para una onda térmica: φ=z /μ, y el diámetro normalizado Dn , para derivar una expresión alternativa. La determinación de la profundidad en este caso, requiere de una etapa adicional para recuperar el tamaño del defecto.
4

Nouvelles méthodes de codage vidéo distribué

Huchet, Grégory 16 April 2018 (has links)
De nos jours certaines applications vidéo de par des limitations de mémoire et de capacités de calculs requièrent un système où l'encodage d'une séquence vidéo doit être le plus simple possible. Le codage vidéo distribué nouveau paradigme de la compression vidéo semble prometteur pour ce genre de demande. Il permet une compression peu complexe de séquences animées. Son principe repose sur les travaux de D. Slepian et J. K. Wolf [1] ainsi que ceux de A. D. Wyner et J. Ziv [2] menés dans les années 70. La présente thèse énonce trois différentes contributions relatives au codage vidéo conventionnel et distribué. La première est un nouveau procédé de filtrage vidéo basé sur l'utilisation d'arbres de décision. Afin de réduire les artefacts visuels issus d'une trop forte compression, les arbres de décision identifient et appliquent les meilleurs coefficients de filtrage en fonction des données à filtrer. La seconde contribution concerne un schéma de codage vidéo distribué où l'on évite de transmettre au décodeur 1 information relative aux blocs de l'image les moins significatifs. De cette manière, on engendre une diminution importante du débit binaire et une réduction de la complexité de décodage. Ce schéma de codage repose sur une séparation en couche des coefficients de transformée en cosinus discret de l'image. Les coefficients DC sont les premiers à être transmis au décodeur. De là, ils sont analysés par ce dernier afin de trouver les blocs les plus significatifs de l'image. Le décodeur indique alors à l'encodeur, via un canal de retour, quels sont les coefficients AC des blocs à transmettre. Enfin, la dernière contribution consiste en une méthode de représentation binaire adaptative des images dans les procédés de codage vidéo distribué. Cette représentation permet de réduire efficacement le débit binaire et tenant compte uniquement de l'information source la plus pertinente. Ici encore cette méthode repose sur une utilisation plus efficace d 'un canal de retour.
5

Infrared image enhancement based on hybrid-domain consideration and data fusion methods

Zhang, Qiong 24 April 2018 (has links)
Au cours des dernières décennies, l’effort sur les applications de capteurs infrarouges a largement progressé dans le monde. Mais, une certaine difficulté demeure, en ce qui concerne le fait que les objets ne sont pas assez clairs ou ne peuvent pas toujours être distingués facilement dans l’image obtenue pour la scène observée. L’amélioration de l’image infrarouge a joué un rôle important dans le développement de technologies de la vision infrarouge de l’ordinateur, le traitement de l’image et les essais non destructifs, etc. Cette thèse traite de la question des techniques d’amélioration de l’image infrarouge en deux aspects, y compris le traitement d’une seule image infrarouge dans le domaine hybride espacefréquence, et la fusion d’images infrarouges et visibles employant la technique du nonsubsampled Contourlet transformer (NSCT). La fusion d’images peut être considérée comme étant la poursuite de l’exploration du modèle d’amélioration de l’image unique infrarouge, alors qu’il combine les images infrarouges et visibles en une seule image pour représenter et améliorer toutes les informations utiles et les caractéristiques des images sources, car une seule image ne pouvait contenir tous les renseignements pertinents ou disponibles en raison de restrictions découlant de tout capteur unique de l’imagerie. Nous examinons et faisons une enquête concernant le développement de techniques d’amélioration d’images infrarouges, et ensuite nous nous consacrons à l’amélioration de l’image unique infrarouge, et nous proposons un schéma d’amélioration de domaine hybride avec une méthode d’évaluation floue de seuil amélioré, qui permet d’obtenir une qualité d’image supérieure et améliore la perception visuelle humaine. Les techniques de fusion d’images infrarouges et visibles sont établies à l’aide de la mise en oeuvre d’une mise en registre précise des images sources acquises par différents capteurs. L’algorithme SURF-RANSAC est appliqué pour la mise en registre tout au long des travaux de recherche, ce qui conduit à des images mises en registre de façon très précise et des bénéfices accrus pour le traitement de fusion. Pour les questions de fusion d’images infrarouges et visibles, une série d’approches avancées et efficaces sont proposés. Une méthode standard de fusion à base de NSCT multi-canal est présente comme référence pour les approches de fusion proposées suivantes. Une approche conjointe de fusion, impliquant l’Adaptive-Gaussian NSCT et la transformée en ondelettes (Wavelet Transform, WT) est propose, ce qui conduit à des résultats de fusion qui sont meilleurs que ceux obtenus avec les méthodes non-adaptatives générales. Une approche de fusion basée sur le NSCT employant la détection comprime (CS, compressed sensing) et de la variation totale (TV) à des coefficients d’échantillons clairsemés et effectuant la reconstruction de coefficients fusionnés de façon précise est proposée, qui obtient de bien meilleurs résultats de fusion par le biais d’une pré-amélioration de l’image infrarouge et en diminuant les informations redondantes des coefficients de fusion. Une procédure de fusion basée sur le NSCT utilisant une technique de détection rapide de rétrécissement itératif comprimé (fast iterative-shrinking compressed sensing, FISCS) est proposée pour compresser les coefficients décomposés et reconstruire les coefficients fusionnés dans le processus de fusion, qui conduit à de meilleurs résultats plus rapidement et d’une manière efficace. / In recent decades, the endeavor on infrared sensor applications has been proceeding widely all through the world. But there are some problems, namely that the targets are not clear enough or cannot be distinguished easily in the image obtained for the observed scene. Infrared image enhancement has been playing a significant role of an early stage technology in infrared computer vision, image processing and non-destructive testing, etc. This thesis addresses the issue of infrared image enhancement techniques in two aspects, including the single infrared image processing in hybrid space-frequency domain, and the infrared-visible image fusion employing the nonsubsampled Contourlet transform (NSCT) technique. The image fusion can be considered as being the further exploration of the model of singe infrared image enhancement, while it combines the infrared and visible images altogether into one image to represent and protrude all useful information and characteristics from the source images, by reason that a single image could not contain all relevant or available information in terms of the restrictions stemming from any single sensor of imaging. After the investigation and review for the development of infrared image enhancement techniques, in the topic of single infrared image enhancement, a hybrid-domain enhancement scheme with a threshold-improved fuzzy evaluation method is proposed, which achieves superior image quality and human visual perception. Infrared and visible image fusion techniques are established upon the implementation of accurate registration for source images acquired by different sensors. The SURF-RANSAC algorithm is applied in the registration issue all through the entire research work, which ensures us to receive very precisely registered images and to benefit further for the fusion processing. For the infrared-visible image fusion issues, a series of advanced and effective approaches are proposed. A multi-channel NSCT-based standard fusion method is presented as a reference for the subsequently proposed fusion approaches. An Adaptive-Gaussian NSCT and Wavelet Transform (WT) based joint fusion scheme is proposed, which obtains better fusion outcomes than the general non-adaptive methods. A NSCT-based fusion approach employing compressed sensing (CS) and total variation (TV) to sample coefficients sparsely and reconstruct fused coefficients accurately is proposed, which receives much better fusion results through pre-enhancing the infrared image and decreasing the redundant fusion coefficients information. A NSCT-based fusion scheme using fast iterative-shrinking compressed sensing (FISCS) technique is proposed to compress the decomposed coefficients and reconstruct the fused coefficients in the fusion process, which is able to achieve better results more rapidly and effectively.
6

Correction et moyennage temps-réel pour mesures interférométriques par peignes de fréquence

Roy, Julien 19 April 2018 (has links)
Ce mémoire a pour but le développement d’un système interférométrique à peignes de fréquence simple d’utilisation et performant afin de démocratiser l’utilisation de cette nouvelle technologie. Dans ce mémoire, le principe d’interférométrie par peignes de fréquence est décrit ainsi que des techniques de référencement. Par la suite, le référencement est utilisé afin de concevoir un système de correction et de moyennage temps-réel. Ce mémoire présente le système optique et électronique nécessaire à la réalisation d’un tel système. Toutes les étapes de la conception de l’algorithme de correction et de moyennage y sont exposées ainsi que les différents compromis et optimisations effectués. Finalement, des mesures expérimentales prises et corrigées à l’aide du système développé sont présentées. À ce jour, la mesure d’HCN et de C¬¬2H2 ainsi que celle du micro-résonateur présentées dans ce mémoire possèdent le plus haut rapport signal sur bruit pris par un interféromètre à peignes de fréquence.
7

APIA : architecture propriété intéraction acteur pour des mondes virtuels agiles

Bernier, François 13 April 2018 (has links)
Une majorité de mondes virtuels (MVs) existants mettent l'accent sur la qualité graphique, les capacités réseaux ou sur la qualité de la modélisation. Toutefois, ces MVs manquent souvent agilité t tant au niveau de leur conception que de leur exécution. Il en résulte des MVs monolithiques avec peu de réutilisabilité. Cette thèse propose une architecture appelée "Architecture Propriété Interaction Acteur" (APIA) qui a pour objectif d'améliorer Yagilité des MVs en se concentrant sur les caractéristiques sous-jacentes : la composabilité, la réutilisabilité, la modifiabilité, l'extensibilité et une grande liberté d'action. La solution proposée consiste en une architecture générique basée sur un méta-modèle conceptuel comprenant cinq éléments de base, supportés par un processus et des algorithmes de gestion. Comparativement aux autres approches qui sont centrées sur l'entité, le métamodèle conceptuel propose un paradigme centré sur l'interaction entre les entités. Ce paradigme permet de regrouper les protocoles entre les entités et les aspects de l'interaction dans un élément du MV nommé interaction. Plusieurs exemples, dont des applications de cryochirurgie et d'inspection de barrages, viennent démontrer que les entités et les interactions sont moins interdépendantes avec cette approche. De plus, des exemples montrent que l'émergence de comportements est facilitée due à la meilleure composabilité de cette approche. Ensuite, le processus développé avec APIA définit trois groupes d'actions qui influencent à différents niveaux Yagilité future du MV. Finalement, APIA définit des algorithmes de gestion de ces actions afin de maintenir le MV cohérent tout au long des modifications, des extensions ou des compositions en cours d'exécution. Les gestionnaires qui appliquent ces algorithmes maintiennent automatiquement la cohérent du MV lors d'opérations de modification, d'extension et de composition. Ces caractéristiques sont désormais possibles en cours d'exécution sans l'intervention humaine.
8

Contrôle de la croissance de la taille des individus en programmation génétique

Gardner, Marc-André 20 April 2018 (has links)
La programmation génétique (GP) est une hyperheuristique d’optimisation ayant été appliquée avec succès à un large éventail de problèmes. Cependant, son intérêt est souvent considérablement diminué du fait de son utilisation élevée en ressources de calcul et de sa convergence laborieuse. Ces problèmes sont causés par une croissance immodérée de la taille des solutions et par l’apparition de structures inutiles dans celles-ci. Dans ce mémoire, nous présentons HARM-GP, une nouvelle approche résolvant en grande partie ces problèmes en permettant une adaptation dynamique de la distribution des tailles des solutions, tout en minimisant l’effort de calcul requis. Les performances de HARM-GP ont été testées sur un ensemble de douze problèmes et comparées avec celles de neuf techniques issues de la littérature. Les résultats montrent que HARM-GP excelle au contrôle de la croissance des arbres et du surapprentissage, tout en maintenant de bonnes performances sur les autres aspects. / Genetic programming is a hyperheuristic optimization approach that has been applied to a wide range of problems involving symbolic representations or complex data structures. However, the method can be severely hindered by the increased computational resources required and premature convergence caused by uncontrolled code growth. We introduce HARM-GP, a novel operator equalization approach that adaptively shapes the genotype size distribution of individuals in order to effectively control code growth. Its probabilistic nature minimizes the overhead on the evolutionary process while its generic formulation allows this approach to remain independent of the problem and genetic operators used. Comparative results are provided over twelve problems with different dynamics, and over nine other algorithms taken from the literature. They show that HARM-GP is excellent at controlling code growth while maintaining good overall performances. Results also demonstrate the effectiveness of HARM-GP at limiting overtraining and overfitting in real-world supervised learning problems.
9

Capture de mouvement par fusion de poses multivues pour une réadaptation en environnement virtuel

Bonenfant, Michaël 24 April 2018 (has links)
Plusieurs recherches ont démontré les avantages de la réadaptation physique assistée par la robotique ainsi que la réadaptation en environnement virtuel. Les exercices de réadaptation sont fréquemment effectués sur un système coûteux de capture de mouvement basé sur le suivi de marqueurs fixés sur le patient. L'utilisation de ce type de système nécessite du temps et l'expertise d'un clinicien. Le projet que nous proposons a pour but de supporter de tels exercices de réadaptation en plus de pallier aux problèmes des systèmes de capture de mouvement conventionnels très coûteux. Le système développé comprend un mécanisme à câbles intégré en environnement virtuel procurant un retour haptique et visuel au patient. L'estimation de la pose humaine sans marqueur est effectuée en temps réel pour permettre l'analyse du mouvement, l'affichage de l'avatar du patient ainsi que son interaction avec l'environnement virtuel. Le système de vision fait usage de capteurs 3D peu coûteux afin d'offrir un dispositif abordable pour la plupart des cliniques de réadaptation. Un tel système permet une reconfigurabilité importante afin d'optimiser les exercices de réadaptation aux besoins du patient. Ce mémoire couvre les étapes du développement du système, notamment l'approche de fusion de pose selon des points de vue multiples basée sur le filtrage particulaire. L'analyse des résultats présentés est prometteuse à différents niveaux sachant que le système est aussi très flexible et adaptable à différents contextes autres que la réadaptation, comme le milieu du divertissement. / Several works have shown the benefits of robotic assisted physical rehabilitation as well as rehabilitation in a virtual environment. Rehabilitation exercises are often performed using an expensive motion capture system based on markers attached to the patient. The use of this type of system requires time and expertise from a clinician. The project we are introducing aims to support such rehabilitation exercises in addition to avoid some of the problems of an expensive conventional motion capture systems. The developed system includes a cable mechanism integrated into a virtual environment providing haptic and visual feedback to the patient. The estimation of the human pose without marker is carried out in real-time to allow the analysis of the movement, the display of the patient avatar as well as its interaction with the virtual environment. The vision system exploit inexpensive 3D sensors to provide an affordable device for most rehabilitation clinics. That system allows enough reconfigurability to optimize the rehabilitation exercises to the needs of the patient. This thesis covers the stages of the system development, including the fusion approach based on multiple views based on particle filtering. The analysis of the results presented is promising, knowing that the system is also very flexible and adaptable to different contexts other than rehabilitation, such as the entertainment industry.
10

Spatio-temporal coverage optimization of sensor networks

Akbarzadeh, Vahab 24 April 2018 (has links)
Les réseaux de capteurs sont formés d’un ensemble de dispositifs capables de prendre individuellement des mesures d’un environnement particulier et d’échanger de l’information afin d’obtenir une représentation de haut niveau sur les activités en cours dans la zone d’intérêt. Une telle détection distribuée, avec de nombreux appareils situés à proximité des phénomènes d’intérêt, est pertinente dans des domaines tels que la surveillance, l’agriculture, l’observation environnementale, la surveillance industrielle, etc. Nous proposons dans cette thèse plusieurs approches pour effectuer l’optimisation des opérations spatio-temporelles de ces dispositifs, en déterminant où les placer dans l’environnement et comment les contrôler au fil du temps afin de détecter les cibles mobiles d’intérêt. La première nouveauté consiste en un modèle de détection réaliste représentant la couverture d’un réseau de capteurs dans son environnement. Nous proposons pour cela un modèle 3D probabiliste de la capacité de détection d’un capteur sur ses abords. Ce modèle inègre également de l’information sur l’environnement grâce à l’évaluation de la visibilité selon le champ de vision. À partir de ce modèle de détection, l’optimisation spatiale est effectuée par la recherche du meilleur emplacement et l’orientation de chaque capteur du réseau. Pour ce faire, nous proposons un nouvel algorithme basé sur la descente du gradient qui a été favorablement comparée avec d’autres méthodes génériques d’optimisation «boites noires» sous l’aspect de la couverture du terrain, tout en étant plus efficace en terme de calculs. Une fois que les capteurs placés dans l’environnement, l’optimisation temporelle consiste à bien couvrir un groupe de cibles mobiles dans l’environnement. D’abord, on effectue la prédiction de la position future des cibles mobiles détectées par les capteurs. La prédiction se fait soit à l’aide de l’historique des autres cibles qui ont traversé le même environnement (prédiction à long terme), ou seulement en utilisant les déplacements précédents de la même cible (prédiction à court terme). Nous proposons de nouveaux algorithmes dans chaque catégorie qui performent mieux ou produits des résultats comparables par rapport aux méthodes existantes. Une fois que les futurs emplacements de cibles sont prédits, les paramètres des capteurs sont optimisés afin que les cibles soient correctement couvertes pendant un certain temps, selon les prédictions. À cet effet, nous proposons une méthode heuristique pour faire un contrôle de capteurs, qui se base sur les prévisions probabilistes de trajectoire des cibles et également sur la couverture probabiliste des capteurs des cibles. Et pour terminer, les méthodes d’optimisation spatiales et temporelles proposées ont été intégrées et appliquées avec succès, ce qui démontre une approche complète et efficace pour l’optimisation spatio-temporelle des réseaux de capteurs. / Sensor networks consist in a set of devices able to individually capture information on a given environment and to exchange information in order to obtain a higher level representation on the activities going on in the area of interest. Such a distributed sensing with many devices close to the phenomena of interest is of great interest in domains such as surveillance, agriculture, environmental monitoring, industrial monitoring, etc. We are proposing in this thesis several approaches to achieve spatiotemporal optimization of the operations of these devices, by determining where to place them in the environment and how to control them over time in order to sense the moving targets of interest. The first novelty consists in a realistic sensing model representing the coverage of a sensor network in its environment. We are proposing for that a probabilistic 3D model of sensing capacity of a sensor over its surrounding area. This model also includes information on the environment through the evaluation of line-of-sight visibility. From this sensing model, spatial optimization is conducted by searching for the best location and direction of each sensor making a network. For that purpose, we are proposing a new algorithm based on gradient descent, which has been favourably compared to other generic black box optimization methods in term of performance, while being more effective when considering processing requirements. Once the sensors are placed in the environment, the temporal optimization consists in covering well a group of moving targets in the environment. That starts by predicting the future location of the mobile targets detected by the sensors. The prediction is done either by using the history of other targets who traversed the same environment (long term prediction), or only by using the previous displacements of the same target (short term prediction). We are proposing new algorithms under each category which outperformed or produced comparable results when compared to existing methods. Once future locations of targets are predicted, the parameters of the sensors are optimized so that targets are properly covered in some future time according to the predictions. For that purpose, we are proposing a heuristics for making such sensor control, which deals with both the probabilistic targets trajectory predictions and probabilistic coverage of sensors over the targets. In the final stage, both spatial and temporal optimization method have been successfully integrated and applied, demonstrating a complete and effective pipeline for spatiotemporal optimization of sensor networks.

Page generated in 0.03 seconds