• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1115
  • 544
  • 151
  • 3
  • Tagged with
  • 1789
  • 882
  • 376
  • 261
  • 256
  • 240
  • 198
  • 164
  • 158
  • 156
  • 149
  • 143
  • 129
  • 128
  • 112
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Motion based vision methods and their applications / Méthodes de vision à la motion et leurs applications

Wang, Yi January 2017 (has links)
La détection de mouvement est une opération de base souvent utilisée en vision par ordinateur, que ce soit pour la détection de piétons, la détection d’anomalies, l’analyse de scènes vidéo ou le suivi d’objets en temps réel. Bien qu’un très grand nombre d’articles ait été publiés sur le sujet, plusieurs questions restent en suspens. Par exemple, il n’est toujours pas clair comment détecter des objets en mouvement dans des vidéos contenant des situations difficiles à gérer comme d'importants mouvements de fonds et des changements d’illumination. De plus, il n’y a pas de consensus sur comment quantifier les performances des méthodes de détection de mouvement. Aussi, il est souvent difficile d’incorporer de l’information de mouvement à des opérations de haut niveau comme par exemple la détection de piétons. Dans cette thèse, j’aborde quatre problèmes en lien avec la détection de mouvement: 1. Comment évaluer efficacement des méthodes de détection de mouvement? Pour répondre à cette question, nous avons mis sur pied une procédure d’évaluation de telles méthodes. Cela a mené à la création de la plus grosse base de données 100\% annotée au monde dédiée à la détection de mouvement et organisé une compétition internationale (CVPR 2014). J’ai également exploré différentes métriques d’évaluation ainsi que des stratégies de combinaison de méthodes de détection de mouvement. 2. L’annotation manuelle de chaque objet en mouvement dans un grand nombre de vidéos est un immense défi lors de la création d’une base de données d’analyse vidéo. Bien qu’il existe des méthodes de segmentation automatiques et semi-automatiques, ces dernières ne sont jamais assez précises pour produire des résultats de type “vérité terrain”. Pour résoudre ce problème, nous avons proposé une méthode interactive de segmentation d’objets en mouvement basée sur l’apprentissage profond. Les résultats obtenus sont aussi précis que ceux obtenus par un être humain tout en étant 40 fois plus rapide. 3. Les méthodes de détection de piétons sont très souvent utilisées en analyse de la vidéo. Malheureusement, elles souffrent parfois d’un grand nombre de faux positifs ou de faux négatifs tout dépendant de l’ajustement des paramètres de la méthode. Dans le but d’augmenter les performances des méthodes de détection de piétons, nous avons proposé un filtre non linéaire basée sur la détection de mouvement permettant de grandement réduire le nombre de faux positifs. 4. L’initialisation de fond ({\em background initialization}) est le processus par lequel on cherche à retrouver l’image de fond d’une vidéo sans les objets en mouvement. Bien qu’un grand nombre de méthodes ait été proposé, tout comme la détection de mouvement, il n’existe aucune base de donnée ni procédure d’évaluation pour de telles méthodes. Nous avons donc mis sur pied la plus grosse base de données au monde pour ce type d’applications et avons organisé une compétition internationale (ICPR 2016). / Abstract : Motion detection is a basic video analytic operation on which many high-level computer vision tasks are built upon, e.g., pedestrian detection, anomaly detection, scene understanding and object tracking strategies. Even though a large number of motion detection methods have been proposed in the last decades, some important questions are still unanswered, including: (1) how to separate the foreground from the background accurately even under extremely challenging circumstances? (2) how to evaluate different motion detection methods? And (3) how to use motion information extracted by motion detection to help improving high-level computer vision tasks? In this thesis, we address four problems related to motion detection: 1. How can we benchmark (and on which videos) motion detection method? Current datasets are either too small with a limited number of scenarios, or only provide bounding box ground truth that indicates the rough location of foreground objects. As a solution, we built the largest and most objective motion detection dataset in the world with pixel accurate ground truth to evaluate and compare motion detection methods. We also explore various evaluation metrics as well as different combination strategies. 2. Providing pixel accurate ground truth is a huge challenge when building a motion detection dataset. While automatic labeling methods suffer from a too large false detection rate to be used as ground truth, manual labeling of hundreds of thousands of frames is extremely time consuming. To solve this problem, we proposed an interactive deep learning method for segmenting moving objects from videos. The proposed method can reach human-level accuracies while lowering the labeling time by a factor of 40. 3. Pedestrian detectors always suffer from either false positive detections or false negative detections all depending on the parameter tuning. Unfortunately, manual adjustment of parameters for a large number of videos is not feasible in practice. In order to make pedestrian detectors more robust on a large variety of videos, we combined motion detection with various state-of-the-art pedestrian detectors. This is done by a novel motion-based nonlinear filtering process which improves detectors by a significant margin. 4. Scene background initialization is the process by which a method tries to recover the RGB background image of a video without foreground objects in it. However, one of the reasons that background modeling is challenging is that there is no good dataset and benchmarking framework to estimate the performance of background modeling methods. To fix this problem, we proposed an extensive survey as well as a novel benchmarking framework for scene background initialization.
42

Evaluation des systèmes d'intelligence épidémiologique appliqués à la détection précoce des maladies infectieuses au niveau mondial. / Evaluation of epidemiological intelligence systems applied to the early detection of infectious diseases worldwide.

Barboza, Philippe 16 December 2014 (has links)
Nos travaux ont démontré les performances des systèmes d’intelligence épidémiologique en matière de détection précoce des évènements infectieux au niveau mondial, la valeur ajoutée spécifique de chaque système, la plus grande sensibilité intrinsèque des systèmes modérés et la variabilité du type de source d’information utilisé. La création d’un système virtuel combiné intégrant le meilleur résultat des sept systèmes a démontré les gains en termes de sensibilité et de réactivité, qui résulterait de l’intégration de ces systèmes individuels dans un supra-système. Ils ont illustrés les limites de ces outils et en particulier la faible valeur prédictive positive des signaux bruts détectés, la variabilité les capacités de détection pour une même pathologie, mais également l’influence significative jouée par le type de pathologie, la langue et la région de survenue sur les capacités de détection des évènements infectieux. Ils ont établis la grande diversité des stratégies d’intelligence épidémiologique mises en œuvre par les institutions de santé publique pour répondre à leurs besoins spécifiques et l’impact de ces stratégies sur la nature, l’origine géographique et le nombre des évènements rapportés. Ils ont également montré que dans des conditions proches de la routine, l’intelligence épidémiologique permettait la détection d’évènements infectieux en moyenne une à deux semaines avant leur notification officielle, permettant ainsi d’alerter les autorités sanitaires et d’anticiper la mise en œuvre d’éventuelles mesures de contrôle. Nos travaux ouvrent de nouveaux champs d’investigations dont les applications pourraient être importantes pour les utilisateurs comme pour les systèmes. / Our work demonstrated the performance of the epidemic intelligence systems used for the early detection of infectious diseases in the world, the specific added value of each system, the greater intrinsic sensitivity of moderated systems and the variability of the type information source’s used. The creation of a combined virtual system incorporating the best result of the seven systems showed gains in terms of sensitivity and timeliness that would result from the integration of these individual systems into a supra-system. They have shown the limits of these tools and in particular: the low positive predictive value of the raw signals detected, the variability of the detection capacities for the same disease, but also the significant influence played by the type of pathology, the language and the region of occurrence on the detection of infectious events. They established the wide variety of epidemic intelligence strategies used by public health institutions to meet their specific needs and the impact of these strategies on the nature, the geographic origin and the number of events reported. As well, they illustrated that under conditions close to the routine, epidemic intelligence permitted the detection of infectious events on average one to two weeks before their official notification, hence allowing to alert health authorities and therefore the anticipating the implementation of eventual control measures. Our work opens new fields of investigation which applications could be important for both users systems.
43

Système d'acquisition de données et de contrôle du détecteur à gouttelettes surchauffées dans le cadre du projet PICASSO

Gornea, Razvan Stefan January 2002 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
44

Nouvelle méthode d'élaboration par voie sol-gel des couches minces de dioxyde d'étain : Applications à la détection à température ambiante d'ozone et d'ammoniac

Gaddari, Abdelhadi 02 July 2013 (has links) (PDF)
Les températures classiques de fonctionnement de la plupart des capteurs chimiques de gaz sont généralement supérieures à 300°C, ce qui ne représente pas les conditions favorables de leur fonctionnement en termes de stabilité, répétabilité et consommation énergétique. Pour ce, dans ce travail, nous avons développé une nouvelle méthode d'élaboration par voie sol-gel des couches minces à base de dioxyde d'étain(SnO2) sensibles à la détection de l'ozone et de l'ammoniac à température ambiante et à l'état de traces. L'ajustement des paramètres expérimentaux relatifs à ce procédé (solvant, concentration du dispersant, température et temps de recuit,...) a permis d'optimiser les conditions de préparation des couches minces et par la suite de contrôler les caractéristiques chimiques et texturales des couches sensibles développées. Dans cette étude les précurseurs du SnO2 ont été préparés selon deux approches.[...]Les résultats de détection de gaz ont montré qu'à l'inverse des couches élaborées par voie aqueuse qui sont quasiment insensibles à l'ozone, le procédé sol-gel en milieu alcoolique a permis de développer des couches très sensibles à ce gaz à des teneurs de l'ordre de 60 ppb, inférieures au seuil limite autorisé qui est de 75 ppb. L'originalité de ce travail porte sur le fait que les couches développées permettent la détection de O3 à température ambiante, ce dont aucune étude antérieure ne faisait état à l'origine de ce travail. Pour l'ammoniac, les deux voies de synthèse ont permis d'élaborer avec succès des capteurs sensibles à ce gaz, à température ambiante. La concentration minimale détectée de l'ordre de 5 ppm est inférieure aux 16,7 ppm correspondant au niveau maximum autorisé pour la détection olfactive par l'humain. Les performances de détection des deux gaz cibles, à température ambiante, ont été améliorées par addition dans les sols d'étain de surfactant (TX-100). En effet, les réponses des couches déposées en présence de surfactant ont été multipliées par un facteur 1,5 pour l'ozone et de 2 pour l'ammoniac, comparées avec celles des capteurs SnO2 sans additif.[...]
45

Nouvelle méthode d'élaboration par voie sol-gel des couches minces de dioxyde d'étain : Applications à la détection à température ambiante d'ozone et d'ammoniac / A novel method for the synthesis of tin dioxide sol-gel derived thin films : applicationsto the detection of ozone and ammonia at room temperature

Gaddari, Abdelhadi 02 July 2013 (has links)
Les températures classiques de fonctionnement de la plupart des capteurs chimiques de gaz sont généralement supérieures à 300°C, ce qui ne représente pas les conditions favorables de leur fonctionnement en termes de stabilité, répétabilité et consommation énergétique. Pour ce, dans ce travail, nous avons développé une nouvelle méthode d’élaboration par voie sol-gel des couches minces à base de dioxyde d’étain(SnO2) sensibles à la détection de l’ozone et de l’ammoniac à température ambiante et à l’état de traces. L’ajustement des paramètres expérimentaux relatifs à ce procédé (solvant, concentration du dispersant, température et temps de recuit,…) a permis d’optimiser les conditions de préparation des couches minces et par la suite de contrôler les caractéristiques chimiques et texturales des couches sensibles développées. Dans cette étude les précurseurs du SnO2 ont été préparés selon deux approches.[...]Les résultats de détection de gaz ont montré qu’à l’inverse des couches élaborées par voie aqueuse qui sont quasiment insensibles à l’ozone, le procédé sol-gel en milieu alcoolique a permis de développer des couches très sensibles à ce gaz à des teneurs de l’ordre de 60 ppb, inférieures au seuil limite autorisé qui est de 75 ppb. L’originalité de ce travail porte sur le fait que les couches développées permettent la détection de O3 à température ambiante, ce dont aucune étude antérieure ne faisait état à l’origine de ce travail. Pour l’ammoniac, les deux voies de synthèse ont permis d’élaborer avec succès des capteurs sensibles à ce gaz, à température ambiante. La concentration minimale détectée de l’ordre de 5 ppm est inférieure aux 16,7 ppm correspondant au niveau maximum autorisé pour la détection olfactive par l’humain. Les performances de détection des deux gaz cibles, à température ambiante, ont été améliorées par addition dans les sols d’étain de surfactant (TX-100). En effet, les réponses des couches déposées en présence de surfactant ont été multipliées par un facteur 1,5 pour l’ozone et de 2 pour l’ammoniac, comparées avec celles des capteurs SnO2 sans additif.[...] / The conventional operating temperatures of most chemical gas sensors are generally above 300°C, which are not favorable to their functioning in terms of stability, repeatability and energy consumption. For this reason, in this study, we have developed a new method of thin film synthesis via sol-gel process, based on tin dioxide (SnO2) sensitive detection of very low ozone and ammonia concentrations at room temperature (RT). The adjustment of the experimental parameters (solvent, concentration of dispersant, temperature and annealing time,...) has been optimized for the preparation of SnO2 thin films highly sensitive to these target gases at RT. The precursors of SnO2 were prepared using two approaches. The first one is a synthesis pathway in which an aqueous solution of tin tetrachloride (SnCl4) is neutralized with an aqueous solution of ammonia (NH3, H2O). The second one consists of a synthesis of tin(IV) tetraethoxide by organic way via an alcoholysis reaction of anhydrous SnCl4 in absolute ethanol in the presence of triethylamine. To better control the texture of SnO2 layers obtained by this last route, small amounts of surfactant TX-100 were added to the alcoholic sol. The results particularly highlighted the importance of the nature of the solvent, annealing conditions and the concentration TX-100 on the composition and morphology of sensitive layers. This study showed that the materials synthesized by alcoholic way (SnO2(al)) have crystallites size more important than those prepared by aqueous method (SnO2(aq)), but most especially, the SnO2(al) surface is weakly hydrated, compared to that of SnO2(aq). Moreover, the microscopic analysis revealed evident differences between the two layer morphologies. In fact, the SnO2(al) films exhibit porous nanostructures whereas the SnO2(aq) layer rather appeared as a continuous film with a low porosity. The electrical responses showed that both kinds of sensitive layers enabled the detection of ozone but the sensitivity was higher for the SnO2(al) layers compared to that of SnO2(aq) thin films. The alcoholic sol–gel process enabled the development of very sensitive layers to ozone, working at ambient temperature since concentrations lower than 60 ppb were detected. This value is lower than the limit ozone detection threshold which is 75 ppb. As regards the sensitivity to the ammonia, both synthesis ways enabled its detection at room temperature. The minimum concentration detected was 5 ppm, which is less than 16.7 ppm, corresponding to the maximum level allowed for olfactive detection. In addition, it was demonstrated that the performance of ozone and ammonia detection at room temperature, was improved by the addition of surfactant (TX-100) in the organic sol. Indeed, the sensitivities of SnO2(al) layers prepared in the presence of TX-100 were multiplied by 1.5 and 2 for ozone and ammoniac respectively compared to those of SnO2(al) sensors without additive. The results of the physico-chemical characterization and the electrical responses using both layers led to the proposition of ozone and ammonia detection mechanisms using tin dioxidebased gas sensors.Finally, the development, by a simple and inexpensive sol–gel method, of novel tin dioxidesensors able to monitor ozone and ammonia gases at room temperature, was successfullyachieved. This original and multidisciplinary study, presents new and original results concerning the detection of ozone and ammonia whose detection was up to now reported to be possible at trace levels only by using metal oxide-based sensors working at high temperatures. This approach shed new light on fabricating toxic gas sensors based on metal oxides operating at room temperature.
46

Détection de visages en domaines compressés

Manfredi, Guido January 2011 (has links)
Ce mémoire aborde le problème de la détection de visages à partir d'une image compressée. Il touche également à un problème connexe qui est la qualité des standards de compression et l'estimation de celle-ci. Ce mémoire est organisé sous la forme d'une introduction générale sur la détection de visages et de deux articles soumis à des conférences internationales. Le premier article propose une amélioration de la méthode classique pour comparer la qualité de deux standards. Le deuxième propose une méthode de décompression spécialisée pour faire fonctionner le détecteur de visages de Viola-Jones dans le domaine compressé.
47

Détection de charge rapide radiofréquence

Roy, Anne-Marie January 2015 (has links)
Dans ce travail, un circuit de détection de charge radiofréquence est construit et caractérisé à l'aide d'un dispositif de boîte quantique. Les radiofréquences permettent d'obtenir des mesures résolues en temps plus rapides par rapport à la méthode classique en courant continu. Cette méthode de détection est effectuée par réflectométrie d'un circuit RLC résonant dont fait partie le détecteur de charge du dispositif. L'intégration d'un condensateur à capacité variable à large plage est étudiée. On trouve que cette composante est nécessaire à l'adaptation rapide et efficace des nouveaux dispositifs au circuit. En plus de la capacité variable, le circuit comporte plusieurs paramètres à optimiser. Il s'agit de la conductance du détecteur de charge, la fréquence et la puissance du signal radiofréquence. Un protocole d'optimisation de ces paramètres a été mis sur pied. On obtient la sensibilité à la conductance du circuit radiofréquence de détection de charge. Elle est équivalente à celle des meilleurs circuits présents dans la littérature. On propose d'améliorer le détecteur de charge du dispositif, pour obtenir une meilleure sensibilité à la charge. Le circuit radiofréquence permet également d'effectuer la caractérisation du couplage tunnel d'un dispositif de double boîte quantique en silicium par la méthode des statistiques de comptage. Cette mesure aurait été impossible avec le circuit en courant continu. On a pu confirmer le comportement exponentiel du couplage tunnel en fonction de la tension appliquée sur une grille électrostatique. Les résultats de ce mémoire confirment que le circuit de détection de charge radiofréquence construit permet d'effectuer des mesures avec une meilleure résolution temporelle qu'en courant continu. Cette résolution ouvre la porte à une toute une gamme de mesures sur les dispositifs de boîtes quantiques qui étaient impossibles avec le circuit précédent, telles que la mesure en temps réel du spin de l'électron.
48

Interface de contrôle automatisé d’un système de caméras robotisées pour la télétraumatologie

Tran Thanh, Thanh Tung January 2011 (has links)
De nos jours, la télémédecine est appliquée universellement dans plusieurs domaines de la médecine comme la radiologie, la pathologie et la psychiatrie. Depuis 2004, le Centre hospitalier universitaire de Sherbrooke (CHUS), la Faculté de médecine et des sciences de la santé et la Faculté de génie de l’Université de Sherbrooke développent un système des caméras robotisées permettant à un traumatologue d’interagir à distance avec un médecin intervenant en salle d’urgence, dans un contexte de télétraumatologie. Ce système demande au traumatologue de contrôler et de positionner les caméras tout en observant l’intervention. Afin qu’il puisse se concentrer le plus possible sur l’intervention chirurgicale au lieu de s’attarder au contrôle du système, une assistance de positionnement des caméras s’avérerait utile. L’objectif de ce projet est de concevoir une interface qui permet de positionner automatiquement les caméras robotisées tout en laissant la possibilité à l’opérateur de les déplacer directement au besoin. Pour ce faire, l’interface de contrôle automatisé utilise des algorithmes de traitement d’images permettant le suivi d’éléments visuels, la détection d’obstructions dans la scène observée et l’approximation de coordonnées tridimensionnelles d’un point dans l’image. Elle exploite deux modes de contrôle : l’opérateur sélectionne une zone d’intérêt directement dans la vue vidéo, ou identifie une région d’intérêt qui est suivie automatiquement par le système, et qui permet au besoin que les deux bras regardent simultanément le dit objet de deux points de vue différents. Avec la détection d’obstructions, l’interface est en mesure de repositionner automatiquement les caméras pour garder la vue sur la zone ou la région d’intérêt. Des tests pré-cliniques menés au Laboratoire de robotique intelligente, interactive et interdisciplinaire de l’Université de Sherbrooke permettent d’évaluer l’efficacité et la pertinence de l’interface de contrôle automatisé. Malgré certaines limitations inhérentes à la rapidité de traitement des commandes de positionnement des caméras intégrées au système, l’analyse des résultats suggère que l’interface de contrôle automatisé est conviviale et diminue la charge cognitive des opérateurs. La performance avec l’interface de contrôle automatisé permettant la sélection de la zone d’intérêt est plus élevée que l’interface de contrôle nonautomatisé (dite manuel, demandant le positionnement manuel des bras robotisés et des caméras), tandis que la performance de l’interface de contrôle automatisé permettant de sélectionner et de suivre une région d’intérêt simultanément par les deux caméras est moins élevée que l’interface de contrôle manuel.
49

DÉTECTION DE PLANÈTES EXTRASOLAIRES PAR LA MÉTHODE DES MICROLENTILLES GRAVITATIONNELLES ET ATMOSPHÈRES PLANÉTAIRES

Batista, Virginie 30 November 2010 (has links) (PDF)
Au cours des 15 dernières années, plus de 500 exoplanètes ont été détectées, révélant l'existence de systèmes souvent très différents du nôtre. Ces découvertes ont profondément affecté notre compréhension des mécanismes de formation des systèmes planétaires et de leur évolution dynamique. Aujourd'hui, les deux défis principaux sont d'estimer l'abondance des planètes jusqu'aux masses telluriques et d'effectuer la transition de la détection vers la caractérisation des exoplanètes. Cette thèse apporte une contribution sur les deux aspects, détection d'exoplanètes par microlentilles gravitationnelles et de molécules dans les atmosphères. Les microlentilles gravitationnelles ont permis de détecter 20 exoplanètes (publiées ou en cours de publication), incluant deux super-Terres de 3.2 et 5.5 $M_\oplus$. Bien que ce nombre soit modeste, cette technique permet l'exploration de systèmes inaccessibles via d'autres methodes, ayant son maximum de sensibilité au-delà de la limite des glaces. Nous détaillons tout d'abord l'analyse d'un évènement de haute amplification et sa sensibilité à la présence potentielle d'une planète. Avec une étoile à 5.5 kpc du système solaire, un compagnon de type terrestre orbitant à quelques UA aurait pu être détecté. Cette analyse d'efficacité de détection a contribué à une étude plus large visant à estimer l'abondance de planètes au sein de la Galaxie, montrant que les Saturne glacées sont abondantes. Nous traitons ensuite d'un évènement impliquant une planète massive orbitant une étoile naine et discutons de la faible probabilité d'existence d'un tel système selon les théories de formation planétaire du modèle d'accrétion de coeur. La prise en compte d'effets du second ordre dans la modélisation de cet évènement, doublée d'une analyse bayesienne à partir des distributions de vitesse et de luminosité des étoiles de la Galaxie, a permis de contraindre la dynamique du système. Enfin, la découverte d'une planète de type Neptune dont j'ai participé à la détection est présentée. Sur le thème des atmosphères planétaires, nous présentons l'analyse du Jupiter chaud HD209458b basée sur des mesures de transits primaires par Spitzer dans l'infrarouge. J'ai développé un algorithme de type MCMC adapté aux courbes de transits afin d'estimer les paramètres physiques et orbitaux de la planète. Ces paramètres constituent alors des données d'entrée pour les modèles d'atmosphère planétaire. Le spectre en transmission de HD209458b est dominé par l'absorption de vapeur d'eau.
50

Etude de méthodes de détection de foyers de scolytes (Coleoptera, Curculionidae) dans l'est de la France. Comparaison de techniques d'inventaires au sol, de surveillance aéroportée et de télédétection aérienne et satellitaire

Delplace, David 08 February 2008 (has links)
La détection précoce de foyers de scolytes est une étape déterminante des opérations phytosanitaires qui doivent permettre de réduire l’impact indirect des tempêtes sur les forêts de conifères, en particulier l’impact du typographe sur les pessières. Cette détection doit idéalement être efficace, précise et économique. La présente thèse portait sur le typographe, Ips typographus, en pessière dans le massif vosgien. Elle visait à étudier et à comparer les performances en termes de précision (détection, localisation et inventaire), de coût et de rapidité de mise en œuvre de différentes méthodes de détection: la surveillance au sol, la détection aéroportée par un observateur embarqué (hélicoptère et ULM), et la télédétection (photographies aérienne infrarouge et imagerie satellitaire à haute et très haute résolution). Dans le chapitre « techniques de détection au sol », nous avons évalué plusieurs méthodes de suivi (par transects, le long des routes carrossables et chemins forestiers, des courbes de niveau, à partir des foyers antérieurs, le long de parcours conditionnels liés aux foyers observés). Leurs performances ont été estimées via des simulations sous SIG (système d’information géographique) et les trajets qui ont présenté les meilleurs résultats ont ensuite fait l’objet d’une validation sur le terrain. Il en ressort que ce sont les trajets le long des routes carrossables et chemins forestiers ainsi que les trajets conditionnels qui présentent les meilleurs rapports efficacité/rendement dans la détection des foyers de scolytes. Le choix d’une de ces méthodes dépendra de la taille minimum des foyers que l’on veut observer. Nous avons ensuite évalué, dans le chapitre « détection aéroportée », les performances de techniques d’observations de foyers réalisées par un observateur embarqué à bord d’un hélicoptère et d’un ULM. Une première étape a consisté à optimaliser toute une série de paramètres de vol pour les deux types d’appareils afin de permettre à l’observateur embarqué d’être dans les meilleures conditions d’observation. Ensuite, nous avons évalué la précision de détection en fonction de divers types de trajets en ULM et hélicoptère. D’après nos résultats, les observations recueillies à l’aide des deux sortes appareils n’ont pas permis de détecter de manière satisfaisante les foyers de scolytes quelque soit le type de trajet utilisé. Ces résultats sont sans-doute dus, en partie, à la faible expérience des observateurs embarqués mais également aux caractéristiques spatiales des foyers d’infestation qui ne facilitent pas leur détection par ce genre de méthode. Enfin, dans le chapitre « télédétection », nous avons évalué les performances qu’offrent (1) des séries temporelles d’images SPOT, (2) la photographie aérienne infrarouge et (3) des images Quickbird dans la détection de foyers de scolytes. Pour tous ces types d’images, nous avons estimé la précision d’une classification automatique des foyers d’infestation, réalisée à partir de leurs caractéristiques spectrales, texturales et environnementales, par rapport aux autres éléments présents sur l’image. Ces analyses ont mis en évidence qu’il est possible d’atteindre une précision de classification relativement bonne (>80%) des foyers d’infestation sur des photographies aériennes et sur des images satellites à très haute résolution spatiale (Quickbird) grâce à des techniques de segmentation et de classification par arbre de décision. Par contre, il ne nous a pas été possible de déterminer de façon satisfaisante la précision de classification des images SPOT (haute résolution spatiale). Les résultats détaillés de chacune de ces méthodes de détections sont développés dans les différents chapitres de cette thèse. La discussion générale met ceux-ci en relation en abordant leurs avantages et inconvénients respectifs, et aborde les perspectives découlant de nos résultats.

Page generated in 0.4752 seconds