• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 3
  • 1
  • Tagged with
  • 3
  • 3
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Analyse de contour dentaire des ursidés pléistocènes et actuels : caractérisation et étude des causes de la variabilité morphologique des dents jugales / Dental outline analysis in pleistocene and extant ursids : characterization and study of causes of cheek tooth morphological variability

Goubel, Hélène 29 November 2011 (has links)
Les ursidés (Mammalia, Carnivora, Ursidae) représentent une part importante du registre fossile au Pléistocène moyen et supérieur. Pour l’ours des cavernes (Ursus deningeri– Ursus spelaeus), de nombreux débats s’articulent autour de son régime alimentaire. Des caractères dentaires, tels que les dimensions et le relief occlusal, suggèrent une alimentation végétarienne exclusive, mais de récents travaux argumentent en faveur d’un spectre alimentaire plus omnivore. Les dents d’ours des cavernes et brun (Ursus arctos) montrent aussi une importante variabilité morphologique difficile à quantifier et à interpréter par la morphométrie traditionnelle. Une analyse des contours via la transformée de Fourier elliptique a été appliquée sur les dents jugales d’ursidés fossiles et actuels afin d’étudier la variabilité de forme, en complément d’une analyse traditionnelle. Un test préliminaire a d’abord été effectué sur une population d’U. spelaeus (grottes de Montaigle, Belgique). Puis, les séquences de Sous-Scladina et Scladina (Sclayn, Belgique) ont été analysées afin d’observer les variabilités de taille et de forme au cours du temps. Certains ursidés actuels, tels le panda géant Ailuropoda melanoleuca et l’ours blanc Ursus maritimus, sont spécialisés, tandis que d’autres sont plus généralistes (i. e. l’ours brun). Après avoir appliqué la méthode sur les ursidés actuels, une approche actualiste a été testée en intégrant des ursidés fossiles provenant de plusieurs localités. Certains caractères indiqueraient une alimentation plus végétarienne pour l’ours brun archaïque et plus variée pour l’ours des cavernes. / Ursid (Mammalia, Carnivora, Ursidae) remains are often found in abundance in the fossil records of Middle and Upper Pleistocene. For the extinct cave bear (Ursus deningeri – Ursus spelaeus), many debates currently focus on its diet. Dental features such as the dimensions and the occlusal relief suggest an exclusively vegetarian diet, but recent studies indicate a more omnivorous range food. Cave and brown bear (Ursus arctos) teeth also show a strong morphological variability, difficult to quantify and to interpret using traditional morphometrics. To complete these traditional analyses, an outline analysis via the elliptic Fourier transform has been performed on fossil and extant bear cheek teeth to assess the shape variability. Firstly, a population of U. spelaeus (Montaigle Caves, Belgium) has been tested. Then, the sequences of Sous-Scladina and Scladina Caves (Sclayn, Belgium) have been considered to assess size and shape modifications through time. Some extant bears, such as the giant panda Ailuropoda melanoleuca or the polar bear Ursus maritimus show a high diet specialization, whereas some extant ursids are generalist (i. e. the brown bear). After applying the method on the main extant taxa to establish an actual framework, an actualist approach has been finally tested by adding fossil bears from several localities. Few dental features suggest a more vegetarian archaic brown bear, whereas the cave bear diet would be more diversified than presumed.
2

Restauration adaptative des contours par une approche inspirée de la prédiction des performances

Rousseau, Kami January 2008 (has links)
En télédétection, les cartes de contours peuvent servir, entre autres choses, à la restitution géométrique, à la recherche d'éléments linéaires, ainsi qu'à la segmentation. La création de ces cartes est faite relativement tôt dans la chaîne de traitements d'une image. Pour assurer la qualité des opérations subséquentes, il faut veiller à obtenir une carte de contours précise. Notre problématique est de savoir s'il est possible de diminuer la perte de temps liée au choix d'algorithme et de paramètre en corrigeant automatiquement la carte de contours. Nous concentrerons donc nos efforts sur le développement d'une méthode de détection/restauration de contours adaptative. Notre méthode s'inspire d'une technique de prédiction des performances d'algorithmes de bas niveau. Elle consiste à intégrer un traitement par réseau de neurones à une méthode"classique" de détection de contours. Plus précisément, nous proposons de combiner la carte de performances avec la carte de gradient pour permettre des décisions plus exactes. La présente étude a permis de développer un logiciel comprenant un réseau de neurones entraîné pour prédire la présence de contours. Ce réseau de neurones permet d'améliorer les décisions de détecteurs de contours, en réduisant le nombre de pixels de fausses alarmes et de contours manqués. La première étape de ce travail consiste en une méthode d'évaluation de performance pour les cartes de contours. Une fois ce choix effectué, il devient possible de comparer les cartes entre elles. Il est donc plus aisé de déterminer, pour chaque image, la meilleure détection de contours. La revue de la littérature réalisée simultanément a permis de faire un choix d'un groupe d'indicateurs prometteurs pour la restauration de contours. Ces derniers ont servi à la calibration et à l'entrainement d'un réseau de neurones pour modéliser les contours. Par la suite, l'information fournie par ce réseau a été combinée par multiplication arithmétique avec les cartes d'amplitudes de détecteurs"classiques" afin de fournir de nouvelles cartes d'amplitude du gradient. Le seuillage de ces contours donne des cartes de contours"optimisées". Sur les images aéroportées du jeu de données South Florida, la médiane des mesures-F de la pour l'algorithme de Sobel passe de 51,3 % avant la fusion à 56,4 % après. La médiane des mesures-F pour l'algorithme de Kirsch amélioré est de 56,3 % et celle de Frei-Chen amélioré est de 56,3 %. Pour l'algorithme de Sobel avec seuillage adaptatif, la mesure-F médiane est de 52,3 % avant fusion et de 57,2 % après fusion.En guise de comparaison, la mesure-F médiane pour le détecteur de Moon, mathématiquement optimal pour contours de type"rampe", est de 53,3 % et celle de l'algorithme de Canny, est de 61,1 %. L'applicabilité de notre algorithme se limite aux images qui, après filtrage, ont un rapport signal sur bruit supérieur ou égal à 20. Sur les photos au sol du jeu de données de South Florida, les résultats sont comparables à ceux obtenus sur les images aéroportées. Par contre, sur le jeu de données de Berkeley, les résultats n'ont pas été concluants. Sur une imagette IKONOS du campus de l'Université de Sherbrooke, pour l'algorithme de Sobel, la mesure-F est de 45,7 % «0,9 % avant la fusion et de 50,8 % après. Sur une imagette IKONOS de l'Agence Spatiale Canadienne, pour l'algorithme de Sobel avec seuillage adaptatif, la mesure-F est de 35,4 % «0,9 % avant la fusion et de 42,2 % après. Sur cette même image, l'algorithme de Argyle (Canny sans post-traitement) a une mesure-F de 35,1 % «0,9 % avant fusion et de 39,5 % après. Nos travaux ont permis d'améliorer la banque d'indicateurs de Chalmond, rendant possible le prétraitement avant le seuillage de la carte de gradient. À chaque étape, nous proposons un choix de paramètres permettant d'utiliser efficacement la méthode proposée. Les contours corrigés sont plus fins, plus complets et mieux localisés que les contours originaux. Une étude de sensibilité a été effectuée et permet de mieux comprendre la contribution de chaque indicateur. L'efficacité de l'outil développé est comparable à celle d'autres méthodes de détection de contours et en fait un choix intéressant pour la détection de contours. Les différences de qualité observées entre notre méthode et celle de Canny semble être dues à l'utilisation, ou non, de post-traitements. Grâce au logiciel développé, il est possible de réutiliser la méthodologie; cette dernière a permis d'opérationnaliser la méthode proposée. La possibilité de réutiliser le filtre, sans réentrainement est intéressante. La simplicité du paramétrage lors de l'utilisation est aussi un avantage. Ces deux facteurs répondent à un besoin de réduire le temps d'utilisation du logiciel.
3

La détection des contours dans des images à niveaux de gris : mise en oeuvre et sélection de détecteurs

Ziou, Djemel 11 October 1991 (has links) (PDF)
La détection de contour a pour objectif l'acquisition d'une représentation compacte de toutes les propriétés significatives de la scène perçue. Elle doit être efficace et fiable, car la validité et l'efficacité ainsi que les possibilités de réalisation des traitements ultérieurs y sont directement liées. Cependant, la présence du bruit dans l'image rend difficile la conception d'un algorithme général de détection de contours satisfaisant d'une manière optimale ces exigences. C'est la raison pour laquelle de nombreux détecteurs ont été proposés souvent différents par leur objectif ainsi que par leurs propriétés mathématiques et algorithmiques. Le problème auquel se trouve souvent confronter les utilisateurs de la détection de contours est le choix du détecteur le plus approprié pour l'application envisagée. Le thème central de cette thèse est la détection de contours dans des images à niveaux de gris, en visant la mise en œuvre d'une sélection automatique de détecteurs et de leurs paramètres les plus appropriés pour mettre en évidence un contour donné. Pour disposer d'un ensemble d'outils nécessaires à la détection de contours, nous proposons deux détecteurs de contours originaux. Le premier est destiné aux lignes de crête. Il est optimal au sens de Canny et implanté efficacement par des équations aux différences. Le second est un détecteur de contours fermés de type marche fondé sur des techniques d'apprentissage. Il est destiné à des images comportant quelques objets poses sur un fond. Cet algorithme peut être utilisé pour la détection de contours et pour l'extraction de régions. La définition d'un critère de sélection de détecteurs et le calcul automatique de leurs paramètres nécessitent la spécification de la relation de cause à effet entre les caractéristiques du contour et les propriétés des détecteurs. Dans ce contexte, nous proposons une étude bibliographique approfondie et une étude théorique mettant en évidence l'influence des attributs des contours sur les performances des détecteurs. Cette étude validée par des expérimentations a permis d'obtenir des résultats originaux. En ce qui concerne la sélection des détecteurs de contours, nous proposons une approche incrémentale qui consiste à choisir un seul détecteur à chaque itération. La combinatoire de l'approche proposée est faible grâce à l'utilisation d'heuristiques. Le système implanté est composé d'algorithmes originaux. Il a l'avantage de fournir une solution efficace assurant le compromis entre deux critères de performance qui sont de nature antagoniste : la détection et la localisation.

Page generated in 0.0906 seconds