• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 3
  • 2
  • Tagged with
  • 5
  • 5
  • 5
  • 3
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Estimation semi-paramétrique et application à l’évaluation de la biomasse d'anchois / Semiparametric estimation and application to evaluate anchovy biomass

Le, Thi Xuan Mai 16 March 2010 (has links)
Notre étude est motivée par un problème d'évaluation de la biomasse, c'est à dire de la densité des œufs d'anchois à l'instant de ponte dans le golfe de Biscay-Gascogne. Les données sont les densités, c'est à dire les poids d' œufs d'anchois par unité de surface dans le golfe, collectées lors de la campagne d'échantillonnage de 1994. Le problème consiste à estimer la densité des œufs d'anchois au moment de leur ponte et le taux de mortalité. Jusqu'à présent, ce problème a été résolu en ajustant les données précédentes à un modèle classique de mortalité exponentielle. Notre analyse montre que ce modèle n'est pas adapté aux données à cause de la grande variation spatial de la densité d'œufs au moment de ponte. Or pour les données considérées, les densités A(tj,kj) des œufs au moment de ponte diffèrent de façon aléatoire selon les zones géographiques de kj ponte. Nous proposons de modéliser les A(tj,kj) comme un échantillon issu d'une variable aléatoire d'espérance a0 et ayant une densité de probabilité fA, ce qui conduit au modèle de mortalité étendue (EEM) suivant : Y (tj,kj) = A (tj,kj) e-z0tj +e(tj,kj) Le problème que nous avons à étudier alors est d'estimer les paramètres du modèle et la densité fA. Nous résolvons ce problème en deux étapes; nous commençons par estimer les paramètres par des techniques de régression, puis nous estimons la densité fA en combinant l'estimation non-paramétrique de densité, avec l'estimation du paramètre z0 et avec éventuellement une déconvolution de densités. Les résultats des études en simulations que nous réalisons corroborent les résultats théorique de la consistance / The motivation of this study is to evaluate the anchovy biomass, that is estimate the egg densities at the spawning time and the mortality rate. The data are the anchovy egg densities that are the egg weights by area unit, collected in the Gascogne bay. The problem we are faced is to estimate from these data the egg densities at the spawning time. Until now, this is done by using the classical exponential mortality model. However, such model is inadequate for the data under consideration because of the great spatial variability of the egg densities at the spawning time. They are samples of generated by a r.v whose mathematical expectation is a0 and the probability density function is fA. Therefore, we propose an extended exponential mortality model Y (tj,kj) = A (tj,kj) e-z0tj +e(tj,kj) where A(tj,kj) and e(tj,kj) are i.i.d, with the random variables A and e being assumed to be independent. Then the problem consists in estimating the mortality rate and the probability density of the random variable . We solve this semiparametric estimation problem in two steps. First, we estimate the mortality rate by fitting an exponential mortality model to averaged data. Second, we estimate the density fA by combining nonparametric estimation method with deconvolution technique and estimate the parameter z0. Theoretical results of consistence of these estimates are corroborated by simulation studies
2

ESPACEMENTS BIDIMENSIONNELS ET DONNÉES ENTACHÉES D'ERREURS DANS L'ANALYSE DES PROCESSUS PONCTUELS SPATIAUX

Cucala, Lionel 08 December 2006 (has links) (PDF)
CETTE THÈSE S'INTÉRESSE À DEUX GRANDES QUESTIONS DES PROCESSUS PONCTUELS SPATIAUX: LES ASPECTS DISTRIBUTIONNELS DES ESPACEMENTS ET L'ESTIMATION DE L'INTENSITÉ D'UN PROCESSUS PONCTUEL BRUITÉ.LA PREMIÈRE PARTIE CONCERNE LA CONSTRUCTION DE TESTS D'HOMOGÉNÉITÉ SPATIALE BASÉS SUR LES ESPACEMENTS. ENSUITE NOUS NOUS INTÉRESSONS À LA RECHERCHE D'AGRÉGATS (ZONES DE FORTE INTENSITÉ) À L'AIDE DE CES MEMES ESPACEMENTS. LA DEUXIÈME QUESTION EST ELLE TRAITÉE PAR L'INTRODUCTION D'UN ESTIMATEUR À NOYAU PRENANT EN COMPTE À LA FOIS L'INCERTITUDE SUR LES LOCALISATIONS DES ÉVÉNEMENTS ET L'OBSERVATION SUR UN DOMAINE LIMITÉ.
3

Méthodes statistiques pour l’estimation du rendement paramétrique des circuits intégrés analogiques et RF / Statistical methods for the parametric yield estimation of analog/RF integratedcircuits

Desrumaux, Pierre-François 08 November 2013 (has links)
De nombreuses sources de variabilité impactent la fabrication des circuits intégrés analogiques et RF et peuvent conduire à une dégradation du rendement. Il est donc nécessaire de mesurer leur influence le plus tôt possible dans le processus de fabrications. Les méthodes de simulation statistiques permettent ainsi d'estimer le rendement paramétrique des circuits durant la phase de conception. Cependant, les méthodes traditionnelles telles que la méthode de Monte Carlo ne sont pas assez précises lorsqu'un faible nombre de circuits est simulé. Par conséquent, il est nécessaire de créer un estimateur précis du rendement paramétrique basé sur un faible nombre de simulations. Dans cette thèse, les méthodes statistiques existantes provenant à la fois de publications en électroniques et non-Électroniques sont d'abord décrites et leurs limites sont mises en avant. Ensuite, trois nouveaux estimateurs de rendement sont proposés: une méthode de type quasi-Monte Carlo avec tri automatique des dimensions, une méthode des variables de contrôle basée sur l'estimation par noyau, et une méthode par tirage d'importance. Les trois méthodes reposent sur un modèle mathématique de la métrique de performance du circuit qui est construit à partir d'un développement de Taylor à l'ordre un. Les résultats théoriques et expérimentaux obtenus démontrent la supériorité des méthodes proposées par rapport aux méthodes existantes, à la fois en terme de précision de l'estimateur et en terme de réduction du nombre de simulations de circuits. / Semiconductor device fabrication is a complex process which is subject to various sources of variability. These variations can impact the functionality and performance of analog integrated circuits, which leads to yield loss, potential chip modifications, delayed time to market and reduced profit. Statistical circuit simulation methods enable to estimate the parametric yield of the circuit early in the design stage so that corrections can be done before manufacturing. However, traditional methods such as Monte Carlo method and corner simulation have limitations. Therefore an accurate analog yield estimate based on a small number of circuit simulations is needed. In this thesis, existing statistical methods from electronics and non-Electronics publications are first described. However, these methods suffer from sever drawbacks such as the need of initial time-Consuming circuit simulations, or a poor scaling with the number of random variables. Second, three novel statistical methods are proposed to accurately estimate the parametric yield of analog/RF integrated circuits based on a moderate number of circuit simulations: An automatically sorted quasi-Monte Carlo method, a kernel-Based control variates method and an importance sampling method. The three methods rely on a mathematical model of the circuit performance metric which is constructed based on a truncated first-Order Taylor expansion. This modeling technique is selected as it requires a minimal number of SPICE-Like circuit simulations. Both theoretical and simulation results show that the proposed methods lead to significant speedup or improvement in accuracy compared to other existing methods.
4

Reflection Symmetry Detection in Images : Application to Photography Analysis / Détection de symétrie réflexion dans les images : application à l'analyse photographique

Elsayed Elawady, Mohamed 29 March 2019 (has links)
La symétrie est une propriété géométrique importante en perception visuelle qui traduit notre perception des correspondances entre les différents objets ou formes présents dans une scène. Elle est utilisée comme élément caractéristique dans de nombreuses applications de la vision par ordinateur (comme par exemple la détection, la segmentation ou la reconnaissance d'objets) mais également comme une caractéristique formelle en sciences de l'art (ou en analyse esthétique). D’importants progrès ont été réalisés ces dernières décennies pour la détection de la symétrie dans les images mais il reste encore de nombreux verrous à lever. Dans cette thèse, nous nous intéressons à la détection des symétries de réflexion, dans des images réelles, à l'échelle globale. Nos principales contributions concernent les étapes d'extraction de caractéristiques et de représentation globale des axes de symétrie. Nous proposons d'abord une nouvelle méthode d'extraction de segments de contours à l'aide de bancs de filtres de Gabor logarithmiques et une mesure de symétrie intersegments basée sur des caractéristiques locales de forme, de texture et de couleur. Cette méthode a remporté la première place à la dernière compétition internationale de symétrie pour la détection mono- et multi-axes. Notre deuxième contribution concerne une nouvelle méthode de représentation des axes de symétrie dans un espace linéaire-directionnel. Les propriétés de symétrie sont représentées sous la forme d'une densité de probabilité qui peut être estimée, de manière non-paramétrique, par une méthode à noyauxbasée sur la distribution de Von Mises-Fisher. Nous montrons que la détection des axes dominants peut ensuite être réalisée à partir d'un algorithme de type "mean-shift” associé à une distance adaptée. Nous introduisons également une nouvelle base d'images pour la détection de symétrie mono-axe dans des photographies professionnelles issue de la base à grande échelle AVA (Aestetic Visual Analysis). Nos différentes contributions obtiennent des résultats meilleurs que les algorithmes de l'état de l'art, évalués sur toutes les bases disponibles publiquement, spécialement dans le cas multi-axes. Nous concluons que les propriétés de symétrie peuvent être utilisées comme des caractéristiques visuelles de niveau sémantique intermédiaire pour l'analyse et la compréhension de photographies. / Symmetry is a fundamental principle of the visual perception to feel the equally distributed weights within foreground objects inside an image. It is used as a significant visual feature through various computer vision applications (i.e. object detection and segmentation), plus as an important composition measure in art domain (i.e. aesthetic analysis). The development of symmetry detection has been improved rapidly since last century. In this thesis, we mainly aim to propose new approaches to detect reflection symmetry inside real-world images in a global scale. In particular, our main contributions concern feature extraction and globalrepresentation of symmetry axes. First, we propose a novel approach that detects global salient edges inside an image using Log-Gabor filter banks, and defines symmetry oriented similarity through textural and color around these edges. This method wins a recent symmetry competition worldwide in single and multiple cases.Second, we introduce a weighted kernel density estimator to represent linear and directional symmetrical candidates in a continuous way, then propose a joint Gaussian-vonMises distance inside the mean-shift algorithm, to select the relevant symmetry axis candidates along side with their symmetrical densities. In addition, we introduce a new challenging dataset of single symmetry axes inside artistic photographies extracted from the large-scale Aesthetic Visual Analysis (AVA) dataset. The proposed contributions obtain superior results against state-of-art algorithms among all public datasets, especially multiple cases in a global scale. We conclude that the spatial and context information of each candidate axis inside an image can be used as a local or global symmetry measure for further image analysis and scene understanding purposes.
5

An integrated GIS-based and spatiotemporal analysis of traffic accidents: a case study in Sherbrooke

Harirforoush, Homayoun January 2017 (has links)
Abstract: Road traffic accidents claim more than 1,500 lives each year in Canada and affect society adversely, so transport authorities must reduce their impact. This is a major concern in Quebec, where the traffic-accident risks increase year by year proportionally to provincial population growth. In reality, the occurrence of traffic crashes is rarely random in space-time; they tend to cluster in specific areas such as intersections, ramps, and work zones. Moreover, weather stands out as an environmental risk factor that affects the crash rate. Therefore, traffic-safety engineers need to accurately identify the location and time of traffic accidents. The occurrence of such accidents actually is determined by some important factors, including traffic volume, weather conditions, and geometric design. This study aimed at identifying hotspot locations based on a historical crash data set and spatiotemporal patterns of traffic accidents with a view to improving road safety. This thesis proposes two new methods for identifying hotspot locations on a road network. The first method could be used to identify and rank hotspot locations in cases in which the value of traffic volume is available, while the second method is useful in cases in which the value of traffic volume is not. These methods were examined with three years of traffic-accident data (2011–2013) in Sherbrooke. The first method proposes a two-step integrated approach for identifying traffic-accident hotspots on a road network. The first step included a spatial-analysis method called network kernel-density estimation. The second step involved a network-screening method using the critical crash rate, which is described in the Highway Safety Manual. Once the traffic-accident density had been estimated using the network kernel-density estimation method, the selected potential hotspot locations were then tested with the critical-crash-rate method. The second method offers an integrated approach to analyzing spatial and temporal (spatiotemporal) patterns of traffic accidents and organizes them according to their level of significance. The spatiotemporal seasonal patterns of traffic accidents were analyzed using the kernel-density estimation; it was then applied as the attribute for a significance test using the local Moran’s I index value. The results of the first method demonstrated that over 90% of hotspot locations in Sherbrooke were located at intersections and in a downtown area with significant conflicts between road users. It also showed that signalized intersections were more dangerous than unsignalized ones; over half (58%) of the hotspot locations were located at four-leg signalized intersections. The results of the second method show that crash patterns varied according to season and during certain time periods. Total seasonal patterns revealed denser trends and patterns during the summer, fall, and winter, then a steady trend and pattern during the spring. Our findings also illustrated that crash patterns that applied accident severity were denser than the results that only involved the observed crash counts. The results clearly show that the proposed methods could assist transport authorities in quickly identifying the most hazardous sites in a road network, prioritizing hotspot locations in a decreasing order more efficiently, and assessing the relationship between traffic accidents and seasons. / Les accidents de la route sont responsables de plus de 1500 décès par année au Canada et ont des effets néfastes sur la société. Aux yeux des autorités en transport, il devient impératif d’en réduire les impacts. Il s’agit d’une préoccupation majeure au Québec depuis que les risques d’accidents augmentent chaque année au rythme de la population. En réalité, les accidents routiers se produisent rarement de façon aléatoire dans l’espace-temps. Ils surviennent généralement à des endroits spécifiques notamment aux intersections, dans les bretelles d’accès, sur les chantiers routiers, etc. De plus, les conditions climatiques associées aux saisons constituent l’un des facteurs environnementaux à risque affectant les taux d’accidents. Par conséquent, il devient impératif pour les ingénieurs en sécurité routière de localiser ces accidents de façon plus précise dans le temps (moment) et dans l’espace (endroit). Cependant, les accidents routiers sont influencés par d’importants facteurs comme le volume de circulation, les conditions climatiques, la géométrie de la route, etc. Le but de cette étude consiste donc à identifier les points chauds au moyen d’un historique des données d’accidents et de leurs répartitions spatiotemporelles en vue d’améliorer la sécurité routière. Cette thèse propose deux nouvelles méthodes permettant d’identifier les points chauds à l’intérieur d’un réseau routier. La première méthode peut être utilisée afin d’identifier et de prioriser les points chauds dans les cas où les données sur le volume de circulation sont disponibles alors que la deuxième méthode est utile dans les cas où ces informations sont absentes. Ces méthodes ont été conçues en utilisant des données d’accidents sur trois ans (2011-2013) survenus à Sherbrooke. La première méthode propose une approche intégrée en deux étapes afin d’identifier les points chauds au sein du réseau routier. La première étape s’appuie sur une méthode d’analyse spatiale connue sous le nom d’estimation par noyau. La deuxième étape repose sur une méthode de balayage du réseau routier en utilisant les taux critiques d’accidents, une démarche éprouvée et décrite dans le manuel de sécurité routière. Lorsque la densité des accidents routiers a été calculée au moyen de l’estimation par noyau, les points chauds potentiels sont ensuite testés à l’aide des taux critiques. La seconde méthode propose une approche intégrée destinée à analyser les distributions spatiales et temporelles des accidents et à les classer selon leur niveau de signification. La répartition des accidents selon les saisons a été analysée à l’aide de l’estimation par noyau, puis ces valeurs ont été assignées comme attributs dans le test de signification de Moran. Les résultats de la première méthode démontrent que plus de 90 % des points chauds à Sherbrooke sont concentrés aux intersections et au centre-ville où les conflits entre les usagers de la route sont élevés. Ils révèlent aussi que les intersections contrôlées sont plus à risque par comparaison aux intersections non contrôlées et que plus de la moitié des points chauds (58 %) sont situés aux intersections à quatre branches (en croix). Les résultats de la deuxième méthode montrent que les distributions d’accidents varient selon les saisons et à certains moments de l’année. Les répartitions saisonnières montrent des tendances à la densification durant l’été, l’automne et l’hiver alors que les distributions sont plus dispersées au cours du printemps. Nos observations indiquent aussi que les répartitions ayant considéré la sévérité des accidents sont plus denses que les résultats ayant recours au simple cumul des accidents. Les résultats démontrent clairement que les méthodes proposées peuvent: premièrement, aider les autorités en transport en identifiant rapidement les sites les plus à risque à l’intérieur du réseau routier; deuxièmement, prioriser les points chauds en ordre décroissant plus efficacement et de manière significative; troisièmement, estimer l’interrelation entre les accidents routiers et les saisons.

Page generated in 0.0985 seconds