• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 14
  • 11
  • 2
  • 1
  • 1
  • Tagged with
  • 30
  • 16
  • 8
  • 5
  • 5
  • 5
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

On the functional significance of loyalty rewards : an experimental study with sample robust tests of covariance structure models /

Herzog, Walter. January 2007 (has links) (PDF)
Univ., Diss.--St. Gallen, 2007.
2

On heterogeneous networks under non-Gaussian interferences : experimental and theoretical aspects / Réseaux de capteurs sous interférence non-Gaussienne : aspects expérimentaux et théoriques

Araújo Moreira, Nicolas de 11 July 2019 (has links)
L’Internet des Objets représente un défi technique pour la communication 5G à cause de son hétérogénéité caractéristique : la bande 2.4 GHz ISM, par exemple, est partagée entre différents types de technologies, comme Wifi, Bluetooth et Zigbee. En plus de la perte de qualité de communication, des études récentes montrent que l’interférence augmente de façon significative la consommation d’énergie. Donc, traiter l’interférence devient une tâche importante pour assurer la réussite de la transmission de données. Cette thèse approche deux aspects différents des réseaux hétérogènes. La première partie présente une étude expérimentale sur la nature de l’interférence entre dispositifs IEEE 802.11 et 802.15.4, ses impacts dans la fiabilité de la communication et propose une description statistique. La conclusion principale est que, dans ce contexte, l’interférence présente un comportement non-Gaussien, plus précisément, impulsif. Des travaux théoriques récents alliés avec ces résultats expérimentaux montrent que la distribution α-stable est plus convenable pour représenter bruits impulsives. Cela signifie que, une fois optimal, les architectures de communication classiques basé sur assomption Gaussienne, particulièrement la méthode des moindres carrés et le récepteur linéaire, ne sont plus optimales et présentent une perte de performance significative. La deuxième partie présente une architecture MIMO basé sur codage Alamouti, estimation de canal supervisée basé sur méthode Least Absolute Deviation et récepteur p-norme avec une estimation de p. L’architecture proposée présente une performance supérieure au méthode classique. / Internet of Things represents a technical challenge for 5G communications due to is characteristic heterogeneity: the 2.4 GHz ISM band, for example, is shared between different kind of technologies, such Wifi, Bluetooth and Zigbee. In addition to the loss of quality of communication, recent studies show that interference increases significantly the energy consumption. So, dealing with interference becomes an important task to ensure successfull data transmission. The present thesis approaches two aspects of heterogeneous networks. The first part presents an experimental study on the nature of interference between IEEE 802.11 and IEEE 802.15.4 devices, its impacts on the communication reliability and proposes an statistical description of it. The main conclusion of this part is that, on this context, the interference may present a non-Gaussian behavior, more precisely, an impulsive behavior. Recent theoretical works allied with these experimental results show that the α-stable distribution is more adequate to represent impulsive noises. It means that the, once optimal, classical communication architectures based on the Gaussian assumption, particularly the Least Squares based channel estimation and linear receiver, are not optimal anymore present a significant loss of performance. The second part presents a robust MIMO architecutre based on Alamouti coding, supervised channel estimation based on Least Absolute Deviation and p-norm receiver with an estimator for p. The proposed approach outperforms the classical method.
3

Low order modelling for flow simulation, estimation and control / Réduction de modèles pour la simulation, l'estimation et le côntrole d`écoulements

Lombardi, Edoardo 03 February 2010 (has links)
L’objectif est de développer et de tester des instruments peu côuteux pour la simulation, l’estimation et le contrôle d’écoulements. La décomposition orthogonale aux valeurs propres (POD) et une projection de Galerkin des équations sur les modes POD sont utilisées pour construire des modèles d’ordre réduit des équations de Navier-Stokes incompressibles. Dans ce travail, un écoulement autour d’un cylindre carré est considéré en configuration bidimensionnelle et tridimensionnelle. Des actionneurs de soufflage/aspiration sont placés sur la surface du cylindre. Quelques techniques de calibration sont appliquées, fournissant des modèles précis, même pour les écoulements tridimensionnels avec des structures tourbillonaires compliquées. Une méthode d’estimation d’état, impliquant des mesures, est ensuite mise au point pour des écoulements instationnaires. Une calibration multi-dynamique et des techniques d’échantillonnage efficaces sont appliquées, visant à construire des modèles robustes à des variations des paramètres de contrôle. Nous amorçons une analyse de stabilité linéaire en utilisant des modèles d’ordre réduit linéarisés autour d’un état d’équilibre contrôlé. Les techniques présentées sont appliquées à écoulements autour du cylindre carré à des nombres de Reynolds compris entre Re = 40 et Re = 300. / The aim is to develop and to test tools having a low computational cost for flow simulation, estimation and control applications. The proper orthogonal decomposition (POD) and a Galerkin projection of the equations onto the POD modes are used to build low order models of the incompressible Navier-Stokes equations. In this work a flow past a square cylinder is considered in two-dimensional and three-dimensional configurations. Two blowing/suction actuators are placed on the surface of the cylinder. Calibration techniques are applied, providing stable and rather accurate models, even for three-dimensional wake flows with complicated patterns. A state estimation method, involving flow measurements, is then developed for unsteady flows. Multi-dynamic calibrations and efficient sampling techniques are applied to build models that are robust to variations of the control parameters. A linear stability analysis by using linearized low order models around a controlled steady state is briefly addressed. The presented techniques are applied to the square cylinder configuration at Reynolds numbers that range between Re = 40 and Re = 300.
4

Systèmes Robustes aux Fautes Transitoires Exploitant la Logique Asynchrone Quasi-Insensible aux Délais

Possamai Bastos, R. 09 July 2010 (has links) (PDF)
Les technologies nanoélectroniques récentes font que les circuits intégrés deviennent de plus en plus vulnérables aux fautes transitoires. Les erreurs engendrées sont aussi plus critiques que jamais auparavant. Cette thèse présente un nouvel avantage en terme de fiabilité des circuits asynchrones quasi-insensibles aux délais (QDI) : Leurs fortes résistances naturelles aux fautes transitoires de longue durée qui sont graves pour les circuits synchrones actuels. Une méthodologie pour évaluer comparativement les effets des fautes transitoires sur les circuits synchrones et asynchrones QDI est présentée. En outre, une méthode pour obtenir la résistance aux fautes transitoires des éléments mémorisants spécifiques aux circuits QDI (les portes de Muller) est également proposée. Enfin, des techniques de tolérance ont été étudiées pour augmenter encore la robustesse des portes de Muller aux fautes transitoires, et donc aussi la robustesse des systèmes asynchrones QDI.
5

Robustes Parsing und Disambiguierung mit gewichteten Transduktoren

Didakowski, Jörg January 2005 (has links)
In dieser Arbeit wird ein Verfahren für robustes Parsing von uneingeschränktem natürlichsprachlichen Text mit gewichteten Transduktoren erarbeitet. Es werden zwei linguistische Theorien, das Chunking und das syntaktische Tagging, vorgestellt, die sich besonders für die praktische Anwendung mit Finite-State Maschinen eignen. Über die formalen Grundlagen, die es möglich machen, Finite-State Maschinen zu modellieren, werden existierende Ansätze vorgestellt, die diese linguistischen Theorien mit Finite-State Maschinen realisieren. <br>Jedoch sind diese Ansätze in vieler Hinsicht problematisch. Es wird gezeigt, dass sich Probleme lösen lassen, indem Disambiguierungsstrategien durch Constraints realisiert werden, die als Gewicht bzw. Semiring vorliegen. Durch die Bestimmung des besten Pfades ist dann eine Disambiguierung möglich. Das Verfahren bewegt sich zwischen einem Low- und High-Level Parsing und behandelt flache Dependenzstrukturen. Für die Analyse wird eine rudimentäre Grammatik für das Deutsche entwickelt. Durch eine Implementierung wird letztlich der Ansatz getestet.
6

Répartition de programmes synchrones temps réel

Salem Habermehl, Rym 30 October 2001 (has links) (PDF)
La programmation synchrone est utilisée pour faciliter la description des systèmes réactifs, devant réagir de façon continue avec leur environnement physique. Ces systèmes sont souvent répartis, pour des raisons d'implantation physique ou de tolérance aux fautes. D'autre part, de tels systèmes sont aussi critiques et temps-réel. Le but de ce travail est d'étudier des méthodologies d'implantation de tels systèmes sur des réseaux de calculateurs. Nous montrons comment l'application de la programmation synchrone pose des problèmes de robustesse pour la programmation de tels systèmes en raison de la non correspondance du temps logique au temps réel. Nous étudions la robustesse dans divers cas: systèmes continus et systèmes discrets. En particulier nous fournissons des outils de simulation pour des architectures réparties quasi-synchrones et des outils de vérification de la robustesse. Nous proposons aussi un protocole de synchronisation dans les cas de systèmes non robustes. Nous proposons enfin une approche de tolérance aux fautes pour les systèmes répartis quasi-synchrones.
7

High-dimensional statistical methods for inter-subject studies in neuroimaging / Analyse statistique de données en grande dimension : application à l'étude de la variabilité inter-individuelle en neuroimagerie

Fritsch, Virgile 18 December 2013 (has links)
La variabilité inter-individuelle est un obstacle majeur à l'analyse d'images médicales, en particulier en neuroimagerie. Il convient de distinguer la variabilité naturelle ou statistique, source de potentiels effets d'intérêt pour du diagnostique, de la variabilité artefactuelle, constituée d'effets de nuisance liés à des problèmes expérimentaux ou techniques, survenant lors de l'acquisition ou le traitement des données. La dernière peut s'avérer bien plus importante que la première : en neuroimagerie, les problèmes d'acquisition peuvent ainsi masquer la variabilité fonctionnelle qui est par ailleurs associée à une maladie, un trouble psychologique, ou à l'expression d'un code génétique spécifique. La qualité des procédures statistiques utilisées pour les études de groupe est alors diminuée car lesdites procédures reposent sur l'hypothèse d'une population homogène, hypothèse difficile à vérifier manuellement sur des données de neuroimagerie dont la dimension est élevée. Des méthodes automatiques ont été mises en oeuvre pour tenter d'éliminer les sujets trop déviants et ainsi rendre les groupes étudiés plus homogènes. Cette pratique n'a pas entièrement fait ses preuves pour autant, attendu qu'aucune étude ne l'a clairement validée, et que le niveau de tolérance à choisir reste arbitraire. Une autre approche consiste alors à utiliser des procédures d'analyse et de traitement des données intrinsèquement insensibles à l'hypothèse d'homogénéité. Elles sont en outre mieux adaptées aux données réelles en ce qu'elles tolèrent dans une certaine mesure d'autres violations d'hypothèse plus subtiles telle que la normalité des données. Un autre problème, partiellement lié, est le manque de stabilité et de sensibilité des méthodes d'analyse au niveau voxel, sources de résultats qui ne sont pas reproductibles.Nous commençons cette thèse par le développement d'une méthode de détection d'individus atypiques adaptée aux données de neuroimagerie, qui fournit un contrôle statistique sur l'inclusion de sujets : nous proposons une version regularisée d'un estimateur de covariance robuste pour le rendre utilisable en grande dimension. Nous comparons plusieurs types de régularisation et concluons que les projections aléatoires offrent le meilleur compromis. Nous présentons également des procédures non-paramétriques dont nous montrons la qualité de performance, bien qu'elles n'offrent aucun contrôle statistique. La seconde contribution de cette thèse est une nouvelle approche, nommée RPBI (Randomized Parcellation Based Inference), répondant au manque de reproductibilité des méthodes classiques. Nous stabilisons l'approche d'analyse à l'échelle de la parcelle en agrégeant plusieurs analyses indépendantes, pour lesquelles le partitionnement du cerveau en parcelles varie d'une analyse à l'autre. La méthode permet d'atteindre un niveau de sensibilité supérieur à celui des méthodes de l'état de l'art, ce que nous démontrons par des expériences sur des données synthétiques et réelles. Notre troisième contribution est une application de la régression robuste aux études de neuroimagerie. Poursuivant un travail déjà existant, nous nous concentrons sur les études à grande échelle effectuées sur plus de cent sujets. Considérant à la fois des données simulées et des données réelles, nous montrons que l'utilisation de la régression robuste améliore la sensibilité des analyses. Nous démontrons qu'il est important d'assurer une résistance face aux violations d'hypothèse, même dans les cas où une inspection minutieuse du jeu de données a été conduite au préalable. Enfin, nous associons la régression robuste à notre méthode d'analyse RPBI afin d'obtenir des tests statistiques encore plus sensibles. / La variabilité inter-individuelle est un obstacle majeur à l'analyse d'images médicales, en particulier en neuroimagerie. Il convient de distinguer la variabilité naturelle ou statistique, source de potentiels effets d'intérêt pour du diagnostique, de la variabilité artefactuelle, constituée d'effets de nuisance liés à des problèmes expérimentaux ou techniques, survenant lors de l'acquisition ou le traitement des données. La dernière peut s'avérer bien plus importante que la première : en neuroimagerie, les problèmes d'acquisition peuvent ainsi masquer la variabilité fonctionnelle qui est par ailleurs associée à une maladie, un trouble psychologique, ou à l'expression d'un code génétique spécifique. La qualité des procédures statistiques utilisées pour les études de groupe est alors diminuée car lesdites procédures reposent sur l'hypothèse d'une population homogène, hypothèse difficile à vérifier manuellement sur des données de neuroimagerie dont la dimension est élevée. Des méthodes automatiques ont été mises en oeuvre pour tenter d'éliminer les sujets trop déviants et ainsi rendre les groupes étudiés plus homogènes. Cette pratique n'a pas entièrement fait ses preuves pour autant, attendu qu'aucune étude ne l'a clairement validée, et que le niveau de tolérance à choisir reste arbitraire. Une autre approche consiste alors à utiliser des procédures d'analyse et de traitement des données intrinsèquement insensibles à l'hypothèse d'homogénéité. Elles sont en outre mieux adaptées aux données réelles en ce qu'elles tolèrent dans une certaine mesure d'autres violations d'hypothèse plus subtiles telle que la normalité des données. Un autre problème, partiellement lié, est le manque de stabilité et de sensibilité des méthodes d'analyse au niveau voxel, sources de résultats qui ne sont pas reproductibles.Nous commençons cette thèse par le développement d'une méthode de détection d'individus atypiques adaptée aux données de neuroimagerie, qui fournit un contrôle statistique sur l'inclusion de sujets : nous proposons une version regularisée d'un estimateur de covariance robuste pour le rendre utilisable en grande dimension. Nous comparons plusieurs types de régularisation et concluons que les projections aléatoires offrent le meilleur compromis. Nous présentons également des procédures non-paramétriques dont nous montrons la qualité de performance, bien qu'elles n'offrent aucun contrôle statistique. La seconde contribution de cette thèse est une nouvelle approche, nommée RPBI (Randomized Parcellation Based Inference), répondant au manque de reproductibilité des méthodes classiques. Nous stabilisons l'approche d'analyse à l'échelle de la parcelle en agrégeant plusieurs analyses indépendantes, pour lesquelles le partitionnement du cerveau en parcelles varie d'une analyse à l'autre. La méthode permet d'atteindre un niveau de sensibilité supérieur à celui des méthodes de l'état de l'art, ce que nous démontrons par des expériences sur des données synthétiques et réelles. Notre troisième contribution est une application de la régression robuste aux études de neuroimagerie. Poursuivant un travail déjà existant, nous nous concentrons sur les études à grande échelle effectuées sur plus de cent sujets. Considérant à la fois des données simulées et des données réelles, nous montrons que l'utilisation de la régression robuste améliore la sensibilité des analyses. Nous démontrons qu'il est important d'assurer une résistance face aux violations d'hypothèse, même dans les cas où une inspection minutieuse du jeu de données a été conduite au préalable. Enfin, nous associons la régression robuste à notre méthode d'analyse RPBI afin d'obtenir des tests statistiques encore plus sensibles.
8

Intégration des données d'observatoires magnétiques dans l'interprétation de sondages magnétotelluriques : acqusition, traitement, interprétation / Using magnetic observatory data in the framework of magnetotellurics : acquisition, processing, interpretation

Larnier, Hugo 07 February 2017 (has links)
Dans ce manuscrit, nous développons des méthodologies de détection et caractérisation de sources géomagnétiques et atmosphériques en se basant sur la transformée en ondelettes continues. Les techniques introduites se basent sur les caractéristiques temps-fréquence des ondes observées dans les séries temporelles magnétotelluriques (MT). A partir de ces procédures de détection, nous détaillons l'implémentation d'une stratégie de détermination des fonctions de réponse MT basée sur les statistiques robustes, et du bootstrap hiérarchique pour le calcul des incertitudes. Deux études MT sont également détaillées. La première étude MT concerne la caractérisation de la structure géoélectrique situé sous l'observatoire magnétique de Chambon-La-Forêt, France. La seconde étude concerne des mesures effectuées dans la vallée de Trisuli au Népal en mars 2016. L'objectif de cette campagne est la comparaison avec une étude effectuée en 1996. Nous discutons des effets topographiques sur les sondages MT. Nous présentons également une nouvelle interprétation de la distribution de conductivité dans le sous-sol de vallée de Trisuli. / In this manuscript, we detail the application of continuous wavelet transform to processing schemes for the detection and the characterisation of geomagnetic and atmospheric sources. Presented techniques are based on time-frequency properties of electromagnetic (EM) waves observed in magnetotellurics (MT) time series. We detail the application of these detection procedures in a MT processing scheme. To recover MT response functions, we use robust statistics and a hierarchical bootstrap approach for uncertainties determination. Interpretation of two datasets are also presented. The first MT study deals with the caracterisation of the resistivity distribution below the French National magnetic observatory of Chambon-la-Forêt. The second study details the interpretation of new MT soundings acquired in March 2016 in the Trisuli valley, Nepal. The main objective of this campaign was to compare the new soundings with an old campaign in 1996. We discuss topography effects on MT soundings and their implication on the resistivity distribution. We also introduce a new interpretation of the resistivity distribution in Trisuli valley.
9

Segmentation d'images ultrasonores basée sur des statistiques locales avec une sélection adaptative d'échelles / Ultrasound image segmentation using local statistics with an adaptative scale selection

Yang, Qing 15 March 2013 (has links)
La segmentation d'images est un domaine important dans le traitement d'images et un grand nombre d'approches différentes ent été développées pendant ces dernières décennies. L'approche des contours actifs est un des plus populaires. Dans ce cadre, cette thèse vise à développer des algorithmes robustes, qui peuvent segmenter des images avec des inhomogénéités d'intensité. Nous nous concentrons sur l'étude des énergies externes basées région dans le cadre des ensembles de niveaux. Précisément, nous abordons la difficulté de choisir l'échelle de la fenêtre spatiale qui définit la localité. Notre contribution principale est d'avoir proposé une échelle adaptative pour les méthodes de segmentation basées sur les statistiques locales. Nous utilisons l'approche d'Intersection des Intervalles de Confiance pour définir une échelle position-dépendante pour l'estimation des statistiques image. L'échelle est optimale dans le sens où elle donne le meilleur compromis entre le biais et la variance de l'approximation polynomiale locale de l'image observée conditionnellement à la segmentation actuelle. De plus, pour le model de segmentation basé sur une interprétation Bahésienne avec deux noyaux locaux, nous suggérons de considérer leurs valeurs séparément. Notre proposition donne une segmentation plus lisse avec moins de délocalisations que la méthode originale. Des expériences comparatives de notre proposition à d'autres méthodes de segmentation basées sur des statistiques locales sont effectuées. Les résultats quantitatifs réalisés sur des images ultrasonores de simulation, montrent que la méthode proposée est plus robuste au phénomène d'atténuation. Des expériences sur des images réelles montrent également l'utilité de notre approche. / Image segmentation is an important research area in image processing and a large number of different approaches have been developed over the last few decades. The active contour approach is one of the most popular among them. Within this framework, this thesis aims at developing robust algorithms, which can segment images with intensity inhomogeneities. We focus on the study of region-based external energies within the level set framework. We study the use of local image statistics for the design of external energies. Precisely, we address the difficulty of choosing the scale of the spatial window that defines locality. Our main contribution is to propose an adaptive scale for local region-based segmen¬tation methods. We use the Intersection of Confidence Intervals approach to define this pixel-dependent scale for the estimation of local image statistics. The scale is optimal in the sense that it gives the best trade-off between the bias and the variance of a Local Polynomial Approximation of the observed image conditional on the current segmenta¬tion. Additionally, for the segmentation model based on a Bayesian interpretation with two local kernels, we suggest to consider their values separately. Our proposition gives a smoother segmentation with less mis-localisations Chan the original method.Comparative experiments of our method to other local region-based segmentation me¬thods are carried out. The quantitative results, on simulated ultrasound B-mode images, show that the proposed scale selection strategy gives a robust solution to the intensity inhomogeneity artifact of this imaging modality. More general experiments on real images also demonstrate the usefulness of our approach.
10

Méthodes algébriques pour la décomposition de modèles comportementaux : Application à la détection et à la localisation de défaillances

Berdjag, Denis 26 October 2007 (has links) (PDF)
Cette thèse traite de la détection et de la localisation des défaillances à base de modèles comportementaux. L'approche suggérée consiste à extraire du modèle comportemental un sous-modèle découplé par rapport aux perturbations et par rapport à un sous-ensemble de défaillances et couplé par rapport au sous-ensemble complémentaire de défaillances. A l'aide de ce sous modèle, des indicateurs de défaillances structurés sont générés. Ces indicateurs possèdent intrinsèquement des propriétés de robustesse aux perturbations et à certaines défaillances et sont sensibles au reste des défaillances. Cette approche repose donc sur la décomposition du modèle comportemental du système en sous-modèles. Une méthodologie de décomposition est présentée pour traiter les modèles continus et les modèles événementiels de la même manière. Cette méthodologie de décomposition est formulée en utilisant des outils algébriques connus sous le nom d'algèbre des paires et d'algèbre des fonctions. Les deux algèbres sont présentées et leurs opérateurs sont détaillés et illustrés. Il est montré que la procédure de décomposition décrite pour les modèles continus en utilisant l'algèbre des fonctions est similaire à celle décrite pour les modèles événementiels en utilisant l'algèbre des paires. Une procédure de décomposition générale est ensuite proposée pour tous les modèles comportementaux déterministes.Les résultats théoriques sont illustrés par la décomposition des modèles comportementaux (continu et événementiel) du système à trois cuves, et par la synthèse d'un module de détection et de localisation de défaillances pour chaque cas traité.

Page generated in 0.1873 seconds