• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 7
  • 2
  • 1
  • Tagged with
  • 11
  • 11
  • 5
  • 5
  • 5
  • 4
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Études de bioéquivalence

Mirzac, Angela January 2008 (has links) (PDF)
Dans la pratique clinique, on fait souvent appel aux études de bioéquivalence afin de comparer deux médicaments. Un premier objectif de ce mémoire est d'introduire la notion pharmacocinétique et statistique de ce type d'étude, ainsi que de définir et de présenter l'application des tests d'équivalence à travers les études de bioéquivalence. Pour réaliser l'inférence statistique des études de bioéquivalence, en pratique on utilise le test t de Student. Le second but de ce mémoire est l'utilisation du test de permutations dans le cas où les hypothèses du test paramétrique ne sont pas satisfaites. À travers une étude de simulation des données de plusieurs lois on compare la performance du test de permutations avec le test t de Student et le test de WiIcoxon pour deux échantillons. Ce dernier est le test non paramétrique utilisé dans la pratique courante des études de bioéquivalence. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Bioéquivalence, Tests d'hypothèses, Plan d'expérience croisé, Test de permutation.
2

Analyse, modélisation et simulation de la marche pathologique

Fusco, Nicolas 20 June 2008 (has links) (PDF)
La marche est pour l'homme son mode de locomotion le plus usuel. Pour un sujet sain, il s'agit d'une action simple qu'il exécute sans être obligé d'y penser. Cependant, la survenue d'une pathologie peut venir la perturber et augmenter son coût énergétique. L'autonomie diminue, ce qui risque de rendre dépendant l'individu dans ses activités quotidiennes. Afin de lutter contre, la rééducation de la marche doit prendre en compte les causes de ses perturbations. Or, il est difficile d'isoler le rôle de chacun des paramètres interdépendants qui composent la marche. L'objectif de ces travaux est donc de proposer une boucle complète allant de l'analyse à la simulation de la marche pathologique en passant par sa modélisation. L'intérêt est de disposer d'un outil capable de déterminer les facteurs discriminants de l'altération de la marche. Premièrement, le développement de nouveaux outils génériques d'analyse nous aide à mieux comprendre le mouvement étudié et ceci uniquement à partir de données cinématiques, en particulier acquises lors d'une marche sur tapis roulant. La deuxième étape se focalise sur la modélisation d'une marche particulière, celle des sujets hémiplégiques. La cinématique inverse permet de définir une tâche principale liée au mouvement ainsi qu'une tâche secondaire capable de tenir compte de la pathologie du sujet. Finalement, la marche hémiplégique est reproduite grâce à la méthode de simulation choisie. L'approche se base sur des entrées simples à acquérir et permet de tester des hypothèses de rééducation à travers le travail mécanique. La finalité de ce travail est donc de fournir aux thérapeutes un outil simple d'évaluation des hypothèses de rééducation de la marche à partir de son coût énergétique
3

Détection binaire distribuée sous contraintes de communication / Distributed binary detection with communication constraints

Katz, Gil 06 January 2017 (has links)
Ces dernières années, l'intérêt scientifique porté aux différents aspects des systèmes autonomes est en pleine croissance. Des voitures autonomes jusqu'à l'Internet des objets, il est clair que la capacité de systèmes à prendre des décision de manière autonome devient cruciale. De plus, ces systèmes opéreront avec des ressources limitées. Dans cette thèse, ces systèmes sont étudiés sous l'aspect de la théorie de l'information, dans l'espoir qu'une compréhension fondamentale de leurs limites et de leurs utilisations pourrait aider leur conception par les futures ingénieurs.Dans ce travail, divers problèmes de décision binaire distribuée et collaborative sont considérés. Deux participants doivent "déclarer" la mesure de probabilité de deux variables aléatoires, distribuées conjointement par un processus sans mémoire et désignées par $vct{X}^n=(X_1,dots,X_n)$ et $vct{Y}^n=(Y_1,dots,Y_n)$. Cette décision et prise entre deux mesures de probabilité possibles sur un alphabet fini, désignés $P_{XY}$ et $P_{bar{X}bar{Y}}$. Les prélèvements marginaux des variables aléatoires, $vct{X}^n$ et $vct{Y}^n$ sont supposés à être disponibles aux différents sites .Il est permis aux participants d'échanger des quantités limitées d'information sur un canal parfait avec un contraint de débit maximal. Durant cette thèse, la nature de cette communication varie. La communication unidirectionnelle est considérée d'abord, suivie par la considération de communication bidirectionnelle, qui permet des échanges interactifs entre les participants. / In recents years, interest has been growing in research of different autonomous systems. From the self-dring car to the Internet of Things (IoT), it is clear that the ability of automated systems to make autonomous decisions in a timely manner is crucial in the 21st century. These systems will often operate under stricts constains over their resources. In this thesis, an information-theoric approach is taken to this problem, in hope that a fundamental understanding of the limitations and perspectives of such systems can help future engineers in designing them.Throughout this thesis, collaborative distributed binary decision problems are considered. Two statisticians are required to declare the correct probability measure of two jointly distributed memoryless process, denoted by $vct{X}^n=(X_1,dots,X_n)$ and $vct{Y}^n=(Y_1,dots,Y_n)$, out of two possible probability measures on finite alphabets, namely $P_{XY}$ and $P_{bar{X}bar{Y}}$. The marginal samples given by $vct{X}^n$ and $vct{Y}^n$ are assumed to be available at different locations.The statisticians are allowed to exchange limited amounts of data over a perfect channel with a maximum-rate constraint. Throughout the thesis, the nature of communication varies. First, only unidirectional communication is allowed. Using its own observations, the receiver of this communication is required to first identify the legitimacy of its sender by declaring the joint distribution of the process, and then depending on such authentication it generates an adequate reconstruction of the observations satisfying an average per-letter distortion. Bidirectional communication is subsequently considered, in a scenario that allows interactive communication between the participants.
4

Estimateur par variables instrumentales : une approche alternative?

Ba, Bocar 10 1900 (has links) (PDF)
Ce texte propose une façon alternative d'obtenir l'estimateur à variables instrumentales. Dans un premier temps, un ensemble d'estimés candidats est obtenu à l'aide d'une estimation par méthode des moments généralisés. Puis, l'estimateur alternatif est obtenu en combinant les estimés candidats par l'intermédiaire d'une matrice de poids optimale. Les hypothèses, concernant l'estimateur alternatif, garantissant l'efficacité et la normalité asymptotique sont également présentées. De plus, un test permettant de vérifier la validité des instruments est suggéré. Les expériences de Monte Carlo montrent que le biais de l'estimateur proposé augmente avec le nombre d'estimés candidats. Finalement, l'écart type moyen de l'estimateur proposé est plus petit que l'estimateur à variables instrumentales standard quand les instruments ne sont pas faibles. Lorsque la gamme des estimateurs possibles s'élargit, l'estimateur alternatif démontre de meilleures performances que l'estimateur standard dans le cas d'une endogénéité qui est faible ou moyenne. Les propriétés de puissance dans le cadre de l'alternative de type Pitman-local sont également suggérées. Les simulations de Monte Carlo montrent que la puissance du test en grand échantillon semble satisfaisante au niveau de la taille et de la puissance. Cependant il se peut que ce test souffre d'un biais en petit échantillon. Finalement, en utilisant l'approche d'Angrist et Krueger (1991) pour l'application empirique, les estimateurs alternatif et standard donnent des résultats similaires; cependant la méthode proposée donne des écart-types plus faibles. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : alternative de type Pitman-local, fonction de puissance, méthode des moments généralisés, minimisation de la distance simulation de Monte Carlo, test de Wald, variables instrumentales, tests d'hypothèses.
5

Modélisation statistique de la mortalité maternelle et néonatale pour l'aide à la planification et à la gestion des services de santé en Afrique Sub-Saharienne

Ndour, Cheikh 19 May 2014 (has links) (PDF)
L'objectif de cette thèse est de proposer une méthodologie statistique permettant de formuler une règle de classement capable de surmonter les difficultés qui se présentent dans le traitement des données lorsque la distribution a priori de la variable réponse est déséquilibrée. Notre proposition est construite autour d'un ensemble particulier de règles d'association appelées "class association rules". Dans le chapitre II, nous avons exposé les bases théoriques qui sous-tendent la méthode. Nous avons utilisé les indicateurs de performance usuels existant dans la littérature pour évaluer un classifieur. A chaque règle "class association rule" est associée un classifieur faible engendré par l'antécédent de la règle que nous appelons profils. L'idée de la méthode est alors de combiner un nombre réduit de classifieurs faibles pour constituer une règle de classement performante. Dans le chapitre III, nous avons développé les différentes étapes de la procédure d'apprentissage statistique lorsque les observations sont indépendantes et identiquement distribuées. On distingue trois grandes étapes: (1) une étape de génération d'un ensemble initial de profils, (2) une étape d'élagage de profils redondants et (3) une étape de sélection d'un ensemble optimal de profils. Pour la première étape, nous avons utilisé l'algorithme "apriori" reconnu comme l'un des algorithmes de base pour l'exploration des règles d'association. Pour la deuxième étape, nous avons proposé un test stochastique. Et pour la dernière étape un test asymptotique est effectué sur le rapport des valeurs prédictives positives des classifieurs lorsque les profils générateurs respectifs sont emboîtés. Il en résulte un ensemble réduit et optimal de profils dont la combinaison produit une règle de classement performante. Dans le chapitre IV, nous avons proposé une extension de la méthode d'apprentissage statistique lorsque les observations ne sont pas identiquement distribuées. Il s'agit précisément d'adapter la procédure de sélection de l'ensemble optimal lorsque les données ne sont pas identiquement distribuées. L'idée générale consiste à faire une estimation bayésienne de toutes les valeurs prédictives positives des classifieurs faibles. Par la suite, à l'aide du facteur de Bayes, on effectue un test d'hypothèse sur le rapport des valeurs prédictives positives lorsque les profils sont emboîtés. Dans le chapitre V, nous avons appliqué la méthodologie mise en place dans les chapitres précédents aux données du projet QUARITE concernant la mortalité maternelle au Sénégal et au Mali.
6

Statistical properties of barycenters in the Wasserstein space and fast algorithms for optimal transport of measures / Propriétés statistiques du barycentre dans l’espace de Wasserstein

Cazelles, Elsa 21 September 2018 (has links)
Cette thèse se concentre sur l'analyse de données présentées sous forme de mesures de probabilité sur R^d. L'objectif est alors de fournir une meilleure compréhension des outils statistiques usuels sur cet espace muni de la distance de Wasserstein. Une première notion naturelle est l'analyse statistique d'ordre un, consistant en l'étude de la moyenne de Fréchet (ou barycentre). En particulier, nous nous concentrons sur le cas de données (ou observations) discrètes échantillonnées à partir de mesures de probabilité absolument continues (a.c.) par rapport à la mesure de Lebesgue. Nous introduisons ainsi un estimateur du barycentre de mesures aléatoires, pénalisé par une fonction convexe, permettant ainsi d'imposer son a.c. Un autre estimateur est régularisé par l'ajout d'entropie lors du calcul de la distance de Wasserstein. Nous nous intéressons notamment au contrôle de la variance de ces estimateurs. Grâce à ces résultats, le principe de Goldenshluger et Lepski nous permet d'obtenir une calibration automatique des paramètres de régularisation. Nous appliquons ensuite ce travail au recalage de densités multivariées, notamment pour des données de cytométrie de flux. Nous proposons également un test d'adéquation de lois capable de comparer deux distributions multivariées, efficacement en terme de temps de calcul. Enfin, nous exécutons une analyse statistique d'ordre deux dans le but d'extraire les tendances géométriques globales d'un jeu de donnée, c'est-à-dire les principaux modes de variations. Pour cela nous proposons un algorithme permettant d'effectuer une analyse en composantes principales géodésiques dans l'espace de Wasserstein. / This thesis focuses on the analysis of data in the form of probability measures on R^d. The aim is to provide a better understanding of the usual statistical tools on this space endowed with the Wasserstein distance. The first order statistical analysis is a natural notion to consider, consisting of the study of the Fréchet mean (or barycentre). In particular, we focus on the case of discrete data (or observations) sampled from absolutely continuous probability measures (a.c.) with respect to the Lebesgue measure. We thus introduce an estimator of the barycenter of random measures, penalized by a convex function, making it possible to enforce its a.c. Another estimator is regularized by adding entropy when computing the Wasserstein distance. We are particularly interested in controlling the variance of these estimators. Thanks to these results, the principle of Goldenshluger and Lepski allows us to obtain an automatic calibration of the regularization parameters. We then apply this work to the registration of multivariate densities, especially for flow cytometry data. We also propose a test statistic that can compare two multivariate distributions, efficiently in terms of computational time. Finally, we perform a second-order statistical analysis to extract the global geometric tendency of a dataset, also called the main modes of variation. For that purpose, we propose algorithms allowing to carry out a geodesic principal components analysis in the space of Wasserstein.
7

Acoustique longue portée pour transmission et localisation de signaux / Long-range acoustics for the transmission and localization of signals

Ollivier, Benjamin 06 December 2016 (has links)
Le positionnement d'objets sous-marins représente un enjeu stratégique pour des applications militaires, industrielles et scientifiques. Les systèmes de positionnement reposent sur des signaux de type SONAR « Sound Navigation and Ranging ». Plusieurs émetteurs synchrones avec des temps d'émission connus sont alors considérés, l'objectif étant que la position d'un récepteur se fasse en fonction des positions des émetteurs. Nous avons la main mise sur la détection des signaux en réception d'une part, et sur le choix des formes d'ondes à l'émission d'autre part. La méthode de détection, basée sur le filtrage adapté, se veut robuste aux différentes perturbations engendrées par le canal de propagation (pertes par transmission, multi-trajets) et par le système lui-même (environnement multi-émetteurs). De plus, la détection restreinte à une somme de tests d'hypothèses binaires, nécessite un fonctionnement en temps réel. A l'émission, les formes d'ondes doivent permettre d'identifier indépendamment les émetteurs les uns des autres. Ainsi les travaux portent essentiellement sur les modulations FHSS, les paramètres de construction de ces signaux étant alors choisis de sorte à optimiser la méthode de détection étudiée. Enfin, l'implémentation des algorithmes issus de ces travaux sur des systèmes embarqués a permis leur validation sur des données enregistrées, puis en conditions réelles. Ces essais ont été réalisés avec l'entreprise ALSEAMAR, dans le cadre de la thèse CIFRE-DGA. / There is an increasing interest in underwater positioning system in industry (off-shore, military, and biology). In order to localize a receiver relative to a grid of transmitters, thanks to the knowledge of positions and transmission time, it needs to detect each signal and estimate the TOA (Time Of Arrival). Thus, a range between a transmitter and receiver can be deduced by estimation of TOA. When receiver knows three ranges at least, it can deduce its position by triangulation. This work takes into account signal detection, and waveform choice. Detection method, based on matched filter, needs to be robust face to propagation channel (transmission loss, multi-paths) and to the system (multi-users environment). Moreover, the detection structure, being a combination of binary hypothesis testing, must work in real time. In a CDMA context which requires to distinguish each transmitter, the FHSS (Frequency Hopped Spread Spectrum) modulation, allocating one code per user, is adapted. FHSS signals performance, depending of the number of frequency shifts N and the time-bandwidth product, are analyzed from detection criterion point of view. Moreover, detection method and adapted signal is tested in a shallow water environment.The research was supported by ALSEAMAR and DGA-MRIS scholarship.
8

Modélisation statistique de la mortalité maternelle et néonatale pour l'aide à la planification et à la gestion des services de santé en Afrique Sub-Saharienne / Statistical modeling of maternal and neonatal mortality for help in planning and management of health services in sub-Saharan Africa

Ndour, Cheikh 19 May 2014 (has links)
L'objectif de cette thèse est de proposer une méthodologie statistique permettant de formuler une règle de classement capable de surmonter les difficultés qui se présentent dans le traitement des données lorsque la distribution a priori de la variable réponse est déséquilibrée. Notre proposition est construite autour d'un ensemble particulier de règles d'association appelées "class association rules". Dans le chapitre II, nous avons exposé les bases théoriques qui sous-tendent la méthode. Nous avons utilisé les indicateurs de performance usuels existant dans la littérature pour évaluer un classifieur. A chaque règle "class association rule" est associée un classifieur faible engendré par l'antécédent de la règle que nous appelons profils. L'idée de la méthode est alors de combiner un nombre réduit de classifieurs faibles pour constituer une règle de classement performante. Dans le chapitre III, nous avons développé les différentes étapes de la procédure d'apprentissage statistique lorsque les observations sont indépendantes et identiquement distribuées. On distingue trois grandes étapes: (1) une étape de génération d'un ensemble initial de profils, (2) une étape d'élagage de profils redondants et (3) une étape de sélection d'un ensemble optimal de profils. Pour la première étape, nous avons utilisé l'algorithme "apriori" reconnu comme l'un des algorithmes de base pour l'exploration des règles d'association. Pour la deuxième étape, nous avons proposé un test stochastique. Et pour la dernière étape un test asymptotique est effectué sur le rapport des valeurs prédictives positives des classifieurs lorsque les profils générateurs respectifs sont emboîtés. Il en résulte un ensemble réduit et optimal de profils dont la combinaison produit une règle de classement performante. Dans le chapitre IV, nous avons proposé une extension de la méthode d'apprentissage statistique lorsque les observations ne sont pas identiquement distribuées. Il s'agit précisément d'adapter la procédure de sélection de l'ensemble optimal lorsque les données ne sont pas identiquement distribuées. L'idée générale consiste à faire une estimation bayésienne de toutes les valeurs prédictives positives des classifieurs faibles. Par la suite, à l'aide du facteur de Bayes, on effectue un test d'hypothèse sur le rapport des valeurs prédictives positives lorsque les profils sont emboîtés. Dans le chapitre V, nous avons appliqué la méthodologie mise en place dans les chapitres précédents aux données du projet QUARITE concernant la mortalité maternelle au Sénégal et au Mali. / The aim of this thesis is to design a supervised statistical learning methodology that can overcome the weakness of standard methods when the prior distribution of the response variable is unbalanced. The proposed methodology is built using class association rules. Chapter II deals with theorical basis of statistical learning method by relating various classifiers performance metrics with class association rules. Since the classifier corresponding to a class association rules is a weak classifer, we propose to select a small number of such weak classifiers and to combine them in the aim to build an efficient classifier. In Chapter III, we develop the different steps of the statistical learning method when observations are independent and identically distributed. There are three main steps: In the first step, an initial set of patterns correlated with the target class is generated using "apriori" algorithm. In the second step, we propose a hypothesis test to prune redondant patterns. In the third step, an hypothesis test is performed based on the ratio of the positive predictive values of the classifiers when respective generating patterns are nested. This results in a reduced and optimal set of patterns whose combination provides an efficient classifier. In Chapter IV, we extend the classification method that we proposed in Chapter III in order to handle the case where observations are not identically distributed. The aim being here to adapt the procedure for selecting the optimal set of patterns when data are grouped data. In this setting we compute the estimation of the positive predictive values as the mean of the posterior distribution of the target class probability by using empirical Bayes method. Thereafter, using Bayes factor, a hypothesis test based on the ratio of the positive predictive values is carried out when patterns are nested. Chapter V is devoted to the application of the proposed methodology to process a real world dataset. We studied the QUARITE project dataset on maternal mortality in Senegal and Mali in order to provide a decision making tree that health care professionals can refer to when managing patients delivering in their health facilities.
9

Détection statistique des changements climatiques

Ribes, Aurélien 11 September 2009 (has links) (PDF)
Selon le Groupe Intergouvernemental d'experts sur l'Evolution du Climat (GIEC), la détection est la démonstration statistique de ce qu'un changement observé ne peut pas être expliqué par la seule variabilité interne naturelle du climat. Cette thèse s'intéresse à la détection des changements climatiques à l'échelle régionale, et en particulier aux méthodes statistiques adaptées à ce type de problématique. Plusieurs procédures de tests statistiques sont ainsi présentées et étudiées. La première méthode développée consiste à rechercher, dans les observations, la présence d'un signal de changements climatiques dont la distribution spatiale est connue. Dans ce cas, une nouvelle adaptation de la méthode des empreintes digitales optimales a été proposée, basée sur l'utilisation d'un estimateur bien conditionné de la matrice de covariance de la variabilité interne du climat. Une seconde approche propose de rechercher un signal ayant une forme d'évolution temporelle particulière. La forme recherchée peut alors être évaluée à partir de scénarios climatiques en utilisant des fonctions de lissage "splines". Une troisième stratégie consiste à étudier la présence d'un changement non spécifié à l'avance, mais qui vérifie une propriété de séparabilité espace-temps, et qui présente une certaine régularité en temps. On utilise dans ce cas un formalisme de statistique fonctionnelle, pour construire un test de significativité de la première composante principale lisse, basé sur le rapport des vraisemblances pénalisées. L'application de ces différentes méthodes sur des données observées sur la France et le bassin Méditerranéen a permis de mettre en évidence de nouveaux résultats concernant les changements climatiques en cours sur ces deux domaines. Des changements significatifs sont notamment mis en évidence sur les températures annuelles et saisonnières, ainsi que sur les précipitations annuelles, dans le cas de la France. Ces changements ne sont pas uniformes en espace et modifient la distribution régionale de la variable étudiée. La comparaison des différentes méthodes de détection proposées a également permis de discuter de la capacité des modèles de climat à simuler correctement les caractéristiques spatiales et temporelles des changements climatiques.
10

Lois bayésiennes a priori dans un plan binomial séquentiel

Bunouf, Pierre 01 March 2006 (has links) (PDF)
La reformulation du théorème de Bayes par R. de Cristofaro permet d'intégrer l'information sur le plan expérimental dans la loi a priori. En acceptant de transgresser les principes de vraisemblance et de la règle d'arrêt, un nouveau cadre théorique permet d'aborder le problème de la séquentialité dans l'inférence bayésienne. En considérant que l'information sur le plan expérimental est contenue dans l'information de Fisher, on dérive une famille de lois a priori à partir d'une vraisemblance directement associée à l'échantillonnage. Le cas de l'évaluation d'une proportion dans le contexte d'échantillonnages Binomiaux successifs conduit à considérer la loi Bêta-J. L'étude sur plusieurs plans séquentiels permet d'établir que l'"a priori de Jeffreys corrigé" compense le biais induit sur la proportion observée. Une application dans l'estimation ponctuelle montre le lien entre le paramétrage des lois Bêta-J et Bêta dans l'échantillonnage fixe. La moyenne et le mode des lois a posteriori obtenues présentent des propriétés fréquentistes remarquables. De même, l'intervalle de Jeffreys corrigé montre un taux de recouvrement optimal car la correction vient compenser l'effet de la règle d'arrêt sur les bornes. Enfin, une procédure de test, dont les erreurs s'interprètent à la fois en terme de probabilité bayésienne de l'hypothèse et de risques fréquentistes, est construite avec une règle d'arrêt et de rejet de H0 fondée sur une valeur limite du facteur de Bayes. On montre comment l'a priori de Jeffreys corrigé compense le rapport des évidences et garantit l'unicité des solutions, y compris lorsque l'hypothèse nulle est composite.

Page generated in 0.0533 seconds