• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 161
  • 89
  • 12
  • 2
  • Tagged with
  • 259
  • 119
  • 50
  • 39
  • 36
  • 36
  • 30
  • 29
  • 29
  • 29
  • 27
  • 25
  • 24
  • 24
  • 23
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
181

Contributions à la statistique des processus et à l'estimation fonctionnelle

Rachdi, Mustapha 07 November 2006 (has links) (PDF)
Dans cette HDR, notre objectif premier est de présenter nos travaux sur la statistique non paramétrique des processus stochastiques et sur l'estimation fonctionnelle. Plutôt que de vouloir insister sur les détails mathématiques de nos résultats, que l'on pourra toujours retrouver dans les articles correspondants, nous avons choisi de les présenter d'une façon synthétique. Sans prétendre à l'exhaustivité, nous nous sommes attachés à indiquer les articles historiques et à faire un choix de certains articles nous paraîssant les plus intéressants. Les techniques non paramétriques ont pris une importance de plus en plus grande depuis une trentaine d'années dans la recherche en statistique mathématique. Le nombre toujours croissant d'articles sur ce thème en témoigne. Il faut également signaler que le développement des moyens informatiques et la puissance actuelle de calcul des ordinateurs permettent d'élargir toujours plus le champs d'application de ces méthodes. Ce document est organisé en respectant des thématiques. En fait, nous avons classifié l'ensemble de nos travaux en six chapitres. Dans chacun de ces chapitres, nous indiquons les travaux concernés avant un bref historique, ensuite nous résumons les principaux résultats, les idées sous-jacentes, et ce qui a motivé ce travail. Nous scindons nos recherches en deux grandes parties : d'abord, l'estimation fonctionnelle et la statistique des processus en dimension finie (chapitres 1, 2, 3 et 4), et puis, l'analyse statistique des données fonctionnelles (chapitre 5). Le dernier chapitre de ce mémoire est le fruit de nos investigations avec l'équipe de Telecom Lille 1 sur la modélisation statistique du canal de transmission à 60 GHz dans les milieux confinés.
182

Utilisation des modèles NTCP et de carcinogenèse pour les choix balistiques et de particules en hadronthérapie de l'adulte et de l'enfant

Boudam, Yasid 21 November 2008 (has links) (PDF)
Certains problèmes scientifiques et techniques, imparfaitement résolus dans la mise en œuvre des traitements par ions légers ont été étudiés. La thèse développe successivement les trois approches suivantes :<br />1) La première partie de cette thèse travaille sur la définition de l'équipement (faisceaux fixes versus gantry) pour un centre de traitement et ainsi traiter la plus large variété possible de tumeurs pour un spectre élargi de situations cliniques caractéristiques chez l'adulte. Les tumeurs étudiées sont des tumeurs de la base du crâne, du rachis cervical haut, bronchiques, ganglionnaires thoraciques, ganglionnaires abdominales et de la prostate, l'on obtient ainsi un éventail assez large d'indications thérapeutiques. <br />2) La seconde partie met à contribution une partie des outils développés dans la première phase (traitement chez l'adulte). Le même design de salle de traitement est utilisé mais pour un ensemble de tumeurs intracrâniennes de la base du crâne et de la sphère ORL chez l'enfant et l'adulte jeune. <br />Il peut être conclu que l'étude de multiples situations anatomo-pathologiques en thérapie protons n'a pas permis de dégager d'incidences faisceaulogiques originales et particulières à la gantry. <br />3) La dernière phase donne lieu à l'étude des caractéristiques physiques propres aux faisceaux d'ions carbones. Une comparaison est menée sur la base de simulations de données par l'utilisation de modèles de calcul du risque d'induction néoplasique après traitement chez l'adulte et plus spécifiquement chez l'enfant. La simulation semble indiquer que les ions carbones induiraient un phénomène de stérilisation cellulaire à doses intermédiaires & hautes dans les tissus & organes chez l'adulte et l'enfant.
183

Constance de largeur et désocclusion dans les images digitales

Villéger, Emmanuel 06 December 2005 (has links) (PDF)
L'école Gestaltiste s'intéresse à la vision, leur point de vue est que<br />nous regroupons des points lumineux et/ou des objets selon certaines<br />règles pour former des objets plus gros, des Gestalts.<br /><br />La première partie de cette thèse est consacrée à la constance de<br />largeur. La Gestalt constance de largeur regroupe des points situés<br />entre deux bords qui restent parallèles. Nous cherchons donc dans les<br />images des courbes ``parallèles.'' Nous voulons faire une détection<br />a contrario, nous proposons donc une quantification du ``non<br />parallélisme'' de deux courbes par trois méthodes. La première méthode<br />utilise un modèle de génération de courbes régulières et nous<br />calculons une probabilité. La deuxième méthode est une méthode de<br />simulation de type Monte-Carlo pour estimer cette probabilité. Enfin<br />la troisième méthode correspond à un développement limité de la<br />première en faisant tendre un paramètre vers 0 sous certaines<br />contraintes. Ceci conduit à une équation aux dérivées partielles<br />(EDP). Parmi ces trois méthodes la méthode de type Monte-Carlo est<br />plus robuste et plus rapide.<br /><br />L'EDP obtenue est très similaire à celles utilisées pour la<br />désocclusion d'images. C'est pourquoi dans la deuxième partie de cette<br />thèse nous nous intéressons au problème de la désocclusion. Nous<br />présentons les méthodes existantes puis une nouvelle méthode basée sur<br />un système de deux EDPs dont l'une est inspirée de celle de la<br />première partie. Nous introduisons la probabilité de l'orientation du<br />gradient de l'image. Nous prenons ainsi en compte l'incertitude sur<br />l'orientation calculée du gradient de l'image. Cette incertitude est<br />quantifiée en relation avec la norme du gradient.<br /><br />Avec la quantification du non parallélisme de deux courbes, l'étape<br />suivante est la détection de la constance de largeur dans<br />les images. Il faut alors définir un seuil pour sélectionner les<br />bonnes réponses du détecteur et surtout parmi les réponses définir<br />des réponses ``maximales.'' Le système d'EDPs pour<br />la désocclusion dépend de beaucoup de paramètres, il faut trouver une<br />méthode de calibration des paramètres pour obtenir de bons résultats<br />adaptés à chaque image.
184

Effet des fortes contraintes hydrostatiques sur la tenue en fatigue des matériaux métalliques

Koutiri, Imade 17 May 2011 (has links) (PDF)
Ces travaux de thèse traitent des effets des fortes contraintes hydrostatiques sur la tenue en fatigue à grand nombre de cycles des matériaux métalliques. Il s'agit d'étudier, d'une part, l'effet de la contrainte moyenne (et plus particulièrement des fortes contraintes moyennes ou forts rapports de charge) et, d'autre part, l'effet de la biaxialité. Dans une première partie, une campagne d'essais importante est réalisée sur deux matériaux, un alliage d'aluminium de fonderie AlSi7Cu05Mg03 et un alliage d'aluminium corroyé 2024-O. L'effet de la contrainte moyenne et de la biaxialité (dans le cas de chargement de traction biaxiale) sur le comportement en fatigue à grand nombre de cycles (FGNC) des matériaux est caractérisé. Une attention particulière est portée à la description et à l'analyse des mécanismes d'endommagement. Une étude des modélisations existantes dans la littérature est réalisée visant à donner un aperçu sur leurs capacités à prendre en compte les effets des fortes contraintes hydrostatiques. Une modélisation adéquate est ensuite proposée pour le cas particulier de l'alliage d'aluminium de fonderie étudié. Basé sur une approche probabiliste, elle permet de refléter la compétition entre les différents mécanismes d'endommagement locaux observés et de rendre compte efficacement des effets de moyenne et de biaxialité. Les observations conduites sur différents alliages métalliques ont également montré, pour les plus forts rapports de charge, qu'un endommagement généré lors du premier quart de cycle pouvait modifier les conditions d'apparition d'une fissure. Un critère de fatigue basé sur un couplage plasticité-endommagement à l'échelle mésoscopique est alors mis en place. Il rend compte des principales tendances expérimentales notamment celles relatives au chargement de traction biaxiale.
185

Codage distribué pour les réseaux coopératifs sans fil

Hatefi, Atoosa 25 October 2012 (has links) (PDF)
Cette thèse est consacrée à l'étude théorique et à la conception pratique de schémas de codage conjoint réseau/canal adaptés à différents scénarii de communications dans les réseaux sans fil. Contrairement aux hypothèses conventionnelles retenues dans la littérature (accès multiple orthogonal, absence d'erreurs sur certains liens), les caractéristiques de diffusion et de superposition des signaux propres au canal radio et la présence d'évanouissements lents et de bruit sur tous les liens sont prises en compte dans la formulation du problème et exploitées. Différentes stratégies de coopération au niveau du ou des relais sont examinées et comparées. Le point commun entre toutes ces stratégies est que le système doit fonctionner même en absence de coopération. Seuls le ou les relais et la destination sont informés d'une coopération. Ni les sources, ni le ou les relais ne connaissent l'état du canal à l'émission.
Le premier volet de la thèse porte sur le canal à accès multiple avec relais unique (slow fading MARC). Le problème du codage et décodage conjoint canal/réseau (JNCC/JNCD) est étudié sur un plan théorique et pratique. Différentes hypothèses au niveau de l'accès multiple (semi-orthogonal et non-orthogonal) et différents modes de fonctionnement du relais (half-duplex et full-duplex) sont envisagés. Une nouvelle stratégie de coopération adaptative (SDF pour selective decode and forward) est définie dans laquelle le relais calcule et retransmet une fonction déterministe des messages de sources qu'il a pu décoder sans erreur. Le ré-encodage, défini sur un corps fini (corps binaire), est également conçu de manière à assurer que la performance finale au niveau de la destination atteint bien un ordre de diversité 2.
Le modèle de canal MARC est par la suite étendu à plusieurs relais (slow fading MAMRC). Une analyse théorique est conduite et des nouveaux schémas JNCC/JNCD permettant de s'approcher des limites théoriques sont décrits. Afin d'assurer la diversité pleine, nous proposons de combiner un codage canal binaire et un codage réseau non-binaire.
Pour les deux types de canaux, nous montrons que l'interférence naturellement induite par la diffusion des signaux dans un environnement sans fil, n'est pas un inconvénient mais bien un avantage dès lors qu'on est en mesure de la traiter via des techniques de codage et de décodage sophistiquées (turbo codes et leur décodage, turbo détection). Les gains en termes de capacité (rapportée à une certaine probabilité de coupure) obtenus avec un accès multiple semi-orthogonal ou non-orthogonal sont substantiels comparés à un accès multiple orthogonal (référence).
Dans la dernière partie de la thèse, la stratégie de coopération SDF est comparée à deux autres stratégies de coopération s'appuyant sur un procédé de décodage-et-retransmission "souple" (sans prise de décisions intermédiaires) : l'une basée sur les rapports logarithmiques de probabilité a posteriori sur les bits codés et l'autre basée sur l'estimation de l'erreur quadratique moyenne (MSE). Nous vérifions que la stratégie de coopération SDF fonctionne bien dans la plupart des configurations, les stratégies de coopération souples n'améliorant légèrement les performances que dans certains cas extrêmes.
186

Probabilité et temps de fixation à l’aide de processus ancestraux

Elgbeili, Guillaume 11 1900 (has links)
Ce mémoire analyse l’espérance du temps de fixation conditionnellement à ce qu’elle se produise et la probabilité de fixation d’un nouvel allèle mutant dans des populations soumises à différents phénomènes biologiques en uti- lisant l’approche des processus ancestraux. Tout d’abord, l’article de Tajima (1990) est analysé et les différentes preuves y étant manquantes ou incomplètes sont détaillées, dans le but de se familiariser avec les calculs du temps de fixa- tion. L’étude de cet article permet aussi de démontrer l’importance du temps de fixation sur certains phénomènes biologiques. Par la suite, l’effet de la sé- lection naturelle est introduit au modèle. L’article de Mano (2009) cite un ré- sultat intéressant quant à l’espérance du temps de fixation conditionnellement à ce que celle-ci survienne qui utilise une approximation par un processus de diffusion. Une nouvelle méthode utilisant le processus ancestral est présentée afin d’arriver à une bonne approximation de ce résultat. Des simulations sont faites afin de vérifier l’exactitude de la nouvelle approche. Finalement, un mo- dèle soumis à la conversion génique est analysé, puisque ce phénomène, en présence de biais, a un effet similaire à celui de la sélection. Nous obtenons finalement un résultat analytique pour la probabilité de fixation d’un nouveau mutant dans la population. Enfin, des simulations sont faites afin de détermi- nerlaprobabilitédefixationainsiqueletempsdefixationconditionnellorsque les taux sont trop grands pour pouvoir les calculer analytiquement. / The expected time for fixation given its occurrence, and the probability of fixa- tion of a new mutant allele in populations subject to various biological phe- nomena are analyzed using the approach of the ancestral process. First, the paper of Tajima (1990) is analyzed, and the missing or incomplete proofs are fully worked out in this Master thesis in order to familiarize ourselves with calculations of fixation times. Our study of Tajima’s paper helps to show the importance of the fixation time in some biological phenomena. Thereafter, we extend the work of Tajima (1990) by introducing the effect of natural selec- tion in the model. Using a diffusion approximation, the work of Mano (2009) provides an interesting result about the expected time of fixation given its oc- currence. We derived an alternative method that uses an ancestral process that approximates well Mani’s result. Simulations are made to verify the accuracy ofthenewapproach.Finally,onemodelsubjecttogeneconversionisanalyzed, since this phenomenon, in the presence of bias, has a similar effect as selection. We deduce an analytical result for the probability of fixation of a new mutant in the population. Finally, simulations are made to determine the probability of fixation and the time of fixation given its occurrence when rates are too large to be calculated analytically.
187

Segmentation d’images intravasculaires ultrasonores

Roy Cardinal, Marie-Hélène 10 1900 (has links)
L'imagerie intravasculaire ultrasonore (IVUS) est une technologie médicale par cathéter qui produit des images de coupe des vaisseaux sanguins. Elle permet de quantifier et d'étudier la morphologie de plaques d'athérosclérose en plus de visualiser la structure des vaisseaux sanguins (lumière, intima, plaque, média et adventice) en trois dimensions. Depuis quelques années, cette méthode d'imagerie est devenue un outil de choix en recherche aussi bien qu'en clinique pour l'étude de la maladie athérosclérotique. L'imagerie IVUS est par contre affectée par des artéfacts associés aux caractéristiques des capteurs ultrasonores, par la présence de cônes d'ombre causés par les calcifications ou des artères collatérales, par des plaques dont le rendu est hétérogène ou par le chatoiement ultrasonore (speckle) sanguin. L'analyse automatisée de séquences IVUS de grande taille représente donc un défi important. Une méthode de segmentation en trois dimensions (3D) basée sur l'algorithme du fast-marching à interfaces multiples est présentée. La segmentation utilise des attributs des régions et contours des images IVUS. En effet, une nouvelle fonction de vitesse de propagation des interfaces combinant les fonctions de densité de probabilité des tons de gris des composants de la paroi vasculaire et le gradient des intensités est proposée. La segmentation est grandement automatisée puisque la lumière du vaisseau est détectée de façon entièrement automatique. Dans une procédure d'initialisation originale, un minimum d'interactions est nécessaire lorsque les contours initiaux de la paroi externe du vaisseau calculés automatiquement sont proposés à l'utilisateur pour acceptation ou correction sur un nombre limité d'images de coupe longitudinale. La segmentation a été validée à l'aide de séquences IVUS in vivo provenant d'artères fémorales provenant de différents sous-groupes d'acquisitions, c'est-à-dire pré-angioplastie par ballon, post-intervention et à un examen de contrôle 1 an suivant l'intervention. Les résultats ont été comparés avec des contours étalons tracés manuellement par différents experts en analyse d'images IVUS. Les contours de la lumière et de la paroi externe du vaisseau détectés selon la méthode du fast-marching sont en accord avec les tracés manuels des experts puisque les mesures d'aire sont similaires et les différences point-à-point entre les contours sont faibles. De plus, la segmentation par fast-marching 3D s'est effectuée en un temps grandement réduit comparativement à l'analyse manuelle. Il s'agit de la première étude rapportée dans la littérature qui évalue la performance de la segmentation sur différents types d'acquisition IVUS. En conclusion, la segmentation par fast-marching combinant les informations des distributions de tons de gris et du gradient des intensités des images est précise et efficace pour l'analyse de séquences IVUS de grandes tailles. Un outil de segmentation robuste pourrait devenir largement répandu pour la tâche ardue et fastidieuse qu'est l'analyse de ce type d'images. / Intravascular ultrasound (IVUS) is a catheter based medical imaging technique that produces cross-sectional images of blood vessels. These images provide quantitative assessment of the vascular wall, information about the nature of atherosclerotic lesions as well as the plaque shape and size. Over the past few years, this medical imaging modality has become a useful tool in research and clinical applications, particularly in atherosclerotic disease studies. However, IVUS imaging is subject to catheter ring-down artifacts, missing vessel parts due to calcification shadowing or side-branches, heterogeneously looking plaques and ultrasonic speckle from blood. The automated analysis of large IVUS data sets thus represents an important challenge. A three-dimensional segmentation algorithm based on the multiple interface fast-marching method is presented. The segmentation is based on region and contour features of the IVUS images: a new speed fonction for the interface propagation that combines the probability density functions (PDFs) of the vessel wall components and the intensity gradients is proposed. The segmentation is highly automated with the detection of the lumen boundary that is fully automatic. Minimal interactions are necessary with a novel initialization procedure since initial contours of the external vessel wall border are also computed automatically on a limited number of longitudinal images and then proposed to the user for acceptance or correction. The segmentation method was validated with in-vivo IVUS data sets acquired from femoral arteries. This database contained 3 subgroups: pullbacks acquired before balloon angioplasty, after the intervention and at a 1 year follow-up examination. Results were compared with validation contours that were manually traced by different experts in IVUS image analysis. The lumen and external wall boundaries detected with the fast-marching method are in agreement with the experts' manually traced contours with similarly found area measurements and small point-to-point contour differences. In addition, the 3D fast-marching segmentation method dramatically reduced the analysis time compared to manual tracing. Such a valdiation study, with comparison between pre- and post-intervention data, has never been reported in the IVUS segmentation literature. In conclusion, the fast-marching method combining the information on the gray level distributions and intensity gradients of the images is precise and efficient to analyze large IVUS sequences. It is hoped that the fast-marching method will become a widely used tool for the fastidious and difficult task of IVUS image processing.
188

Optimisation de Lois de Gestion Énergétiques des Véhicules Hybrides

Granato, Giovanni 10 December 2012 (has links) (PDF)
L'objectif de ce travail consiste à appliquer des techniques de contrôle optimal pour améliorer la performance des lois de gestion d'énergie. Plus précisément, les techniques étudiées sont les solutions de viscosité de l'équation de Hamilton-Jacobi, des méthodes level-set pour l'étude de l'atteignabilité, la programmation dynamique stochastique, la programmation dynamique stochastique duale et les contraintes en probabilité. En premier lieu, ce document débute avec la présentation des outils techniques et modèles nécessaires à l'étude de l'optimisation des lois de gestion d'énergie au sein des véhicules hybrides. En deuxième lieu, nous regardons la synthèse des lois de gestion d'énergie en prenant compte des incertitudes dans le profil de vitesse du véhicule. Dans un premier moment, cette étude porte sur l'utilisation de la programmation dynamique stochastique. Dans un second moment, la programmation dynamique stochastique duale est analysée. Ensuite, nous introduisons une formulation du problème de contrôle optimal avec des contraintes en probabilités, visant la synthèse de lois plus flexibles. En troisième lieu, des résultats théoriques sur l'étude de l'atteignabilité des systèmes hybrides sont démontrés. L'ensemble des états atteignables est caractérisé par une fonction valeur. Nous démontrons ensuite que cette fonction valeur est l'unique solution d'un système d'inégalités quasi-variationnelles dans le sens de la viscosité. Aussi, nous montrons la convergence d'une classe de schémas numériques permettant le calcul de cette fonction valeur. Visant à approfondir l'étude sur l'atteignabilité, nous nous intéressons à une formulation de la dynamique hybride en temps discret, ce qui amène à l'utilisation d'un algorithme directement basé sur la programmation dynamique pour caractériser la fonction valeur. Finalement, nous
189

David Hume on probability and the Gambler’s fallacy

Tilli, Michele Orazio 05 1900 (has links)
Cette présentation examinera le degré de certitude qui peut être atteint dans le domaine scientifique. Le paradigme scientifique est composé de deux extrêmes; causalité et déterminisme d'un côté et probabilité et indéterminisme de l'autre. En faisant appel aux notions de Hume de la ressemblance et la contiguïté, on peut rejeter la causalité ou le hasard objectif comme étant sans fondement et non empirique. Le problème de l'induction et le sophisme du parieur proviennent d’une même source cognitif / heuristique. Hume décrit ces tendances mentales dans ses essais « Of Probability » et « Of the Idea of Necessary Connexion ». Une discussion sur la conception de la probabilité de Hume ainsi que d'autres interprétations de probabilité sera nécessaire. Même si la science glorifie et idéalise la causalité, la probabilité peut être comprise comme étant tout aussi cohérente. Une attitude probabiliste, même si elle est également non empirique, pourrait être plus avantageuse que le vieux paradigme de la causalité. / This presentation examines the degree of certainty which can be attained in science. The scientific paradigm is composed of two extremes; causality and determinism on one end and probability and indeterminism on the other. By appealing to Hume’s notions of resemblance and contiguity, we can dismiss any claim of objective causality or chance as being ungrounded for lack of an empirical basis. The problem of induction as well as the gambler’s fallacy stem from the same cognitive/heuristic source. Hume describes these mental tendencies in his essays ‘Of Probability’ and ‘Of the Idea of Necessary Connexion’. This will necessitate a discussion of Hume’s notion of probability, as well as other interpretations of probability. While science has glorified and romanticized causality, probability can be understood as being just as consistent. While a probabilistic stance is as non-empirical as a causal stance, it will be remarked that we may benefit from a paradigmatic switch to probabilism.
190

Estimation de probabilités d'évènements rares et de quantiles extrêmes. Applications dans le domaine aérospatial

Pastel, Rudy 14 February 2012 (has links) (PDF)
Les techniques dédiées aux évènements rares sont d'un grand intérêt pour l'industrie aérospatiale en raison des larges sommes qui peuvent être perdues à cause des risques associés à des probabilités infimes. Cette thèse se concentre la recherche d'outils probabilistes capables d'estimer les probabilités d'évènements rares et les quantiles extrêmes associés à un système boîte noire dont les entrées sont des variables aléatoires. Cette étude est faite au travers de deux cas issus de l'industrie. Le premier est l'estimation de la probabilité de collision entre les satellites Iridium et Cosmos. La Cross-Entropy (CE), le Non-parametric Adaptive Importance Sampling (NAIS) et une technique de type Adaptive Splitting (AST) sont comparés. Au cours de la comparaison, une version améliorée de NAIS est conçue. Au contraire du NAIS qui doit être initialisé avec une variable aléatoire qui génère d'emblée des événements rares, le NAIS adaptatif (ANAIS) peut être initialisé avec la variable aléatoire d'origine du système et n'exige donc pas de connaissance a priori. Le second cas d'étude est l'estimation de la zone de sécurité vis-à-vis de la chute d'un booster de fusée. Bien que les quantiles extrêmes puissent être estimés par le bais de ANAIS ou AST, ils apparaissent comme inadaptés à une distribution spatiale. A cette fin, le Minimum Volume Set (MVS) est choisi dans la littérature. L'estimateur Monte Carlo (MC) de MVS n'étant pas adapté à l'estimation d'un MVS de niveau extrême, des estimateurs dédiés sont conçus à partir d'ANAIS et d'AST. Ces deux derniers surpassent l'estimateur de type MC.

Page generated in 0.064 seconds