• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 92413
  • 58121
  • 33323
  • 15495
  • 5695
  • 3705
  • 1283
  • 1215
  • 1100
  • 1089
  • 1031
  • 967
  • 888
  • 710
  • Tagged with
  • 8959
  • 7929
  • 7340
  • 7090
  • 6404
  • 6143
  • 5752
  • 5192
  • 5036
  • 4578
  • 4482
  • 4384
  • 4201
  • 3527
  • 3481
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

The role of higher-order statistics in segmentation of natural textures

Arsenault, Elizabeth January 2013 (has links)
Our perceptual experience of the visual world relies on successful segmentation of distinct regions in an image to delineate the boundaries between them. This thesis details a series of studies that begin to bridge the gap between standard energy models of texture segmentation and the properties of natural textures that affect human texture segmentation in ecological settings. Psychophysical and computational methods are applied to a combination of natural and naturalistic textures in an effort to identify the statistics found in natural textures that are relevant to human texture segmentation mechanisms, and to understand how they are processed by the visual system. These studies draw a distinction between the energy present in an image of a texture (lower-order statistics, in the Fourier amplitude spectrum), and the spatial distribution of that energy (higher-order statistics, in the Fourier phase spectrum). The contribution of higher-order statistics to segmentation is assessed in a number of contexts by comparing psychophysical and model performance in the presence and absence of higher-order statistical information. As a whole, this work documents both the statistics that influence segmentation performance when they are the same on either side of the boundary, and those that enable performance when they define the boundary, while evaluating the extent to which present models of segmentation can take these statistics into account. The first study suggests that the higher-order statistics present in natural texture photographs not only influence but impair contrast-boundary segmentation mechanisms, and that sparseness may be a relevant higher-order statistic in this task. The second study uses naturalistic synthetic textures to assess individual image statistics experimentally. These experiments demonstrate that texture sparseness and global phase structure impair orientation and contrast boundary segmentation, but that local phase structure has little impact on segmentation. These findings can be accommodated by a standard filter-rectify-filter model in which the shape of the intermediate-stage nonlinearity is compressive. The third study suggests that global phase structure and texture sparseness can both enable and influence segmentation in the absence of any lower-order statistical cues for segmentation. The same model employed for contrast and orientation boundary segmentation data in the previous experiments can also account for the role of global structure and density, but not the role of local phase alignment, in these kinds of texture boundaries. / Notre expérience perceptuelle du monde visuel se base sur la bonne segmentation de régions distinctes dans une image pour en délimiter les bords. Cette thèse présente une série d'études qui tendent à combler le fossé entre les modèles d'énergie standards de segmentation de texture et les propriétés des textures naturelles qui affectent la segmentation de textures par l'homme en conditions écologiques. Des méthodes psychophysiques et computationnelles sont appliquées à une combinaison de textures naturelles et naturalistes afin d'identifier parmi les statistiques des textures naturelles, celles qui sont utiles aux mécanismes de segmentation de textures et comment elles sont traitées par le système visuel de l'homme. Ces études distinguent l'énergie présente dans l'image d'une texture (statistiques d'ordre plus bas dans le spectre d'amplitude de Fourier), et la distribution spatiale de cette énergie (statistiques d'ordre plus haut dans le spectre de phase de Fourier). La contribution des statistiques d'ordre plus haut à la segmentation est étudiée dans différents contextes en comparant les performances psychophysiques à celles de modèles, en présence ou non d'information statistique d'ordre plus haut. Dans l'ensemble, ce travail présente à la fois les statistiques qui influencent la performance de segmentation lorsqu'elles sont les mêmes de chaque côté d'un contour et celles qui la permettent lorsqu'elles définissent le contour, en évaluant jusqu'à quel point les modèles de segmentation présentés peuvent prendre en compte ces statistiques.La première étude suggère que les statistiques d'ordre plus haut présentes dans les photographies de textures naturelles non seulement influencent mais altèrent les mécanismes de segmentation de contours de contraste, et que la dispersion peut être une statistique d'ordre plus haut pertinente pour cette tâche. La seconde étude utilise des textures synthétiques naturalistes pour évaluer expérimentalement les statistiques de chaque image. Ces études démontrent que la dispersion des textures et la structure de phase globale altèrent la segmentation de contours définis par le contraste ou l'orientation mais que la structure de phase locale n'a que peu d'impact sur la segmentation. Ces observations peuvent être accommodées par un modèle standard filtre-redresse-filtre dans lequel la non-linéarité du niveau intermédiaire est compressive. La troisième étude suggère que la structure de phase globale et la dispersion peuvent toutes deux permettre et influencer la segmentation en l'absence d'indice statistique d'ordre plus bas. Le même modèle employé pour la segmentation de contours définis par le contraste ou l'orientation peut aussi expliquer le rôle de la structure et de la densité globale mais pas le rôle de l'alignement local de phase dans ce type de contours de texture.
72

Culturally situated self-regulated learning in statistics in a computer-supported collaborative environment

Shi, Yongchao January 2010 (has links)
This thesis examines the role of context, especially cultural context, in contemporary theoretical models of self-regulated learning. A critical review of prominent models revealed that although current models of self-regulated learning recognize the role of social contexts in forming self-regulatory competency, they assume that, once established, self-regulation functions largely independently of the social context. However, this is not the case in social situations, nor is it the case in Eastern cultures and many non-mainstream Western sub-cultures, in which individuals typically self-regulate in relation to others. To address this issue, a situated discourse model of self-regulated learning was developed to involve both individually oriented and socially oriented regulatory processes. This model was then tested in a context of computer-supported learning in statistics. Participants were 30 Canadian male students and 30 Chinese male students who were enrolled in a major university in Canada. The students were randomly paired to learn analysis of variance for one hour as they solved a data analysis problem by using a computer tutor. Pairs were allowed to learn in a way of their own choice or simply by following the directions prescribed by the researcher. The students had little or no prior knowledge of analysis of variance. The results were consistent with research hypotheses derived from the proposed model. Compared with Chinese pairs, Canadian pairs engaged more with tasks of their own choice as revealed in the computer logs, and favoured more individually oriented actions both in solving their problem and in learning on the computer tutor as shown in their discourse. Moreover, Canadian pairs demonstrated a stronger preference for the employment of individually oriented self-regulatory strategies in the forethought and performance phases of self-regulated learning than did Chinese pairs. Furthermore, there were significant differences between Canadian pai / La présente thèse consiste à examiner le rôle du contexte social, particulièrement celui du contexte culturel, dans les modèles théoriques contemporains d'apprentissage auto-régulé. Une revue critique des modèles proéminents relève que bien que les modèles présents d'apprentissage auto-régulé reconnaissent le rôle du contexte social dans la formation des compétences auto-régulées, ils assument le fait qu'une fois établi, l'apprentissage auto-régulé fonctionne indépendamment du contexte social. Pourtant, ceci n'est pas le cas dans les contextes sociaux, ni dans les cultures orientales et ni dans les sous-cultures occidentales minorités, dans lesquels les individus s'auto-régulent en se référant aux autres. Pour faire face à ce problème, un discours de modèle de mise en situation de l'apprentissage auto-réglementé est présenté afin de s'adresser aux processus réglementaires, qui se concentrent autant sur les individus et sur les sociétés. Ce modèle a été testé dans le contexte d'apprentissage aux ordinateurs. Les participants étaient 30 étudiants mâles canadiens et 30 étudiants mâles chinois qui étudiaient dans une université majeure du Canada. Ils étaient appariés aléatoirement pour connaître l'analyse de variance pour une heure pendant lequel ils résolvaient un problème d'analyse des données avec l'assistance d'un ordinateur. Les pairs pouvaient soit apprendre d'une façon de leur propre choix ou soit de suivre simplement les directions prescrites par le chercheur. Les étudiants n'avaient aucune connaissance sur l'analyse de variance. Les résultats obtenus correspondent avec l'hypothèse de recherche dérivée du modèle proposé. Par rapport à leurs collègues chinois, les participants canadiens s'engagent davantage dans les tâches de leur propre choix comme ce que révèlent les logs de l'ordinateur et préfèrent une approche plus individuelle autant dans la résolution des problèmes que dans l'app
73

Modeling of urban tree growth with artificial intelligence and multivariate statistics

Jutras, Pierre January 2008 (has links)
The urban environment induces severe ecological conditions that impair tree growth. This situation is of major concern to municipal administrations that devote large budgets to arboricultural programmes. To adequately preserve arboreal heritage, three main issues must be resolved. First, biotic and abiotic inventory parameters that can express the complexity of street tree growth have to be assessed. Second, for an enhanced understanding of tree health and related environmental conditions, an analytical methodology should be defined to cluster street trees with similar growth patterns. Third, optimized tree-inventory procedures ought to be determined. To fulfill these objectives, multiple variables were measured on 1532 trees and associated sites in Montreal (Quebec, Canada). Seven species representing 75% of the total street tree population were sampled. To identify key inventory parameters, two approaches were used: multivariate statistics (principal coordinate and correspondence analyses) determined biotic variables, and contingency analysis investigated environmental variables. Results from the multivariate analysis revealed that qualitative biotic parameters are of low explanatory importance. Conversely, it was discovered that modeling with the synergistic combination of 11 specific quantitative biotic parameters gave an adequate portrayal of all tree physiological stages. Contingency analysis unveiled links between some environmental factors and tree growth. Overall, nine factors were identified as central inventory parameters for some or all species. To develop the classification methodology, a two-step procedure was chosen. First, intermediate linkage clustering and correspondence analysis were used to ascertain groups with dissimilar growth rates. Second, the clustering knowledge was used to train radial basis function networks to recognize tree growth patterns and predict cluster affiliation. Global cluster classification was estimated by computing t / Les conditions urbaines créent un milieu rude qui limite la croissance des arbres sur rue. Cette situation est préoccupante pour les administrations municipales qui investissent des sommes considérables dans leur programme arboricole. Afin de protéger adéquatement ce riche héritage, trois importantes actions doivent être entreprises. Premièrement, il y a lieu d'identifier des paramètres d'inventaire qui caractérisent au mieux le développement des arbres sur rue. Deuxièmement, afin d'appréhender la complexité des relations entre la croissance des arbres et les conditions environnementales, il est impérieux de définir une méthode analytique permettant le classement des arbres dans des groupes à croissance similaire. Enfin, de nouvelles pratiques d'inventaire efficaces doivent être établies. Afin d'atteindre ces objectifs, de nombreux paramètres ont été mesurés sur 1532 arbres et sites afférents (Montréal, Québec, Canada). Sept espèces arborescentes reflétant 75% de la composition du patrimoine montréalais planté sur rue ont été échantillonnées. Pour l'identification des paramètres d'inventaire, deux approches ont été retenues. La première consistait à utiliser les statistiques multidimensionnelles (analyses en coordonnées principales et des correspondances) pour estimer l'importance de variables biotiques. La deuxième approche, l'utilisation de l'analyse de contingence, visait à distinguer les paramètres abiotiques les plus significatifs. Les résultats de l'analyse multidimensionnelle ont révélé que les paramètres qualitatifs sont peu significatifs. À l'opposé, l'utilisation synchronique de 11 paramètres quantitatifs a permis de décrire adéquatement les différents stades physiologiques de l'arbre sur rue. L'analyse de contingence a démontré que certains facteurs environnementaux affectent la performance de certaines espèces ou de l'ensemble des espèces étudiées. Ainsi, neuf facteurs spécifiques sont à$
74

Algorithmes stochastiques pour la statistique robuste en grande dimension / Stochastic algorithms for robust statistics in high dimension

Godichon-Baggioni, Antoine 17 June 2016 (has links)
Cette thèse porte sur l'étude d'algorithmes stochastiques en grande dimension ainsi qu'à leur application en statistique robuste. Dans la suite, l'expression grande dimension pourra aussi bien signifier que la taille des échantillons étudiés est grande ou encore que les variables considérées sont à valeurs dans des espaces de grande dimension (pas nécessairement finie). Afin d'analyser ce type de données, il peut être avantageux de considérer des algorithmes qui soient rapides, qui ne nécessitent pas de stocker toutes les données, et qui permettent de mettre à jour facilement les estimations. Dans de grandes masses de données en grande dimension, la détection automatique de points atypiques est souvent délicate. Cependant, ces points, même s'ils sont peu nombreux, peuvent fortement perturber des indicateurs simples tels que la moyenne ou la covariance. On va se concentrer sur des estimateurs robustes, qui ne sont pas trop sensibles aux données atypiques. Dans une première partie, on s'intéresse à l'estimation récursive de la médiane géométrique, un indicateur de position robuste, et qui peut donc être préférée à la moyenne lorsqu'une partie des données étudiées est contaminée. Pour cela, on introduit un algorithme de Robbins-Monro ainsi que sa version moyennée, avant de construire des boules de confiance non asymptotiques et d'exhiber leurs vitesses de convergence $L^{p}$ et presque sûre.La deuxième partie traite de l'estimation de la "Median Covariation Matrix" (MCM), qui est un indicateur de dispersion robuste lié à la médiane, et qui, si la variable étudiée suit une loi symétrique, a les mêmes sous-espaces propres que la matrice de variance-covariance. Ces dernières propriétés rendent l'étude de la MCM particulièrement intéressante pour l'Analyse en Composantes Principales Robuste. On va donc introduire un algorithme itératif qui permet d'estimer simultanément la médiane géométrique et la MCM ainsi que les $q$ principaux vecteurs propres de cette dernière. On donne, dans un premier temps, la forte consistance des estimateurs de la MCM avant d'exhiber les vitesses de convergence en moyenne quadratique.Dans une troisième partie, en s'inspirant du travail effectué sur les estimateurs de la médiane et de la "Median Covariation Matrix", on exhibe les vitesses de convergence presque sûre et $L^{p}$ des algorithmes de gradient stochastiques et de leur version moyennée dans des espaces de Hilbert, avec des hypothèses moins restrictives que celles présentes dans la littérature. On présente alors deux applications en statistique robuste: estimation de quantiles géométriques et régression logistique robuste.Dans la dernière partie, on cherche à ajuster une sphère sur un nuage de points répartis autour d'une sphère complète où tronquée. Plus précisément, on considère une variable aléatoire ayant une distribution sphérique tronquée, et on cherche à estimer son centre ainsi que son rayon. Pour ce faire, on introduit un algorithme de gradient stochastique projeté et son moyenné. Sous des hypothèses raisonnables, on établit leurs vitesses de convergence en moyenne quadratique ainsi que la normalité asymptotique de l'algorithme moyenné. / This thesis focus on stochastic algorithms in high dimension as well as their application in robust statistics. In what follows, the expression high dimension may be used when the the size of the studied sample is large or when the variables we consider take values in high dimensional spaces (not necessarily finite). In order to analyze these kind of data, it can be interesting to consider algorithms which are fast, which do not need to store all the data, and which allow to update easily the estimates. In large sample of high dimensional data, outliers detection is often complicated. Nevertheless, these outliers, even if they are not many, can strongly disturb simple indicators like the mean and the covariance. We will focus on robust estimates, which are not too much sensitive to outliers.In a first part, we are interested in the recursive estimation of the geometric median, which is a robust indicator of location which can so be preferred to the mean when a part of the studied data is contaminated. For this purpose, we introduce a Robbins-Monro algorithm as well as its averaged version, before building non asymptotic confidence balls for these estimates, and exhibiting their $L^{p}$ and almost sure rates of convergence.In a second part, we focus on the estimation of the Median Covariation Matrix (MCM), which is a robust dispersion indicator linked to the geometric median. Furthermore, if the studied variable has a symmetric law, this indicator has the same eigenvectors as the covariance matrix. This last property represent a real interest to study the MCM, especially for Robust Principal Component Analysis. We so introduce a recursive algorithm which enables us to estimate simultaneously the geometric median, the MCM, and its $q$ main eigenvectors. We give, in a first time, the strong consistency of the estimators of the MCM, before exhibiting their rates of convergence in quadratic mean.In a third part, in the light of the work on the estimates of the median and of the Median Covariation Matrix, we exhibit the almost sure and $L^{p}$ rates of convergence of averaged stochastic gradient algorithms in Hilbert spaces, with less restrictive assumptions than in the literature. Then, two applications in robust statistics are given: estimation of the geometric quantiles and application in robust logistic regression.In the last part, we aim to fit a sphere on a noisy points cloud spread around a complete or truncated sphere. More precisely, we consider a random variable with a truncated spherical distribution, and we want to estimate its center as well as its radius. In this aim, we introduce a projected stochastic gradient algorithm and its averaged version. We establish the strong consistency of these estimators as well as their rates of convergence in quadratic mean. Finally, the asymptotic normality of the averaged algorithm is given.
75

Morphologie, Géométrie et Statistiques en imagerie non-standard / Morphology, Geometry and Statistics in non-standard imaging

Chevallier, Emmanuel 18 November 2015 (has links)
Le traitement d'images numériques a suivi l'évolution de l'électronique et de l'informatique. Il est maintenant courant de manipuler des images à valeur non pas dans {0,1}, mais dans des variétés ou des distributions de probabilités. C'est le cas par exemple des images couleurs où de l'imagerie du tenseur de diffusion (DTI). Chaque type d'image possède ses propres structures algébriques, topologiques et géométriques. Ainsi, les techniques existantes de traitement d'image doivent être adaptés lorsqu'elles sont appliquées à de nouvelles modalités d'imagerie. Lorsque l'on manipule de nouveaux types d'espaces de valeurs, les précédents opérateurs peuvent rarement être utilisés tel quel. Même si les notions sous-jacentes ont encore un sens, un travail doit être mené afin de les exprimer dans le nouveau contexte. Cette thèse est composée de deux parties indépendantes. La première, « Morphologie mathématiques pour les images non standards », concerne l'extension de la morphologie mathématique à des cas particuliers où l'espace des valeurs de l'image ne possède pas de structure d'ordre canonique. Le chapitre 2 formalise et démontre le problème de l'irrégularité des ordres totaux dans les espaces métriques. Le résultat principal de ce chapitre montre qu'étant donné un ordre total dans un espace vectoriel multidimensionnel, il existe toujours des images à valeur dans cet espace tel que les dilatations et les érosions morphologiques soient irrégulières et incohérentes. Le chapitre 3 est une tentative d'extension de la morphologie mathématique aux images à valeur dans un ensemble de labels non ordonnés.La deuxième partie de la thèse, « Estimation de densités de probabilités dans les espaces de Riemann » concerne l'adaptation des techniques classiques d'estimation de densités non paramétriques à certaines variétés Riemanniennes. Le chapitre 5 est un travail sur les histogrammes d'images couleurs dans le cadre de métriques perceptuelles. L'idée principale de ce chapitre consiste à calculer les histogrammes suivant une approximation euclidienne local de la métrique perceptuelle, et non une approximation globale comme dans les espaces perceptuels standards. Le chapitre 6 est une étude sur l'estimation de densité lorsque les données sont des lois Gaussiennes. Différentes techniques y sont analysées. Le résultat principal est l'expression de noyaux pour la métrique de Wasserstein. / Digital image processing has followed the evolution of electronic and computer science. It is now current to deal with images valued not in {0,1} or in gray-scale, but in manifolds or probability distributions. This is for instance the case for color images or in diffusion tensor imaging (DTI). Each kind of images has its own algebraic, topological and geometric properties. Thus, existing image processing techniques have to be adapted when applied to new imaging modalities. When dealing with new kind of value spaces, former operators can rarely be used as they are. Even if the underlying notion has still a meaning, a work must be carried out in order to express it in the new context.The thesis is composed of two independent parts. The first one, "Mathematical morphology on non-standard images", concerns the extension of mathematical morphology to specific cases where the value space of the image does not have a canonical order structure. Chapter 2 formalizes and demonstrates the irregularity issue of total orders in metric spaces. The main results states that for any total order in a multidimensional vector space, there are images for which the morphological dilations and erosions are irregular and inconsistent. Chapter 3 is an attempt to generalize morphology to images valued in a set of unordered labels.The second part "Probability density estimation on Riemannian spaces" concerns the adaptation of standard density estimation techniques to specific Riemannian manifolds. Chapter 5 is a work on color image histograms under perceptual metrics. The main idea of this chapter consists in computing histograms using local Euclidean approximations of the perceptual metric, and not a global Euclidean approximation as in standard perceptual color spaces. Chapter 6 addresses the problem of non parametric density estimation when data lay in spaces of Gaussian laws. Different techniques are studied, an expression of kernels is provided for the Wasserstein metric.
76

Statistique des zéros non-triviaux de fonctions L de formes modulaires / Statistics on non-trivial zeros of modular L-functions

Bernard, Damien 09 December 2013 (has links)
Cette thèse se propose d’obtenir des résultats statistiques sur les zéros non-triviaux de fonctions L. Dans le cas des fonctions L de formes modulaires, on prouve qu’une proportion positive explicite de zéros non-triviaux se situe sur la droite critique. Afin d’arriver à ce résultat, il nous faut préalablement étendre un théorème sur les problèmes de convolution avec décalage additif en moyenne de manière à déterminer le comportement asymptotique du second moment intégral ramolli d’une fonction L de forme modulaire au voisinage de la droite critique. Une autre partie de cette thèse, indépendante de la précédente, est consacrée à l'étude du plus petit zéro non-trivial d’une famille de fonctions L. Ces résultats sont en particulier appliqués aux fonctions L de puissance symétrique. / The purpose of this dissertation is to get some statistical results related to nontrivial zeros of L-functions. In the modular case, we prove and determine an explicit positive proportion of non-trivial zeros lying on the critical line. In order to obtain this result, we need to extend a theorem on shifted convolution sums on average to be able to determine the asymptotic behaviour of the mollified second integral moment of a modular L-function close to the critical line. Independently of these results, we study the smallest non-trivial zero in a family of L-functions. These results are applied to symmetric power L-functions.
77

Contributions à la sélection des variables en statistique multidimensionnelle et fonctionnelle / Contributions to the variable selection in multidimensional and functional statistics

Mbina Mbina, Alban 28 October 2017 (has links)
Cette thèse porte sur la sélection des variables dans les modèles de régression linéaires multidimensionnels et les modèles de régression linéaires fonctionnels. Plus précisément, nous proposons trois nouvelles approches de sélection de variables qui généralisent des méthodes existantes dans la littérature. La première méthode permet de sélectionner des variables aléatoires continues dans un modèle linéaire multidimensionnel. Cette approche généralise celle de NKIET (2001) obtenue dans le cas d'un modèle linéaire unidimensionnel. Une étude comparative, par simulation, basée sur le calcul de la perte de prédiction montre que notre méthode est meilleure à celle de An et al. (2013). La deuxième approche propose une nouvelle méthode de sélection des variables mixtes (mélange de variables discrètes et de variables continues) en analyse discriminante pour plus de deux groupes. Cette méthode est basée sur la généralisation dans le cadre mixte de l'approche de NKIET (2012) obtenue dans le cas de l'analyse discriminante de plus de deux groupes. Une étude comparative par simulation montre, à partir du taux de bon classement que cette méthode a les mêmes performances que celle de MAHAT et al. (2007) dans le cas de deux groupes. Enfin, nous proposons dans la troisième approche une méthode de sélection de variables dans un modèle linéaire fonctionnel additif. Pour cela, nous considérons un modèle de régression d'une variable aléatoire réelle sur une somme de variables aléatoires fonctionnelles. En utilisant la distance de Hausdorff, qui mesure l'éloignement entre deux ensembles, nous montrons dans un exemple par simulation, une illustration de notre approche. / This thesis focuses on variables selection on linear models and additif functional linear model. More precisely we propose three variables selection methods. The first one is concerned with the selection continuous variables of multidimentional linear model. The comparative study based on prediction loss shows that our method is beter to method of An et al. (2013) Secondly, we propose a new selection method of mixed variables (mixing of discretes and continuous variables). This method is based on generalization in the mixed framwork of NKIET (2012) method, more precisely, is based on a generalization of linear canonical invariance criterion to the framework of discrimination with mixed variables. A comparative study based on the rate of good classification show that our method is equivalente to the method of MAHAT et al. (2007) in the case of two groups. In the third method, we propose an approach of variables selection on an additive functional linear model. A simulations study shows from Hausdorff distance an illustration of our approach.
78

Multiparametric organ modeling for shape statistics and simulation procedures / Modélisation multiparamétriques des organes pour des statistiques de forme et des procédures de simulation

Prieto Bernal, Juan Carlos 31 January 2014 (has links)
La modélisation géométrique a été l'un des sujets les plus étudiés pour la représentation des structures anatomiques dans le domaine médical. Aujourd'hui, il n'y a toujours pas de méthode bien établie pour modéliser la forme d'un organe. Cependant, il y a plusieurs types d'approches disponibles et chaque approche a ses forces et ses faiblesses. La plupart des méthodes de pointe utilisent uniquement l'information surfacique mais un besoin croissant de modéliser l'information volumique des objets apparaît. En plus de la description géométrique, il faut pouvoir différencier les objets d'une population selon leur forme. Cela nécessite de disposer des statistiques sur la forme dans organe dans une population donné. Dans ce travail de thèse, on utilise une représentation capable de modéliser les caractéristiques surfaciques et internes d'un objet. La représentation choisie (s-rep) a en plus l'avantage de permettre de déterminer les statistiques de forme pour une population d'objets. En s'appuyant sur cette représentation, une procédure pour modéliser le cortex cérébral humain est proposée. Cette nouvelle modélisation offre de nouvelles possibilités pour analyser les lésions corticales et calculer des statistiques de forme sur le cortex. La deuxième partie de ce travail propose une méthodologie pour décrire de manière paramétrique l'intérieur d'un objet. La méthode est flexible et peut améliorer l'aspect visuel ou la description des propriétés physiques d'un objet. La modélisation géométrique enrichie avec des paramètres physiques volumiques est utilisée pour la simulation d'image par résonance magnétique pour produire des simulations plus réalistes. Cette approche de simulation d'images est validée en analysant le comportement et les performances des méthodes de segmentations classiquement utilisées pour traiter des images réelles du cerveau. / Geometric modeling has been one of the most researched areas in the medical domain. Today, there is not a well established methodology to model the shape of an organ. There are many approaches available and each one of them have different strengths and weaknesses. Most state of the art methods to model shape use surface information only. There is an increasing need for techniques to support volumetric information. Besides shape characterization, a technique to differentiate objects by shape is needed. This requires computing statistics on shape. The current challenge of research in life sciences is to create models to represent the surface, the interior of an object, and give statistical differences based on shape. In this work, we use a technique for shape modeling that is able to model surface and internal features, and is suited to compute shape statistics. Using this technique (s-rep), a procedure to model the human cerebral cortex is proposed. This novel representation offers new possibilities to analyze cortical lesions and compute shape statistics on the cortex. The second part of this work proposes a methodology to parameterize the interior of an object. The method is flexible and can enhance the visual aspect or the description of physical properties of an object. The geometric modeling enhanced with physical parameters is used to produce simulated magnetic resonance images. This image simulation approach is validated by analyzing the behavior and performance of classic segmentation algorithms for real images.
79

Ultrasound tissue characterization using speckle statistics / Caractérisation ultrasonore des tissus par une approche statistique

Cristea, Anca 09 December 2015 (has links)
L'objectif de la caractérisation des tissus par ultrasons ou ‘Quantitative Ultrasound (QUS)’ est de différencier les tissus pathologiques en associant les paramètres d’un modèle aux caractéristiques physiques du tissu. L'usage exclusif des ultrasons pour obtenir un diagnostic peut garantir que le patient ne subira pas une procédure invasive (e.g. une biopsie), utilisant des rayonnements ionisants (e.g. la tomographie) ou même inconfortable et coûteuse (e.g. IRM). Les méthodes de QUS extraient des informations sur la microstructure du tissu à partir du contenu spectral ou temporel des signaux ultrasonores. Le signal temporel radiofréquence (RF) et son enveloppe sont d'intérêt à cause du speckle crée par l’interférence des ondes, qui peut être modélisé par des distributions statistiques. Ce travail propose d'explorer la possibilité d'obtenir des estimations QUS fiables en utilisant des distributions statistiques comme modèles pour le speckle ultrasonore. Les estimations sont constituées des paramètres des distributions respectives et dépendent de la densité de diffuseurs dans le milieu. L’évaluation s’effectue sur des images simulées, des fantômes de particules et des biofantômes. Dans la première partie, la distribution Gaussienne Généralisée est utilisée pour modéliser le signal RF, et la distribution de Nakagami est utilisée pour modéliser son enveloppe. Les deux distributions sont limitées à discriminer les milieux avec une faible densité de diffuseurs, parce que les valeurs de leurs paramètres de forme saturent pour un speckle pleinement développé. Par conséquent, puisque la formation du speckle pleinement développé dépend de la résolution du système d'imagerie, la caractérisation peut se faire seulement à de très hautes résolutions, correspondant à des hautes fréquences qui ne sont pas communes en échographie clinique. Une application du modèle de Nakagami sur l’image crée par la seconde harmonique montre le potentiel du paramètre de forme de Nakagami en tant que mesure de la nonlinéarité du milieu. Dans la deuxième partie, l'enveloppe a été modélisée en utilisant la distribution K-Homodyne. Le paramètre de regroupement des diffuseurs α permet de discriminer entre les milieux denses jusqu’à une limite supérieure à celle du paramètre de Nakagami. Pourtant, cette limite est difficile à estimer avec précision, parce que les valeurs caractéristiques pour le speckle pleinement développé sont affectées par un biais et une variance élevés. Le biais et la variance peuvent être améliorés en augmentant la quantité de données utilisée pour l’estimation. Dans la dernière partie, une technique de déconvolution spécialement conçue pour la caractérisation des tissus a été évaluée. Des essais exhaustifs ont montré qu’elle n’est pas suffisamment robuste pour une application clinique, puisque les images déconvoluées ne sont pas fidèles à la réflectivité originale du milieu / The purpose of ultrasound tissue characterization or Quantitative Ultrasound (QUS) is to differentiate between tissue pathologies by associating model parameters to physical tissue features. The exclusive use of ultrasound for diagnosis would guarantee that the patient does not undergo a procedure that is invasive (e.g. a biopsy), using ionizing radiation (e.g. tomography) or simply uncomfortable and expensive (e.g. MRI). QUS methods extract information on the tissue microstructure from the temporal or spectral content of the acquired ultrasound signals. The temporal radiofrequency (RF) signal and its envelope are of interest because of the speckle patterns created by wave interference, which can be modeled by statistical distributions. The present work proposes to explore the possibility of obtaining reliable QUS estimates by using statistical distributions as models for ultrasound speckle. The estimates consist in the parameters of the respective distributions and are indicators of the scatterer density in the medium. The evaluation is conducted on simulated images, particle phantoms and biophantoms. In the first part, the Generalized Gaussian distribution is used to model the RF signal, and the Nakagami distribution is used to model its envelope. The two distributions show limitations in discriminating media with high scatterer densities, as the values of their shape parameters saturate in the fully developed speckle regime. Therefore, since the formation of fully developed speckle depends on the resolution of the imaging system, characterization can be done only at very high resolutions, corresponding to high frequencies that are not common in clinical ultrasound. An application of the Nakagami model on the second harmonic image shows the potential of the Nakagami shape parameter as a measure of the nonlinearity of the medium. In the second part, the echo envelope was modeled using the Homodyned-K distribution. The scatterer clustering parameter α allows the discrimination of dense media up to a concentration that is higher than the one that limits the Nakagami distribution. However, this limit is difficult to estimate precisely, because the values of α that are characteristic for fully developed speckle suffer from large estimation bias and variance. The bias and the variance can be improved by performing the estimation on a very large amount of data. In the final part, a deconvolution technique designed specifically for ultrasound tissue characterization has been analyzed. Extensive testing has shown it to not be sufficiently robust for clinical applications, since the deconvolved images are not reliable in terms of fidelity to the original reflectivity of the medium
80

Ondes scélérates et statistiques extrêmes dans les systèmes optiques fibrés / Rogue waves and extremes statistics in fibered optical systems

Hammani, Kamal 14 October 2011 (has links)
Ce mémoire présente des travaux portant sur les ondes aux statistiques extrêmes qui représentent un sujet extrêmement attractif en optique depuis qu’une comparaison avec les vagues scélérates océaniques a été proposée fin 2007. Nous décrivons donc les mécanismes de formations de ces structures extrêmes dans le cadre de la propagation guidée de la lumière dans les fibres optiques. Dans une première partie, nous commençons par explorer les ondes scélérates optiques dans les supercontinuums générés par instabilité modulationnelle d’ordre 4 et proposons une méthode de stabilisation basée sur l’utilisation de deux germes continus. Puis, nous continuons avec une étude approfondie sur les amplificateurs Raman à fibre où des conditions d’apparitions des structures géantes sont déterminées. En effet, en présence d’une pompe partiellement incohérente comme le laser Raman fibré, un gain quasi-instantané et un faible walk-off mènent à des statistiques extrêmes. Cela a pu être vérifié que le signal soit continu ou impulsionnel et dans le cadre d’un amplificateur paramétrique basé sur l’instabilité modulationnelle d’ordre 2 incohérente. Dans la dernière partie, un système turbulent est étudié en fonction de l’incohérence ce qui nous a permis d’identifier trois régimes avec, en particulier, le second où il existe des quasi-solitons intermittents. Enfin, nous nous intéressons à des structures non-linéaires appelées Breathers d’Akhmediev, qui présentent des cycles de compression-décompression, et portons notre attention sur leur limite asymptotique : le soliton de Peregrine. Ce dernier est vu comme un prototype très intéressant des vagues scélérates. Nos études expérimentales, menées aux longueurs d’ondes des communications optiques et utilisant différentes méthodes de caractérisations spectro-temporelles, sont complétées par des études numériques et analytiques. / This thesis deals with extremes statistics which has become an attractive subject in optics since a comparison with oceanic rogue waves has been proposed at the end of 2007. We report some potential mechanisms stimulating the rogue wave formation in the context of guided propagation of light in optical fibers. In a first part, we explore optical rogue waves in supercontinuums generated by fourth-order modulation instability and we propose a stabilization method based on the use of two continuous seeds. Then, we present a detailed study on Raman fiber amplifiers where we determine the conditions of emergence of giant structures : in presence of a partially incoherent pumping wave, a quasi-instantaneous gain combined with a low walk-off lead to extremes statistics. We have validated these conditions for a continuous wave as well as a pulse train. Conclusions have also been successfully extended to a parametric amplifier based on incoherent second-order modulation instability. In the last part, a turbulent system is studied as a function of incoherence and we identify three regimes. In one of these regimes, we highlight the existence of intermittent quasi-solitons. Finally, we are interested in nonlinear structures called Akhmediev Breathers which present compression-decompression cycles and we focus our attention on its asymptotic limit: the Peregrine soliton. It corresponds to a very interesting prototype of rogue waves. Our experimental work, performed at optical communication wavelength and using several methods of spectro-temporal characterization, is complemented by numerical and analytical studies.

Page generated in 0.198 seconds