• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 26
  • 24
  • 7
  • Tagged with
  • 55
  • 55
  • 26
  • 15
  • 15
  • 13
  • 13
  • 12
  • 11
  • 10
  • 10
  • 10
  • 9
  • 8
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Acquisition et traitement d’images hyperspectrales pour l’aide à la visualisation peropératoire de tissus vitaux / Acquisition and processing of hyperspectral images for assisted intraoperative visualization of vital tissues

Nouri Kridiss, Dorra 26 May 2014 (has links)
L’imagerie hyperspectrale issue de la télédétection, va devenir une nouvelle modalité d’imagerie médicale pouvant assister le diagnostic de plusieurs pathologies via la détection des marges tumorales des cancers ou la mesure de l’oxygénation des tissus. L’originalité de ce travail de thèse est de fournir au chirurgien en cours d’intervention une vision améliorée du champ opératoire grâce à une image RGB affichée sur écran, résultat de traitements des cubes hyperspectraux dans le visible, le proche infrarouge et le moyen infrarouge (400-1700 nm). Notre application permet la détection des tissus difficilement détectables et vitaux comme l’uretère. Deux prototypes d’imagerie hyperspectrale utilisant les filtres programmables à cristaux liquides ont été développés, calibrés et mis en oeuvre dans de nombreuses campagnes d’expérimentations précliniques. Les résultats présentés dans cette thèse permettent de conclure que les méthodes de sélection de bandes sont les plus adaptées pour une application interventionnelle de l’imagerie hyperspectrale en salle d’opération puisqu’elles affichent une quantité maximale d’information, un meilleur rendu naturel de l’image RGB résultante et une amélioration maximale de la visualisation de la scène chirurgicale puisque le contraste dans l’image résultat entre le tissu d’intérêt et les tissus environnants a été triplé par rapport à l’image visualisée par l’oeil du chirurgien. Le principal inconvénient de ces méthodes réside dans le temps d’exécution qui a été nettement amélioré par les méthodes combinées proposées. De plus, la bande spectrale du moyen infrarouge est jugée plus discriminante pour explorer les données hyperspectrales associées à l’uretère puisque la séparabilité entre les tissus y est nettement supérieure par rapport à la gamme spectrale du visible. / Hyperspectral imagery initially applied for remote sensing will become a new medical imaging modality that may assist the diagnosis of several diseases through the detection of tumoral margins of cancers or the measure of the tissue oxygenation. The originality of this work is to provide, during surgery, an improved vision of the operative field with a RGB image displayed on screen, as the result of hyperspectral cubes processing in the visible, near infrared and mid-infrared (400-1700 nm). Our application allows the detection of hard noticeable and vital tissues as the ureter. Two hyperspectral imaging prototype using liquid crystal tunable filters have been developed, calibrated and implemented in many preclinical experiments campaigns. The results presented in this thesis allow to conclude that the methods of band selection are most suitable for interventional application of hyperspectral imaging in operating room since they show a maximal amount of information, a better natural rendering of the resulting RGB image and a maximal improvement of visualization of the surgical scene as the contrast in the resulting image between the tissue of interest and the surrounding tissues was tripled compared to the image viewed by the surgeon’s eye. The main drawback of these methods lies in the execution time which was significantly improved by the proposed combined methods. Furthermore, the mid-infrared spectral range is considered more discriminating to explore hyperspectral data associated with the ureter as the separability between tissues is significantly higher compared to the visible spectral range.
22

Diagnostic du colmatage des générateurs de vapeur à l'aide de modèles physiques et statistiques / Steam generators clogging diagnosis through physical and statistical modelling

Girard, Sylvain 17 December 2012 (has links)
Les générateurs de vapeur sont d'imposants échangeurs de chaleur qui alimentent les turbines des centrales nucléaires à eau pressurisée. Au cours de leur exploitation, des dépôts d'oxydes s'y accumulent et obstruent progressivement des trous prévus pour le passage du fluide. Ce phénomène, appelé colmatage, pose des problèmes de sûreté. Une méthode de diagnostic est nécessaire pour optimiser la stratégie de maintenance permettant de s'en prémunir. La piste explorée dans cette thèse est l'analyse de la réponse dynamique des générateurs de vapeur lors de transitoire de puissance, à l'aide d'un modèle physique monodimensionnel. Deux améliorations ont été apportées au modèle existant au cours de la thèse : la prise en compte des débits perpendiculaires à l'axe du générateur de vapeur et la modélisation du déséquilibre cinématique entre la phase liquide et la phase vapeur. Ces éléments ont ajouté des degrés de liberté permettant de mieux reproduire le comportement réel des générateurs de vapeur. Une nouvelle méthodologie de calage et de validation a alors été proposée afin de garantir la robustesse du modèle.Le problème inverse initial était mal posé car plusieurs configurations spatiales de colmatage peuvent donner des réponses identiques. La magnitude relative de l'effet des dépôts suivant leur localisation a été évaluée par analyse de sensibilité avec la méthode de Sobol'. La dimension de la sortie fonctionnelle du modèle a au préalable été réduite par une analyse en composantes principales.Enfin, une méthode de réduction de dimension appelée régression inverse par tranches a été mise en œuvre pour déterminer dessous-espaces de projection optimaux pour le diagnostic. Une méthode de diagnostic plus robuste et mieux maitrisée que celle existante a pu être proposée grâce à cette nouvelle formulation. / Steam generators are massive heat exchangers feeding the turbines of pressurised water nuclear power plants. Internal parts of steam generators foul up with iron oxides which gradually close some holes aimed for the passing of the fluid. This phenomenon called clogging causes safety issues and means to assess it are needed to optimise the maintenance strategy. The approach investigated in this thesis is the analysis of steam generators dynamic behaviour during power transients with a monodimensional physical model. Two improvements to the model have been implemented. One was taking into account flows orthogonal to the modelling axis, the other was introducing a slip between phases accounting for velocity difference between liquid water and steam. These two elements increased the model's degrees of freedom and improved the adequacy of the simulati onto plant data. A new calibration and validation methodology has been proposed to assess the robustness of the model. The initial inverse problem was ill posed: different clogging spatial configurations can produce identical responses. The relative importance of clogging, depending on its localisation, has been estimated by sensitivity analysis with the Sobol' method. The dimension of the model functional output had been previously reduced by principal components analysis. Finally, the input dimension has been reduced by a technique called sliced inverse regression. Based on this new framework, a new diagnosis methodology, more robust and better understood than the existing one, has been proposed.
23

Contribution à la statistique des diffusions. Estimation semiparamétrique et efficacité au second ordre.<br />Agrégation et réduction de dimension pour le modèle de régression.

Dalalyan, Arnak 22 November 2007 (has links) (PDF)
Ce texte constitue une synthèse de mes travaux de recherche menés depuis 2000 en statistique mathématique. Ces travaux s'articulent autour de 4 thèmes: la statistique non paramétrique pour les processus de diffusion, efficacité au second ordre pour l'estimation semiparamétrique, agrégation par des poids exponentiels et réduction de dimension pour la régression non paramétrique. <br />Le premier chapitre contient une description générale des résultats obtenus en les replaçant dans un contexte historique et en présentant les motivations qui nous ont animées pour étudier ces problèmes. J'y décris également de façon informelle les idées clés des démonstrations. <br /><br />Au second chapitre, je présente les définitions principales nécessaires pour énoncer de façon rigoureuse les résultats les plus importants. Ce chapitre contient également une discussion plus formelle permettant de mettre en lumière certains aspects théoriques et pratiques de nos résultats.
24

Sélection de variables pour l’analyse des données semi-supervisées dans les systèmes d’Information décisionnels / Feature selection for semi-supervised data analysis in decisional information systems

Hindawi, Mohammed 21 February 2013 (has links)
La sélection de variables est une tâche primordiale en fouille de données et apprentissage automatique. Il s’agit d’une problématique très bien connue par les deux communautés dans les contextes, supervisé et non-supervisé. Le contexte semi-supervisé est relativement récent et les travaux sont embryonnaires. Récemment, l’apprentissage automatique a bien été développé à partir des données partiellement labélisées. La sélection de variables est donc devenue plus importante dans le contexte semi-supervisé et plus adaptée aux applications réelles, où l’étiquetage des données est devenu plus couteux et difficile à obtenir. Dans cette thèse, nous présentons une étude centrée sur l’état de l’art du domaine de la sélection de variable en s’appuyant sur les méthodes qui opèrent en mode semi-supervisé par rapport à celles des deux contextes, supervisé et non-supervisé. Il s’agit de montrer le bon compromis entre la structure géométrique de la partie non labélisée des données et l’information supervisée de leur partie labélisée. Nous nous sommes particulièrement intéressés au «small labeled-sample problem» où l’écart est très important entre les deux parties qui constituent les données. Pour la sélection de variables dans ce contexte semi-supervisé, nous proposons deux familles d’approches en deux grandes parties. La première famille est de type «Filtre» avec une série d’algorithmes qui évaluent la pertinence d’une variable par une fonction de score. Dans notre cas, cette fonction est basée sur la théorie spectrale de graphe et l’intégration de contraintes qui peuvent être extraites à partir des données en question. La deuxième famille d’approches est de type «Embedded» où la sélection de variable est intrinsèquement liée à un modèle d’apprentissage. Pour ce faire, nous proposons des algorithmes à base de pondération de variables dans un paradigme de classification automatique sous contraintes. Deux visions sont développées à cet effet, (1) une vision globale en se basant sur la satisfaction relaxée des contraintes intégrées directement dans la fonction objective du modèle proposé ; et (2) une deuxième vision, qui est locale et basée sur le contrôle stricte de violation de ces dites contraintes. Les deux approches évaluent la pertinence des variables par des poids appris en cours de la construction du modèle de classification. En outre de cette tâche principale de sélection de variables, nous nous intéressons au traitement de la redondance. Pour traiter ce problème, nous proposons une méthode originale combinant l’information mutuelle et un algorithme de recherche d’arbre couvrant construit à partir de variables pertinentes en vue de l’optimisation de leur nombre au final. Finalement, toutes les approches développées dans le cadre de cette thèse sont étudiées en termes de leur complexité algorithmique d’une part et sont validés sur des données de très grande dimension face et des méthodes connues dans la littérature d’autre part. / Feature selection is an important task in data mining and machine learning processes. This task is well known in both supervised and unsupervised contexts. The semi-supervised feature selection is still under development and far from being mature. In general, machine learning has been well developed in order to deal with partially-labeled data. Thus, feature selection has obtained special importance in the semi-supervised context. It became more adapted with the real world applications where labeling process is costly to obtain. In this thesis, we present a literature review on semi-supervised feature selection, with regard to supervised and unsupervised contexts. The goal is to show the importance of compromising between the structure from unlabeled part of data, and the background information from their labeled part. In particular, we are interested in the so-called «small labeled-sample problem» where the difference between both data parts is very important. In order to deal with the problem of semi-supervised feature selection, we propose two groups of approaches. The first group is of «Filter» type, in which, we propose some algorithms which evaluate the relevance of features by a scoring function. In our case, this function is based on spectral-graph theory and the integration of pairwise constraints which can be extracted from the data in hand. The second group of methods is of «Embedded» type, where feature selection becomes an internal function integrated in the learning process. In order to realize embedded feature selection, we propose algorithms based on feature weighting. The proposed methods rely on constrained clustering. In this sense, we propose two visions, (1) a global vision, based on relaxed satisfaction of pairwise constraints. This is done by integrating the constraints in the objective function of the proposed clustering model; and (2) a second vision, which is local and based on strict control of constraint violation. Both approaches evaluate the relevance of features by weights which are learned during the construction of the clustering model. In addition to the main task which is feature selection, we are interested in redundancy elimination. In order to tackle this problem, we propose a novel algorithm based on combining the mutual information with maximum spanning tree-based algorithm. We construct this tree from the relevant features in order to optimize the number of these selected features at the end. Finally, all proposed methods in this thesis are analyzed and their complexities are studied. Furthermore, they are validated on high-dimensional data versus other representative methods in the literature.
25

Prédiction des séries temporelles larges / Prediction of large time series

Hmamouche, Youssef 13 December 2018 (has links)
De nos jours, les systèmes modernes sont censés stocker et traiter des séries temporelles massives. Comme le nombre de variables observées augmente très rapidement, leur prédiction devient de plus en plus compliquée, et l’utilisation de toutes les variables pose des problèmes pour les modèles classiques.Les modèles de prédiction sans facteurs externes sont parmi les premiers modèles de prédiction. En vue d’améliorer la précision des prédictions, l’utilisation de multiples variables est devenue commune. Ainsi, les modèles qui tiennent en compte des facteurs externes, ou bien les modèles multivariés, apparaissent, et deviennent de plus en plus utilisés car ils prennent en compte plus d’informations.Avec l’augmentation des données liées entre eux, l’application des modèles multivariés devient aussi discutable. Le challenge dans cette situation est de trouver les facteurs les plus pertinents parmi l’ensemble des données disponibles par rapport à une variable cible.Dans cette thèse, nous étudions ce problème en présentant une analyse détaillée des approches proposées dans la littérature. Nous abordons le problème de réduction et de prédiction des données massives. Nous discutons également ces approches dans le contexte du Big Data.Ensuite, nous présentons une méthodologie complète pour la prédiction des séries temporelles larges. Nous étendons également cette méthodologie aux données très larges via le calcul distribué et le parallélisme avec une implémentation du processus de prédiction proposé dans l’environnement Hadoop/Spark. / Nowadays, storage and data processing systems are supposed to store and process large time series. As the number of variables observed increases very rapidly, their prediction becomes more and more complicated, and the use of all the variables poses problems for classical prediction models.Univariate prediction models are among the first models of prediction. To improve these models, the use of multiple variables has become common. Thus, multivariate models and become more and more used because they consider more information.With the increase of data related to each other, the application of multivariate models is also questionable. Because the use of all existing information does not necessarily lead to the best predictions. Therefore, the challenge in this situation is to find the most relevant factors among all available data relative to a target variable.In this thesis, we study this problem by presenting a detailed analysis of the proposed approaches in the literature. We address the problem of prediction and size reduction of massive data. We also discuss these approaches in the context of Big Data.The proposed approaches show promising and very competitive results compared to well-known algorithms, and lead to an improvement in the accuracy of the predictions on the data used.Then, we present our contributions, and propose a complete methodology for the prediction of wide time series. We also extend this methodology to big data via distributed computing and parallelism with an implementation of the prediction process proposed in the Hadoop / Spark environment.
26

Parcellisation du manteau cortical à partir du réseau de connectivité anatomique cartographié par imagerie de diffusion / Connectivity-based parcellation of the human cortex

Roca, Pauline 03 November 2011 (has links)
La parcellisation du cerveau humain en aires fonctionnelles est un problème complexe mais majeur pour la compréhension du fonctionnement du cerveau et pourrait avoir des applications médicales importantes en neurochirurgie par exemple pour mieux identifier les zones fonctionnelles à sauvegarder. Cet objectif va de pair avec l’idée de construire le connectome cérébral humain, qui n’est autre que le réseau de ses connexions.Pour définir un tel réseau, il faut en effet définir les éléments de ce réseau de connexions : c’est-à-dire avoir un découpage du cerveau en régions. Il existe de multiples manières et critères pour identifier ces régions et à ce jour il n’y a pas de parcellisation universelle du cortex. Dans cette thèse nous étudierons la possibilité d’effectuer cette parcellisation en fonction des données de connectivité anatomique, issues de l’imagerie par résonance magnétique de diffusion, qui est une technique d’acquisition permettant de reconstruire les faisceaux de neurones cérébraux de manière non invasive. Nous nous placerons dans un cadre surfacique en étudiant seulement la surface corticale et les connexions anatomiques sous-jacentes. Dans ce contexte nous présenterons un ensemble de nouveaux outils pour construire, visualiser et simuler le connectome cérébral humain, dans un cadre surfacique et à partir des données de connectivité anatomique reconstruites par IRM, et ceci pour un groupe de sujets. A partir de ces outils nous présenterons des méthodes de réduction de dimension des données de connectivité, que nous appliquerons pour parcelliser le cortex entier de quelques sujets. Nous proposons aussi une nouvelle manière de décomposer les données de connectivité au niveau d’un groupe de sujets en tenant compte de la variabilité inter-individuelle. Cette méthode sera testée et comparée à d’autres méthodes sur des données simulées et des données réelles. Les enjeux de ce travail sont multiples, tant au niveau méthodologique (comparaison de différents algorithmes de tractographie par exemple) que clinique (étude du lien entre altérations des connexions et pathologie). / In-vivo parcellation of the human cortex into functional brain areas is a major goal to better understand how the brain works and could have a lot of medical applications and give useful information to guide neurosurgery for example. This objective is related to the buildong of the human brain connectome, which is the networks of brain connections.Indeed, it is necessary to define the basic element of this connectome, and for doing this to have a subdivision of the cortex into brain regions. Actually, there is no such gold standard parcellation : there are a lot of techniques and methods to achieve this goal. During this PhD., anatomical connectivité based on diffusion-weighted imaging hase been used to address this problem, with a surfacic approach. In this context, we will present a set of new tools to create, visualize and simulate the human brain connectome for a group of subjects. We will introduce dimension reduction methods to compile the cortical connectivity profiles taking into account the interindividual variability. These methods will be apply to parcellate the cortex, for one subject or for a group of subjects simultaneously.There are many applications of this work, in methodology, to compare tractography algorithms for example or in clinical, to look at the relations between connections damages and pathology.
27

Reconstruction tomographique d'objets déformables pour la cryo-microscopie électronique à particules isolées / TomographIc reconstruction for deformable object applied to single particle cryo-electron microscopy

Michels, Yves 26 September 2018 (has links)
La cryo-microscopie électronique à particules isolées est une modalité d’imagerie permettant d’estimer la structure 3D de molécules. L’obtention d’un volume 3D est effectué par des algorithmes de reconstruction tomographique après acquisition par un microscope électronique à transmission d’un ensemble d’images de projection de l’objet observé. Les méthodes de reconstruction tomographique existantes permettent de déterminer la structure des molécules avec des résolutions proches de l’angström. Cependant la résolution est dégradée lorsque les molécules observées sont déformables. Les travaux réalisés au cours de cette thèse contribuent au développement de méthodes de traitement informatique des données (projections) dans le but de prendre en compte les déformations de l’objet observé dans le processus de reconstruction tomographique ab initio. Les problématiques principales abordées dans ce mémoire sont l’estimation des paramètres de projection basée sur la réduction de dimension non-linéaire, la détection des arêtes erronées dans les graphes de voisinages pour l’amélioration de la robustesse au bruit des méthodes de réduction de dimension, et la reconstruction tomographique basée sur un modèle paramétrique du volume. / Single particle cryo-electron microscopy is a technique that allows to estimate the 3D structure of biological complex. The construction of the 3D volume is performed by computerized tomography applied on a set of projection images from transmission electron microscope. Existing tomographic reconstructionalgorithms allow us to visualize molecular structure with a resolution around one angstrom. However the resolution is degraded when the molecules are deformable. This thesis contributes to the development of signal processing method in order to take into account the deformation information of the observed object for the ab initio tomographic reconstruction. The main contributions of this thesis are the estimation of projection parameters based on non-linear dimensionreduction, the false edges detection in neighborhood graphs to improve noise robustness of dimension reduction methods, and tomographic reconstruction based on a parametric model of the volume.
28

INVERSION DES MODELES STOCHASTIQUES DE MILIEUX HETEROGENES

Romary, Thomas 19 December 2008 (has links) (PDF)
La problématique du calage d'historique en ingénierie de réservoir, c'est-à-dire le calage des modèles géostatistiques aux données de production, est un problème inverse mal posé. Dans un cadre bayésien, sa résolution suppose l'inférence de la distribution de probabilité du modèle géostatistique conditionné aux données dynamiques, rendant compte à la fois de l'a priori géologique, exprimé dans le modèle géostatistique, et de l'adéquation aux données de production. Typiquement, la résolution de ce problème passe par la génération d'un ensemble de réalisations calées aux données, échantillon représentatif de cette distribution. Les modèles géostatistiques sont en général discrétisés sur des grilles de plusieurs centaines de milliers, voire des millions de blocs ; les approches classiques tentent de résoudre le problème inverse en considérant l'ensemble des blocs comme paramètres du modèle. Sa dimension est alors considérable et les méthodes d'échantillonnages deviennent impraticables sur un cas réel. Il convient alors de choisir une paramétrisation susceptible de réduire la dimension du problème. Dans la première partie de cette thèse, nous présentons une méthode de paramétrisation optimale des modèles géostatistiques basés sur les champs aléatoires gaussiens, à partir de leur décomposition de Karhunen-Loève (KL). Nous en décrivons les fondements théo- riques, puis, sur des applications aux modèles de champs aléatoires gaussiens courants en géostatistique, selon des critères d'abord statistiques puis hydrodynamiques, nous quantifions la réduction de la dimension du problème offerte par cette paramétrisation. Dans la seconde partie, nous présentons les principes des méthodes de Monte-Carlo par Chaînes de Markov (MCMC) et les défauts des méthodes classiques pour la résolution du problème inverse dans le cadre bayésien. Nous développons alors l'approche par chaînes de Markov en interaction dont nous exposons les avantages. Enfin, les résultats obtenus par l'emploi conjoint de ces deux méthodes sont présentés dans deux articles. Une approche différente, passant par l'emploi de méthodes d'analyse de sensibilité, est également décrite dans un troisième article.
29

Sur la modélisation des plaques minces en élasticité non linéaire

Trabelsi, Karim 07 December 2004 (has links) (PDF)
Ma thèse a été consacrée à la modélisation mathématique des plaques minces en élasticité non linéaire. Plus précisément, il s'agit d'obtenir des modèles non linéaires bidimensionnels de plaques à partir de l'élasticité non linéaire tridimensionnelle en employant essentiellement deux méthodes: le développement asymptotique formel et la Gamma-convergence. Deux classes de matériaux hyperélastiques réalistes à densités d'énergie singulières sont étudiées. Pour la première classe, l'énergie tend vers l'infini lorsque le déterminant du gradient de la déformation tend vers zéro i.e. l'on ne peut comprimer un volume en un point. Pour ce type de plaques, on obtient, en employant la première méthode, un nouveau modèle membranaire non linéaire qui empêche la formation de plis et qui approche le modèle classique pour les petites déformations. On retrouve aussi le modèle inextensionnel non linéaire classique. Ensuite, on considère les matériaux incompressibles i.e. la densité d'énergie est infinie pour les déformations dont le déterminant du gradient est différent de un. On produit grâce à la deuxième méthode un modèle membranaire non linéaire. Enfin, on montre un résultat de non existence de minimiseurs pour le modèle membranaire non linéaire classique comprimé et quelques remarques générales sont faites à ce sujet.
30

Méthodes d'agrégation : optimalité et vitesses rapides

Lecué, Guillaume 18 May 2007 (has links) (PDF)
Le principal travail de<br />cette thèse porte sur l'étude des méthodes d'agrégation sous<br />l'hypothèse de marge. Nous avons mis en avant que l'hypothèse de<br />marge améliore les vitesses d'agrégation. Un autre résultat de<br />cette thèse montre que certaines méthodes de minimisation du risque<br />empirique pénalisé sont sous-optimales quand le risque est convexe,<br />même sous l'hypothèse de marge. Contrairement aux procédures<br />d'agrégation à poids exponentiels, ces méthodes n'arrivent pas à<br />profiter de la marge du modèle. Nous avons ensuite appliqué les<br />méthodes d'agrégation à la résolution de quelques problèmes<br />d'adaptation. Une dernière contribution apportée dans cette thèse a<br />été de proposer une approche du contrôle du biais en classification<br />par l'introduction d'espaces de règles de prédiction parcimonieuses.<br />Des vitesses minimax ont été obtenues pour ces modèles et une<br />méthode d'agrégation a donné une version adaptative de ces<br />procédures d'estimation.

Page generated in 0.5377 seconds