• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 4
  • 2
  • 1
  • Tagged with
  • 7
  • 5
  • 3
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Résolution de systèmes bivariés et topologie de courbes planes / Solving algebraic bivariate systems and topology of plane curves

Bouzidi, Yacine 18 March 2014 (has links)
Un problème fondamental en géométrie algorithmique est celui du calcul de la topologie d'une courbe plane donnée par son équation implicite. Ce problème peut être vu comme celui du calcul d'un graphe qui approche la courbe et qui possède la même topologie que cette dernière. Une étape importante dans les algorithmes calculant la topologie d'une courbe plane concerne le calcul des points singuliers et points extrêmes (en x) de celle-ci. Ce problème se ramène naturellement à celui de la résolution de systèmes bivariés définis par la courbe et ses dérivées par rapport aux variables qui la définissent. Cette thèse porte sur l'étude, l'élaboration et l'implantation d'algorithmes robustes et efficaces pour la résolution de systèmes définis par des polynômes en deux variables à coefficients entiers. Plus précisément, nous nous somme intéressé au calcul d'une Représentation Univariée Rationnelle des solutions. Une telle représentation est constitué d'un polynôme univarié et de deux fonctions rationnelles qui envois les racines du polynôme univarié sur les coordonnées des points solutions du système. Nous présentons dans un premier temps un algorithme théorique pour calculer la RUR d'un système bivarié qui améliore la meilleure borne de complexité connue d'un facteur d^2, ou d désigne le degré des polynômes de départ, et qui permet d'obtenir une nouvelle borne sur la taille des polynômes de cette RUR. Dans un second temps, nous présentons un algorithme de calcul de RUR efficace en pratique. Cet algorithme, basé sur certain choix aléatoires et sur l'utilisation du calcul multi-modulaire est probabiliste. Nous en présentons une première version Monte-Carlo, puis nous montrons comment tester la correction du résultat ce qui fourni un algorithme Las-Vegas. Cet algorithme est efficace à la fois en théorie et en pratique à en juger par l'analyse de complexité en moyenne et les nombreux tests effectués / A fundamental problem in computational geometry is the computation of the topology of an algebraic plane curve given by its implicit equation, that is, the computation of a graph lines that approximates the curve while preserving its topology. A critical step in many algorithms computing the topology of a plane curve is the computation of the set of singular and extreme points (wrt x) of this curve, which is equivalent to the computation of the solutions of bivariate systems defined by the curve and some of its partial derivatives. In this presentation, we study form theoretical and practical perspectives the problem of solving systems of bivariate polynomials with integer coefficients. More precisely, we investigate the computation of a Rational Univariate Representation (RUR) of the solutions of a bivariate system, that is, a one-to-one mapping that sends the roots of a univariate polynomial to the solutions of the bivariate system. We first present a theoretical algorithm for computing the RUR of a bivariate system that improves the best complexity bound for this problem by a factor d^2 where d denote the degree of the input polynomials and allows to derive a new bound on the size of the polynomials of the RUR. We then present an algorithm for computing a RUR that is efficient in practice. This algorithm, based on some random choices and the use of multi-modular computation is probabilistic. We first present a Monte-Carlo variante of this algorithm, and then show how to transforme the latter into a Las-Vegas algorithm by checking the result for correctness. The complexity analysis as well as the experiment we performed show the efficiency of this algorithm
2

Recherche de biomarqueurs et études lipidomiques à travers diverses applications en santé / Biomarker research and lipidomics studies through various health applications

Lanzini, Justine 21 November 2016 (has links)
La notion de biomarqueurs est définie comme « une caractéristique mesurée objectivement et évaluée comme indicateur de processus biologiques normaux ou pathologiques, ou de réponses pharmacologiques à une intervention thérapeutique ». L'intérêt scientifique pour les biomarqueurs est de plus en plus important. Ils permettent, entre autres,une meilleure compréhension des processus pathologiques et de diagnostiquer, voire pronostiquer ces pathologies. Les études « omiques » telles que la lipidomique jouent un rôle essentiel dans la découverte de nouveaux biomarqueurs. La lipidomique consiste à explorer le lipidome d'un échantillon biologique et à déceler l'impact de la pathologie sur ce dernier. Les lipides constituent une vaste et importante famille de métabolites retrouvés dans toutes les cellules vivantes, dont leur nombre est estimé à plus de 100 000 espèces chez les mammifères. Ils sont impliqués, notamment, dans le stockage d'énergie et la transduction de signal. Mon travail de thèse a reposé sur la réalisation d'approches lipidomiques en LC-MS sur diverses applications en santé telles que le syndrome de déficit immunitaire combiné sévère associé à une alopécie et une dystrophie des ongles, le syndrome du nystagmus infantile et le rejet de greffe rénale. A cette fin, des analyses statistiques multivariées et univariées ont été employées pour déceler des potentiels lipides biomarqueurs. / Biomarker was defined as "a characteristic that is objectively measured and evaluated as an indicator of normal biological processes, pathogenic processes, or pharmacological responses to therapeutic intervention". The scientific interest in biomarkers is more and more important. They allow, in particular, to better understand pathogenic processes and to diagnose, even to predict pathologies. "Omics" studies, such as lipidomics, play an essential role in the new biomarkers discovery. Lipidomics consist in exploring biological samples lipidome and in detecting pathogenic impact on this latter. Lipids are a large and important metabolite family found in all living cells. Their quantity is estimated to more than 100,000 species in mammals. They are involved, in particular, in the energy storage and the signal transduction. My PhD thesis involved carrying out lipidomics approaches with LC-MS through various health applications such as severe combined immunodeficiency associated with alopecia syndrome, infantile nystagmus syndrome and renal graft rejection. For this purpose, multivariate and univariate statistical analyses were carried out in order to detect potential lipid biomarkers.
3

Résolution de systèmes bivariés et topologie de courbes planes

Bouzidi, Yacine 18 March 2014 (has links) (PDF)
Un problème fondamental en géométrie algorithmique est celui du calcul de la topologie d'une courbe plane donnée par son équation implicite. Ce problème peut être vu comme celui du calcul d'un graphe qui approche la courbe et qui possède la même topologie que cette dernière. Une étape importante dans les algorithmes calculant la topologie d'une courbe plane concerne le calcul des points singuliers et points extrêmes (en x) de celle-ci. Ce problème se ramène naturellement à celui de la résolution de systèmes bivariés définis par la courbe et ses dérivées par rapport aux variables qui la définissent. Cette thèse porte sur l'étude, l'élaboration et l'implantation d'algorithmes robustes et efficaces pour la résolution de systèmes définis par des polynômes en deux variables à coefficients entiers. Plus précisément, nous nous somme intéressé au calcul d'une Représentation Univariée Rationnelle des solutions. Une telle représentation est constitué d'un polynôme univarié et de deux fonctions rationnelles qui envois les racines du polynôme univarié sur les coordonnées des points solutions du système. Nous présentons dans un premier temps un algorithme théorique pour calculer la RUR d'un système bivarié qui améliore la meilleure borne de complexité connue d'un facteur d^2, ou d désigne le degré des polynômes de départ, et qui permet d'obtenir une nouvelle borne sur la taille des polynômes de cette RUR. Dans un second temps, nous présentons un algorithme de calcul de RUR efficace en pratique. Cet algorithme, basé sur des choix aléatoires et sur l'utilisation du calcul multi-modulaire est probabiliste. Nous en présentons une première version Monte-Carlo, puis nous montrons comment tester la correction du résultat ce qui fourni un algorithme Las-Vegas. Cet algorithme est efficace à la fois en théorie et en pratique à en juger par l'analyse de complexité en moyenne et les nombreux testes effectués.
4

On the stock market dependence with China characteristic information : empirical study and data analytics / L’étude de la relation entre l’information caractéristique de de la Chine et le marché boursier : étude empirique et analyse de données

He, Feng 14 September 2015 (has links)
Ce document met l'accent sur la caractéristique des informations de la Chine dans l'environnement complexe de l'information, à la recherche empirique sur la relation entre l'information caractéristique de la Chine avec le marché boursier, outre d'étudier le modèle de diffusion de l'information concernant les différentes caractéristiques de la Chine sur le marché boursier. Les deux données transversales et série temporelles sont appliquées en mesurant la dépendance à partir du micro-indicateur, et en outre au niveau macro d'étudier la dépendance liée au phénomène unique de la Chine . Dans l'étude du niveau micro, nous choisissons le lien politique comme le mode variable de l'information de la Chine. Nous avons découvert que différents liens politiques ont donné lieu à différentes performances de l'entreprise, ce qui affecte plus le rendement des actions à la fois sur le temps et l'échelle du rendement anormal. Dans les tests de la dépendance au niveau macro, nous introduisons l'approche copula empirique dans l'immobilier, le marché de l'or et des actions. Notre résultat a détecté la dépendance univariée parmi les trois marchés bien qu'ils soient deux à deux indépendants. Enfin, nous avions établi un marché immobilier et boursier artificiel pour analyser la réaction du marché boursier avec la politique de l'immobilier basé sur les caractéristiques de la Chine. Basé sur la recherche ci-dessus, nous concluons que la caractéristique des informations de la Chine a un effet sur le marché financier tant au niveau micro et macro, et canalisés entre eux. Ainsi, nous devons tenir en compte ces caractéristiques dans l'étude de l'analyse du marché financier de la Chine. / After recent financial crisis, financial asset clustered and fell together, although there was not significant dependent relationship detected in academic research. lt is an indisputable fact that the correlation and dependence between financial asset and market is far more beyond our current knowledge. On stock market studies, in the current "Big data" world, the complexity and wide variety information calls for research on the particular kind of information and its effect on the stock market. Thus, we could further study the relationship and dependence among financial asset to detect the information diffusion pattern in financial market. To achieve this objective, exiting data sources and analytics required to be improved. This paper focuses on the China characteristic information in the complex information environment, to empirically research on the relationship of China characteristic information with stock market, and further study information diffusion pattern regarding to different China characteristics in stock market. Both cross-seclional and time series data are applied with measuring dependence from micro indicators, and further studied the on the macro level dependence related to China unique phenomenon. ln micro level study, we choose political connection as information which is particular China pattern. By non-parametric analysis, we conclude different political connections resulted in different stock performance. Then we considered stock analyst recommendations as aggregated information proxy, applying event study to test the stock reaction to information controlling for political connection and ratings. We discovered that different political connection affect stock retum both on the lime and scale of abnormal return. ln testing for macro level dependence, we introduce empirical copula approach with stock, real estate and gold market. Our result detected univariate dependence among the three market although they are pairwise independent. Finally, we constructed an agent-based artificial stock and housing market to test the stock market reaction with housing market policy based on China characteristics. Based on the above research, we conclude that China characteristic information do have effect on the financial market from both micro and macro level, and channeled between them. Thus, we need to consider these characteristic in studying China financial market issue.
5

Modélisation stochastique pour l’analyse d’images texturées : approches Bayésiennes pour la caractérisation dans le domaine des transformées

Lasmar, Nour-Eddine 07 December 2012 (has links)
Le travail présenté dans cette thèse s’inscrit dans le cadre de la modélisation d’images texturées à l’aide des représentations multi-échelles et multi-orientations. Partant des résultats d’études en neurosciences assimilant le mécanisme de la perception humaine à un schéma sélectif spatio-fréquentiel, nous proposons de caractériser les images texturées par des modèles probabilistes associés aux coefficients des sous-bandes. Nos contributions dans ce contexte concernent dans un premier temps la proposition de différents modèles probabilistes permettant de prendre en compte le caractère leptokurtique ainsi que l’éventuelle asymétrie des distributions marginales associées à un contenu texturée. Premièrement, afin de modéliser analytiquement les statistiques marginales des sous-bandes, nous introduisons le modèle Gaussien généralisé asymétrique. Deuxièmement, nous proposons deux familles de modèles multivariés afin de prendre en compte les dépendances entre coefficients des sous-bandes. La première famille regroupe les processus à invariance sphérique pour laquelle nous montrons qu’il est pertinent d’associer une distribution caractéristique de type Weibull. Concernant la seconde famille, il s’agit des lois multivariées à copules. Après détermination de la copule caractérisant la structure de la dépendance adaptée à la texture, nous proposons une extension multivariée de la distribution Gaussienne généralisée asymétrique à l’aide de la copule Gaussienne. L’ensemble des modèles proposés est comparé quantitativement en terme de qualité d’ajustement à l’aide de tests statistiques d’adéquation dans un cadre univarié et multivarié. Enfin, une dernière partie de notre étude concerne la validation expérimentale des performances de nos modèles à travers une application de recherche d’images par le contenu textural. Pour ce faire, nous dérivons des expressions analytiques de métriques probabilistes mesurant la similarité entre les modèles introduits, ce qui constitue selon nous une troisième contribution de ce travail. Finalement, une étude comparative est menée visant à confronter les modèles probabilistes proposés à ceux de l’état de l’art. / In this thesis we study the statistical modeling of textured images using multi-scale and multi-orientation representations. Based on the results of studies in neuroscience assimilating the human perception mechanism to a selective spatial frequency scheme, we propose to characterize textures by probabilistic models of subband coefficients.Our contributions in this context consist firstly in the proposition of probabilistic models taking into account the leptokurtic nature and the asymmetry of the marginal distributions associated with a textured content. First, to model analytically the marginal statistics of subbands, we introduce the asymmetric generalized Gaussian model. Second, we propose two families of multivariate models to take into account the dependencies between subbands coefficients. The first family includes the spherically invariant processes that we characterize using Weibull distribution. The second family is this of copula based multivariate models. After determination of the copula characterizing the dependence structure adapted to the texture, we propose a multivariate extension of the asymmetric generalized Gaussian distribution using Gaussian copula. All proposed models are compared quantitatively using both univariate and multivariate statistical goodness of fit tests. Finally, the last part of our study concerns the experimental validation of the performance of proposed models through texture based image retrieval. To do this, we derive closed-form metrics measuring the similarity between probabilistic models introduced, which we believe is the third contribution of this work. A comparative study is conducted to compare the proposed probabilistic models to those of the state-of-the-art.
6

Modélisation stochastique pour l'analyse d'images texturées : Approches Bayésiennes pour la caractérisation dans le domaine des transformées

Lasmar, Nour-Eddine 07 December 2012 (has links) (PDF)
Le travail présenté dans cette thèse s'inscrit dans le cadre de la modélisation d'images texturées à l'aide des représentations multi-échelles et multi-orientations. Partant des résultats d'études en neurosciences assimilant le mécanisme de la perception humaine à un schéma sélectif spatio-fréquentiel, nous proposons de caractériser les images texturées par des modèles probabilistes associés aux coefficients des sous-bandes. Nos contributions dans ce contexte concernent dans un premier temps la proposition de différents modèles probabilistes permettant de prendre en compte le caractère leptokurtique ainsi que l'éventuelle asymétrie des distributions marginales associées à un contenu texturée. Premièrement, afin de modéliser analytiquement les statistiques marginales des sous-bandes, nous introduisons le modèle Gaussien généralisé asymétrique. Deuxièmement, nous proposons deux familles de modèles multivariés afin de prendre en compte les dépendances entre coefficients des sous-bandes. La première famille regroupe les processus à invariance sphérique pour laquelle nous montrons qu'il est pertinent d'associer une distribution caractéristique de type Weibull. Concernant la seconde famille, il s'agit des lois multivariées à copules. Après détermination de la copule caractérisant la structure de la dépendance adaptée à la texture, nous proposons une extension multivariée de la distribution Gaussienne généralisée asymétrique à l'aide de la copule Gaussienne. L'ensemble des modèles proposés est comparé quantitativement en terme de qualité d'ajustement à l'aide de tests statistiques d'adéquation dans un cadre univarié et multivarié. Enfin, une dernière partie de notre étude concerne la validation expérimentale des performances de nos modèles à travers une application de recherche d'images par le contenu textural. Pour ce faire, nous dérivons des expressions analytiques de métriques probabilistes mesurant la similarité entre les modèles introduits, ce qui constitue selon nous une troisième contribution de ce travail. Finalement, une étude comparative est menée visant à confronter les modèles probabilistes proposés à ceux de l'état de l'art.
7

Neural networks regularization through representation learning / Régularisation des réseaux de neurones via l'apprentissage des représentations

Belharbi, Soufiane 06 July 2018 (has links)
Les modèles de réseaux de neurones et en particulier les modèles profonds sont aujourd'hui l'un des modèles à l'état de l'art en apprentissage automatique et ses applications. Les réseaux de neurones profonds récents possèdent de nombreuses couches cachées ce qui augmente significativement le nombre total de paramètres. L'apprentissage de ce genre de modèles nécessite donc un grand nombre d'exemples étiquetés, qui ne sont pas toujours disponibles en pratique. Le sur-apprentissage est un des problèmes fondamentaux des réseaux de neurones, qui se produit lorsque le modèle apprend par coeur les données d'apprentissage, menant à des difficultés à généraliser sur de nouvelles données. Le problème du sur-apprentissage des réseaux de neurones est le thème principal abordé dans cette thèse. Dans la littérature, plusieurs solutions ont été proposées pour remédier à ce problème, tels que l'augmentation de données, l'arrêt prématuré de l'apprentissage ("early stopping"), ou encore des techniques plus spécifiques aux réseaux de neurones comme le "dropout" ou la "batch normalization". Dans cette thèse, nous abordons le sur-apprentissage des réseaux de neurones profonds sous l'angle de l'apprentissage de représentations, en considérant l'apprentissage avec peu de données. Pour aboutir à cet objectif, nous avons proposé trois différentes contributions. La première contribution, présentée dans le chapitre 2, concerne les problèmes à sorties structurées dans lesquels les variables de sortie sont à grande dimension et sont généralement liées par des relations structurelles. Notre proposition vise à exploiter ces relations structurelles en les apprenant de manière non-supervisée avec des autoencodeurs. Nous avons validé notre approche sur un problème de régression multiple appliquée à la détection de points d'intérêt dans des images de visages. Notre approche a montré une accélération de l'apprentissage des réseaux et une amélioration de leur généralisation. La deuxième contribution, présentée dans le chapitre 3, exploite la connaissance a priori sur les représentations à l'intérieur des couches cachées dans le cadre d'une tâche de classification. Cet à priori est basé sur la simple idée que les exemples d'une même classe doivent avoir la même représentation interne. Nous avons formalisé cet à priori sous la forme d'une pénalité que nous avons rajoutée à la fonction de perte. Des expérimentations empiriques sur la base MNIST et ses variantes ont montré des améliorations dans la généralisation des réseaux de neurones, particulièrement dans le cas où peu de données d'apprentissage sont utilisées. Notre troisième et dernière contribution, présentée dans le chapitre 4, montre l'intérêt du transfert d'apprentissage ("transfer learning") dans des applications dans lesquelles peu de données d'apprentissage sont disponibles. L'idée principale consiste à pré-apprendre les filtres d'un réseau à convolution sur une tâche source avec une grande base de données (ImageNet par exemple), pour les insérer par la suite dans un nouveau réseau sur la tâche cible. Dans le cadre d'une collaboration avec le centre de lutte contre le cancer "Henri Becquerel de Rouen", nous avons construit un système automatique basé sur ce type de transfert d'apprentissage pour une application médicale où l'on dispose d’un faible jeu de données étiquetées. Dans cette application, la tâche consiste à localiser la troisième vertèbre lombaire dans un examen de type scanner. L’utilisation du transfert d’apprentissage ainsi que de prétraitements et de post traitements adaptés a permis d’obtenir des bons résultats, autorisant la mise en oeuvre du modèle en routine clinique. / Neural network models and deep models are one of the leading and state of the art models in machine learning. They have been applied in many different domains. Most successful deep neural models are the ones with many layers which highly increases their number of parameters. Training such models requires a large number of training samples which is not always available. One of the fundamental issues in neural networks is overfitting which is the issue tackled in this thesis. Such problem often occurs when the training of large models is performed using few training samples. Many approaches have been proposed to prevent the network from overfitting and improve its generalization performance such as data augmentation, early stopping, parameters sharing, unsupervised learning, dropout, batch normalization, etc. In this thesis, we tackle the neural network overfitting issue from a representation learning perspective by considering the situation where few training samples are available which is the case of many real world applications. We propose three contributions. The first one presented in chapter 2 is dedicated to dealing with structured output problems to perform multivariate regression when the output variable y contains structural dependencies between its components. Our proposal aims mainly at exploiting these dependencies by learning them in an unsupervised way. Validated on a facial landmark detection problem, learning the structure of the output data has shown to improve the network generalization and speedup its training. The second contribution described in chapter 3 deals with the classification task where we propose to exploit prior knowledge about the internal representation of the hidden layers in neural networks. This prior is based on the idea that samples within the same class should have the same internal representation. We formulate this prior as a penalty that we add to the training cost to be minimized. Empirical experiments over MNIST and its variants showed an improvement of the network generalization when using only few training samples. Our last contribution presented in chapter 4 showed the interest of transfer learning in applications where only few samples are available. The idea consists in re-using the filters of pre-trained convolutional networks that have been trained on large datasets such as ImageNet. Such pre-trained filters are plugged into a new convolutional network with new dense layers. Then, the whole network is trained over a new task. In this contribution, we provide an automatic system based on such learning scheme with an application to medical domain. In this application, the task consists in localizing the third lumbar vertebra in a 3D CT scan. A pre-processing of the 3D CT scan to obtain a 2D representation and a post-processing to refine the decision are included in the proposed system. This work has been done in collaboration with the clinic "Rouen Henri Becquerel Center" who provided us with data

Page generated in 0.0344 seconds