• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 10
  • 6
  • Tagged with
  • 14
  • 14
  • 4
  • 4
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Regularisation and variable selection using penalized likelihood / Régularisation et sélection de variables par le biais de la vraisemblance pénalisée

El anbari, Mohammed 14 December 2011 (has links)
Dans cette thèse nous nous intéressons aux problèmes de la sélection de variables en régression linéaire. Ces travaux sont en particulier motivés par les développements récents en génomique, protéomique, imagerie biomédicale, traitement de signal, traitement d’image, en marketing, etc… Nous regardons ce problème selon les deux points de vue fréquentielle et bayésienne.Dans un cadre fréquentiel, nous proposons des méthodes pour faire face au problème de la sélection de variables, dans des situations pour lesquelles le nombre de variables peut être beaucoup plus grand que la taille de l’échantillon, avec présence possible d’une structure supplémentaire entre les variables, telle qu’une forte corrélation ou un certain ordre entre les variables successives. Les performances théoriques sont explorées ; nous montrons que sous certaines conditions de régularité, les méthodes proposées possèdent de bonnes propriétés statistiques, telles que des inégalités de parcimonie, la consistance au niveau de la sélection de variables et la normalité asymptotique.Dans un cadre bayésien, nous proposons une approche globale de la sélection de variables en régression construite sur les lois à priori g de Zellner dans une approche similaire mais non identique à celle de Liang et al. (2008) Notre choix ne nécessite aucune calibration. Nous comparons les approches de régularisation bayésienne et fréquentielle dans un contexte peu informatif où le nombre de variables est presque égal à la taille de l’échantillon. / We are interested in variable sélection in linear régression models. This research is motivated by recent development in microarrays, proteomics, brain images, among others. We study this problem in both frequentist and bayesian viewpoints.In a frequentist framework, we propose methods to deal with the problem of variable sélection, when the number of variables is much larger than the sample size with a possibly présence of additional structure in the predictor variables, such as high corrélations or order between successive variables. The performance of the proposed methods is theoretically investigated ; we prove that, under regularity conditions, the proposed estimators possess statistical good properties, such as Sparsity Oracle Inequalities, variable sélection consistency and asymptotic normality.In a Bayesian Framework, we propose a global noninformative approach for Bayesian variable sélection. In this thesis, we pay spécial attention to two calibration-free hierarchical Zellner’s g-priors. The first one is the Jeffreys prior which is not location invariant. A second one avoids this problem by only considering models with at least one variable in the model. The practical performance of the proposed methods is illustrated through numerical experiments on simulated and real world datasets, with a comparison betwenn Bayesian and frequentist approaches under a low informative constraint when the number of variables is almost equal to the number of observations.
12

Le décrochage universitaire : les facteurs d'intention, de santé mentale et de personnalité / Dropping out of university : factors of intention, mental health and personnality

Vinciguerra, Antony 30 January 2018 (has links)
Objectifs. Le décrochage d’études universitaires est un comportement marquant la sortie d’un cursus avant l’obtention du diplôme le validant. Il est produit par des processus complexes se manifestant sur les lignes de fragilité du rapport entre la singularité psychique de l’étudiant et le cursus d’études dans lequel il s’inscrit et évolue. Cette thèse vise à préciser les déterminants psychosociaux à l’œuvre dans ces processus. / Introduction. Dropping out of university is a behavior related to leaving a study course without a degree. It is produced by complex processes manifested on the lines of fragility in the relationship between the psychic singularity of the student and the enrollment on specific studies. The aim of this thesis is to precise psychosocial determinants at work in these processes.
13

Algorithmes d'optimisation et d'analyse des problèmes multidimensionnels, non linéaires, en Biologie et Biophysique

Parent, Benjamin 29 October 2007 (has links) (PDF)
La complexité du vivant est omniprésente à toutes les échelles : des interactions entre molécules individuelles aux réseaux d'interactions permettant à la cellule d'assurer ses fonctions vitales et de répondre aux stimuli. Cette thèse se veut être une application des outils de l'Automatique et de l'Informatique à certaines questions de la Biologie et Biochimie.<br />Pour cela, nous avons abordé le problème via deux aspects : le premier concerne la modélisation des interactions moléculaires en vue de prédire les modes de fixation et les affinités entre molécules. Puisque ces estimations nécessitent de considérer la flexibilité des acteurs, nous avons abordé, en premier lieu, la prédiction des conformations moléculaires qui reste un challenge majeur, caractérisé par ses aspects multimodal et de grandes dimensions. Nous avons alors développé une suite d'heuristiques autour d'un algorithme génétique central. Les paramètres de contrôle et les stratégies d'hybridation sont pilotés par un méta-algorithme permettant d'optimiser la recherche. En outre, des stratégies innovantes de parallélisation sur grilles d'ordinateurs ont été validées afin de réduire les temps de calculs. Enfin, pour entreprendre l'étude des conformations de plusieurs molécules, nous avons développé des algorithmes de criblage rapides basés sur la comparaison d'indices topologiques.<br />Nous avons également étudié un autre aspect en modélisant formellement certains graphes d'interactions, ceci à une toute autre échelle : celle des concentrations des molécules. Nous avons alors mis en évidence l'impact des modes d'interactions moléculaires sur la dynamique globale.
14

Breaking the curse of dimensionality based on tensor train : models and algorithms / Gérer le fleau de la dimension à l'aide des trains de tenseurs : modèles et algorithmes

Zniyed, Yassine 15 October 2019 (has links)
Le traitement des données massives, communément connu sous l’appellation “Big Data”, constitue l’un des principaux défis scientifiques de la communauté STIC.Plusieurs domaines, à savoir économique, industriel ou scientifique, produisent des données hétérogènes acquises selon des protocoles technologiques multi-modales. Traiter indépendamment chaque ensemble de données mesurées est clairement une approche réductrice et insatisfaisante. En faisant cela, des “relations cachées” ou des inter-corrélations entre les données peuvent être totalement ignorées.Les représentations tensorielles ont reçu une attention particulière dans ce sens en raison de leur capacité à extraire de données hétérogènes et volumineuses une information physiquement interprétable confinée à un sous-espace de dimension réduite. Dans ce cas, les données peuvent être organisées selon un tableau à D dimensions, aussi appelé tenseur d’ordre D.Dans ce contexte, le but de ce travail et que certaines propriétés soient présentes : (i) avoir des algorithmes de factorisation stables (ne souffrant pas de probème de convergence), (ii) avoir un faible coût de stockage (c’est-à-dire que le nombre de paramètres libres doit être linéaire en D), et (iii) avoir un formalisme sous forme de graphe permettant une visualisation mentale simple mais rigoureuse des décompositions tensorielles de tenseurs d’ordre élevé, soit pour D > 3.Par conséquent, nous nous appuyons sur la décomposition en train de tenseurs (TT) pour élaborer de nouveaux algorithmes de factorisation TT, et des nouvelles équivalences en termes de modélisation tensorielle, permettant une nouvelle stratégie de réduction de dimensionnalité et d'optimisation de critère des moindres carrés couplés pour l'estimation des paramètres d'intérêts nommé JIRAFE.Ces travaux d'ordre méthodologique ont eu des applications dans le contexte de l'analyse spectrale multidimensionelle et des systèmes de télécommunications à relais. / Massive and heterogeneous data processing and analysis have been clearly identified by the scientific community as key problems in several application areas. It was popularized under the generic terms of "data science" or "big data". Processing large volumes of data, extracting their hidden patterns, while preforming prediction and inference tasks has become crucial in economy, industry and science.Treating independently each set of measured data is clearly a reductiveapproach. By doing that, "hidden relationships" or inter-correlations between thedatasets may be totally missed. Tensor decompositions have received a particular attention recently due to their capability to handle a variety of mining tasks applied to massive datasets, being a pertinent framework taking into account the heterogeneity and multi-modality of the data. In this case, data can be arranged as a D-dimensional array, also referred to as a D-order tensor.In this context, the purpose of this work is that the following properties are present: (i) having a stable factorization algorithms (not suffering from convergence problems), (ii) having a low storage cost (i.e., the number of free parameters must be linear in D), and (iii) having a formalism in the form of a graph allowing a simple but rigorous mental visualization of tensor decompositions of tensors of high order, i.e., for D> 3.Therefore, we rely on the tensor train decomposition (TT) to develop new TT factorization algorithms, and new equivalences in terms of tensor modeling, allowing a new strategy of dimensionality reduction and criterion optimization of coupled least squares for the estimation of parameters named JIRAFE.This methodological work has had applications in the context of multidimensional spectral analysis and relay telecommunications systems.

Page generated in 0.0858 seconds