• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 327
  • 163
  • 35
  • 1
  • Tagged with
  • 517
  • 265
  • 108
  • 94
  • 92
  • 84
  • 80
  • 79
  • 75
  • 74
  • 61
  • 59
  • 58
  • 56
  • 56
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
111

Apprentissage et forêts aléatoires / Learning with random forests

Scornet, Erwan 30 November 2015 (has links)
Cette thèse est consacrée aux forêts aléatoires, une méthode d'apprentissage non paramétrique introduite par Breiman en 2001. Très répandues dans le monde des applications, les forêts aléatoires possèdent de bonnes performances et permettent de traiter efficacement de grands volumes de données. Cependant, la théorie des forêts ne permet pas d'expliquer à ce jour l'ensemble des bonnes propriétés de l'algorithme. Après avoir dressé un état de l'art des résultats théoriques existants, nous nous intéressons en premier lieu au lien entre les forêts infinies (analysées en théorie) et les forêts finies (utilisées en pratique). Nous proposons en particulier une manière de choisir le nombre d'arbres pour que les erreurs des forêts finies et infinies soient proches. D'autre part, nous étudions les forêts quantiles, un type d'algorithme proche des forêts de Breiman. Dans ce cadre, nous démontrons l'intérêt d'agréger des arbres : même si chaque arbre de la forêt quantile est inconsistant, grâce à un sous-échantillonnage adapté, la forêt quantile est consistante. Dans un deuxième temps, nous prouvons que les forêts aléatoires sont naturellement liées à des estimateurs à noyau que nous explicitons. Des bornes sur la vitesse de convergence de ces estimateurs sont également établies. Nous démontrons, dans une troisième approche, deux théorèmes sur la consistance des forêts de Breiman élaguées et complètement développées. Dans ce dernier cas, nous soulignons, comme pour les forêts quantiles, l'importance du sous-échantillonnage dans la consistance de la forêt. Enfin, nous présentons un travail indépendant portant sur l'estimation de la toxicité de certains composés chimiques. / This is devoted to a nonparametric estimation method called random forests, introduced by Breiman in 2001. Extensively used in a variety of areas, random forests exhibit good empirical performance and can handle massive data sets. However, the mathematical forces driving the algorithm remain largely unknown. After reviewing theoretical literature, we focus on the link between infinite forests (theoretically analyzed) and finite forests (used in practice) aiming at narrowing the gap between theory and practice. In particular, we propose a way to select the number of trees such that the errors of finite and infinite forests are similar. On the other hand, we study quantile forests, a type of algorithms close in spirit to Breiman's forests. In this context, we prove the benefit of trees aggregation: while each tree of quantile forest is not consistent, with a proper subsampling step, the forest is. Next, we show the connection between forests and some particular kernel estimates, which can be made explicit in some cases. We also establish upper bounds on the rate of convergence for these kernel estimates. Then we demonstrate two theorems on the consistency of both pruned and unpruned Breiman forests. We stress the importance of subsampling to demonstrate the consistency of the unpruned Breiman's forests. At last, we present the results of a Dreamchallenge whose goal was to predict the toxicity of several compounds for several patients based on their genetic profile.
112

Non parametric estimation of convex bodies and convex polytopes / Estimation non paramétrique d'ensembles et de polytopes convexes

Brunel, Victor Emmanuel 04 July 2014 (has links)
Dans ce travail, nous nous intéressons à l'estimation d'ensembles convexes dans l'espace Euclidien $\R^d$, en nous penchant sur deux modèles. Dans le premier modèle, nous avons à notre disposition un échantillon de $n$ points aléatoires, indépendants et de même loi, uniforme sur un ensemble convexe inconnu. Le second modèle est un modèle additif de régression, avec bruit sous-gaussien, et dont la fonction de régression est l'indicatrice d'Euler d'un ensemble convexe ici aussi inconnu. Dans le premier modèle, notre objectif est de construire un estimateur du support de la densité des observations, qui soit optimal au sens minimax. Dans le second modèle, l'objectif est double. Il s'agit de construire un estimateur du support de la fonction de régression, ainsi que de décider si le support en question est non vide, c'est-à-dire si la fonction de régression est effectivement non nulle, ou si le signal observé n'est que du bruit. Dans ces deux modèles, nous nous intéressons plus particulièrement au cas où l'ensemble inconnu est un polytope convexe, dont le nombre de sommets est connu. Si ce nombre est inconnu, nous montrons qu'une procédure adaptative permet de construire un estimateur atteignant la même vitesse asymptotique que dans le cas précédent. Enfin, nous démontrons que ce même estimateur pallie à l'erreur de spécification du modèle, consistant à penser à tort que l'ensemble convexe inconnu est un polytope. Nous démontrons une inégalité de déviation pour le volume de l'enveloppe convexe des observations dans le premier modèle. Nous montrons aussi que cette inégalité implique des bornes optimales sur les moments du volume manquant de cette enveloppe convexe, ainsi que sur les moments du nombre de ses sommets. Enfin, dans le cas unidimensionnel, pour le second modèle, nous donnons la taille asymptotique minimale que doit faire l'ensemble inconnu afin de pouvoir être détecté, et nous proposons une règle de décision, permettant un test consistant du caractère non vide de cet ensemble. / In this thesis, we are interested in statistical inference on convex bodies in the Euclidean space $\R^d$. Two models are investigated. The first one consists of the observation of $n$ independent random points, with common uniform distribution on an unknown convex body. The second one is a regression model, with additive subgaussian noise, where the regression function is the indicator function of an unknown convex body. In the first model, our goal is to estimate the unknown support of the common uniform density of the observed points. In the second model, we aim either to estimate the support of the regression function, or to detect whether this support is nonempty, i.e., the regression function is nonzero. In both models, we investigate the cases when the unknown set is a convex polytope, and when we know the number of vertices. If this number is not known, we propose an adaptive method which allows us to obtain a statistical procedure performing asymptotically as well as in the case of perfect knowledge of that number. In addition, this procedure allows misspecification, i.e., provides an estimator of the unknown set, which is optimal in a minimax sense, even if the unknown set is not polytopal, in the contrary to what may have been thought. We prove a universal deviation inequality for the volume of the convex hull of the observations in the first model. We show that this inequality allows one to derive tight bounds on the moments of the missing volume of this convex hull, as well as on the moments of the number of its vertices. In the one-dimensional case, in the second model, we compute the asymptotic minimal size of the unknown set so that it can be detected by some statistical procedure, and we propose a decision rule which allows consistent testing of whether of that set is empty.
113

Conditional quantile estimation through optimal quantization

Charlier, Isabelle 17 December 2015 (has links) (PDF)
Les applications les plus courantes des méthodes non paramétriques concernent l'estimation d'une fonction de régression (i.e. de l'espérance conditionnelle). Cependant, il est souvent intéressant de modéliser les quantiles conditionnels, en particulier lorsque la moyenne conditionnelle ne permet pas de représenter convenablement l'impact des covariables sur la variable dépendante. De plus, ils permettent d'obtenir des graphiques plus compréhensibles de la distribution conditionnelle de la variable dépendante que ceux obtenus avec la moyenne conditionnelle. A l'origine, la "quantification" était utilisée en ingénierie du signal et de l'information. Elle permet de discrétiser un signal continu en un nombre fini de quantifieurs. En mathématique, le problème de la quantification optimale consiste à trouver la meilleure approximation d'une distribution continue d'une variable aléatoire par une loi discrète avec un nombre fixé de quantifieurs. Initialement utilisée pour des signaux univariés, la méthode a été étendue au cadre multivarié et est devenue un outil pour résoudre certains problèmes en probabilités numériques.Le but de cette thèse est d'appliquer la quantification optimale en norme Lp à l'estimation des quantiles conditionnels. Différents cas sont abordés :covariable uni- ou multidimensionnelle, variable dépendante uni- ou multivariée. La convergence des estimateurs proposés est étudiée d'un point de vue théorique. Ces estimateurs ont été implémentés et un package R, nommé QuantifQuantile, a été développé. Leur comportement numérique est évalué sur des simulations et des données réelles. / One of the most common applications of nonparametric techniques has been the estimation of a regression function (i.e. a conditional mean). However it is often of interest to model conditional quantiles, particularly when it is felt that the conditional mean is not representative of the impact of the covariates on the dependent variable. Moreover, the quantile regression function provides a much more comprehensive picture of the conditional distribution of a dependent variable than the conditional mean function. Originally, the "quantization'" was used in signal and information theories since the fifties. Quantization was devoted to the discretization of a continuous signal by a finite number of "quantizers". In mathematics, the problem of optimal quantization is to find the best approximation of thecontinuous distribution of a random variable by a discrete law with a fixed number of charged points. Firstly used for a one-dimensional signal, themethod has then been developed in the multi-dimensional case and extensively used as a tool to solve problems arising in numerical probability.The goal of this thesis is to study how to apply optimal quantization in Lp-norm to conditional quantile estimation. Various cases are studied: one-dimensional or multidimensional covariate, univariate or multivariate dependent variable. The convergence of the proposed estimators is studied from a theoretical point of view. The proposed estimators were implemented and a R package, called QuantifQuantile, was developed. Numerical behavior of the estimators is evaluated through simulation studies and real data applications. / Doctorat en Sciences / info:eu-repo/semantics/nonPublished
114

Scoring pour le risque de crédit : variable réponse polytomique, sélection de variables, réduction de la dimension, applications / Scoring for credit risk : polytomous response variable, variable selection, dimension reduction, applications

Vital, Clément 11 July 2016 (has links)
Le but de cette thèse était d'explorer la thématique du scoring dans le cadre de son utilisation dans le monde bancaire, et plus particulièrement pour contrôler le risque de crédit. En effet, la diversification et la globalisation des activités bancaires dans la deuxième moitié du XXe siècle ont conduit à l'instauration d'un certain nombre de régulations, afin de pouvoir s'assurer que les établissements bancaires disposent de capitaux nécessaires à couvrir le risque qu'ils prennent. Cette régulation impose ainsi la modélisation de certains indicateurs de risque, dont la probabilité de défaut, qui est pour un prêt en particulier la probabilité que le client se retrouve dans l'impossibilité de rembourser la somme qu'il doit. La modélisation de cet indicateur passe par la définition d'une variable d'intérêt appelée critère de risque, dénotant les "bons payeurs" et les "mauvais payeurs". Retranscrit dans un cadre statistique plus formel, cela signifie que nous cherchons à modéliser une variable à valeurs dans {0,1} par un ensemble de variables explicatives. Cette problématique est en pratique traitée comme une question de scoring. Le scoring consiste en la définition de fonction, appelées fonctions de score, qui retransmettent l'information contenue dans l'ensemble des variables explicatives dans une note de score réelle. L'objectif d'une telle fonction sera de donner sur les individus le même ordonnancement que la probabilité a posteriori du modèle, de manière à ce que les individus ayant une forte probabilité d'être "bons" aient une note élevée, et inversement que les individus ayant une forte probabilité d'être "mauvais" (et donc un risque fort pour la banque) aient une note faible. Des critères de performance tels que la courbe ROC et l'AUC ont été définis, permettant de quantifier à quel point l'ordonnancement produit par la fonction de score est pertinent. La méthode de référence pour obtenir des fonctions de score est la régression logistique, que nous présentons ici. Une problématique majeure dans le scoring pour le risque de crédit est celle de la sélection de variables. En effet, les banques disposent de larges bases de données recensant toutes les informations dont elles disposent sur leurs clients, aussi bien sociodémographiques que comportementales, et toutes ne permettent pas d'expliquer le critère de risque. Afin d'aborder ce sujet, nous avons choisi de considérer la technique du Lasso, reposant sur l'application d'une contrainte sur les coefficients, de manière à fixer les valeurs des coefficients les moins significatifs à zéro. Nous avons envisagé cette méthode dans le cadre des régressions linéaires et logistiques, ainsi qu'une extension appelée Group Lasso, permettant de considérer les variables explicatives par groupes. Nous avons ensuite considéré le cas où la variable réponse n'est plus binaire, mais polytomique, c'est-à-dire avec plusieurs niveaux de réponse possibles. La première étape a été de présenter une définition du scoring équivalente à celle présentée précédemment dans le cas binaire. Nous avons ensuite présenté différentes méthodes de régression adaptées à ce nouveau cas d'étude : une généralisation de la régression logistique binaire, des méthodes semi-paramétriques, ainsi qu'une application à la régression logistique polytomique du principe du Lasso. Enfin, le dernier chapitre est consacré à l'application de certaines des méthodes évoquées dans le manuscrit sur des jeux de données réelles, permettant de les confronter aux besoins réels de l'entreprise. / The objective of this thesis was to explore the subject of scoring in the banking world, and more precisely to study how to control credit risk. The diversification and globalization of the banking business in the second half of the twentieth century led to introduce regulations, which require banks to make reserves to cover the risk they take. These regulations also dictate that they should model different risk indicators, among which the probability of default. This indicator represents the probability for a client to find himself in the incapacity to pay back his debt. In order to predict this probability, one should define a risk criterion, that allows to distinguish the "bad clients" from the "good clients". In a more formal statistical approach, that means we want to model a binary variable by an ensemble of explanatory variables. This problem is usually treated as a scoring problem. It consists in the definition of functions, called scoring functions, which interpret the information contained in the explanatory variables and transform it into a real-value score note. The goal of such a function is to induce the same order on the observations than the a posteriori probability, so that the observations that have a high probability to be "good" have a high score, and those that have a high probability to be "bad" (and thus a high risk for the bank) have a low score. Performance criteria such as the ROC curve and the AUC allow us to quantify the quality of the order given by the scoring function. The reference method to obtain such scoring functions is the logistic regression, which we present here. A major subject in credit scoring is the variable selection. The banks have access to large databases, which gather information on the profile of their clients and their past behavior. However, those variables may not all be discriminating regarding the risk criterion. In order to select the variables, we proposed to use the Lasso method, based on the restriction of the coefficients of the model, so that the less significative coefficients will be fixed to zero. We applied the Lasso method on linear regression and logistic regression. We also considered an extension of the Lasso method called Group Lasso on logistic regression, which allows us to select groups of variables rather than individual variables. Then, we considered the case in which the response variable is not binary, but polytomous, that is to say with more than two response levels. The first step in this new context was to extend the scoring problem as we knew in the binary case to the polytomous case. We then presented some models adapted to this case: an extension of the binary logistic regression, semi-parametric methods, and an application of the Lasso method on the polytomous logistic regression. Finally, the last chapter deals with some application studies, in which the methods presented in this manuscript are applied to real data from the bank, to see how they meet the needs of the real world.
115

Modélisation de phénomènes biologiques complexes : application à l'étude de la réponse antigénique de lymphocytes B sains et tumoraux / Modeling complex biological phenomena : application to the study of the antigenic response of healthy and tumor B lymphocytes

Jung, Nicolas 03 December 2014 (has links)
La biologie des systèmes complexes est le cadre idéal pour l'interdisciplinarité. Dans cette thèse, les modèles et les théories statistiques répondent aux modèles et aux expérimentations biologiques. Nous nous sommes intéressés au cas particulier de la leucémie lymphoïde chronique à cellules B, qui est une forme de cancer des cellules du sang. Nous avons commencé par modéliser le programme génique tumoral sous-jacent à cette maladie et nous l'avons comparé au programme génique d'individus sains. Pour ce faire, nous avons introduit la notion de réseau en cascade. Nous avons ensuite démontré notre capacité à contrôler ce système complexe, en prédisant mathématiquement les effets d'une expérience d'intervention consistant à inhiber l'expression d'un gène. Cette thèse s'achève sur la perspective d'une modulation orientée, c'est-à-dire le choix d'expériences d'intervention permettant de « reprogrammer » le programme génique tumoral vers un état normal. / System biology is a well-suited context for interdisciplinary. In this thesis, statistical models and theories closely meet biological models and experiments. We focused on a specific complex system model: the chronic B-cell chronic lymphocytic leukemia disease which is a cancer of the blood cells. We started by modeling the genetic program which underlies this disease and we compared it to the healthy one. This conduced us to introduce the concept of cascade networks. We then showed our ability to control this complex system by predicting with our mathematical model the effects of a gene inhibition experiment. This thesis ends with the perspective of oriented modulation, i.e. targeted interventional experiments on genes allowing to “reprogram” the cancerous genetic program toward a healthy normal state.
116

Feature extraction and supervised learning on fMRI : from practice to theory / Estimation de variables et apprentissage supervisé en IRMf : de la pratique à la théorie

Pedregosa-Izquierdo, Fabian 20 February 2015 (has links)
Jusqu'à l'avènement de méthodes de neuroimagerie non invasives les connaissances du cerveau sont acquis par l'étude de ses lésions, des analyses post-mortem et expérimentations invasives. De nos jours, les techniques modernes d'imagerie telles que l'IRMf sont capables de révéler plusieurs aspects du cerveau humain à une résolution spatio-temporelle progressivement élevé. Cependant, afin de pouvoir répondre à des questions neuroscientifiques de plus en plus complexes, les améliorations techniques dans l'acquisition doivent être jumelés à de nouvelles méthodes d'analyse des données. Dans cette thèse, je propose différentes applications de l'apprentissage statistique au traitement des données d'IRMf. Souvent, les données acquises par le scanner IRMf suivent une étape de sélection de variables dans lequel les cartes d'activation sont extraites du signal IRMf. La première contribution de cette thèse est l'introduction d'un modèle nommé Rank-1 GLM (R1-GLM) pour l'estimation jointe des cartes d'activation et de la fonction de réponse hémodynamique (HRF). Nous quantifions l'amélioration de cette approche par rapport aux procédures existantes sur différents jeux de données IRMf. La deuxième partie de cette thèse est consacrée au problème de décodage en IRMf, ce est à dire, la tâche de prédire quelques informations sur les stimuli à partir des cartes d'activation du cerveau. D'un point de vue statistique, ce problème est difficile due à la haute dimensionnalité des données, souvent des milliers de variables, tandis que le nombre d'images disponibles pour la formation est faible, typiquement quelques centaines. Nous examinons le cas où la variable cible est composé à partir de valeurs discrets et ordonnées. La deuxième contribution de cette thèse est de proposer les deux mesures suivantes pour évaluer la performance d'un modèle de décodage: l'erreur absolue et de désaccord par paires. Nous présentons plusieurs modèles qui optimisent une approximation convexe de ces fonctions de perte et examinent leur performance sur des ensembles de données IRMf. Motivé par le succès de certains modèles de régression ordinales pour la tâche du décodage basé IRMf, nous nous tournons vers l'étude de certaines propriétés théoriques de ces méthodes. La propriété que nous étudions est connu comme la cohérence de Fisher. La troisième, et la plus théorique, la contribution de cette thèse est d'examiner les propriétés de cohérence d'une riche famille de fonctions de perte qui sont utilisés dans les modèles de régression ordinales. / Until the advent of non-invasive neuroimaging modalities the knowledge of the human brain came from the study of its lesions, post-mortem analyses and invasive experimentations. Nowadays, modern imaging techniques such as fMRI are revealing several aspects of the human brain with progressively high spatio-temporal resolution. However, in order to answer increasingly complex neuroscientific questions the technical improvements in acquisition must be matched with novel data analysis methods. In this thesis we examine different applications of machine learning to the processing of fMRI data. We propose novel extensions and investigate the theoretical properties of different models. % The goal of an fMRI experiments is to answer a neuroscientific question. However, it is usually not possible to perform hypothesis testing directly on the data output by the fMRI scanner. Instead, fMRI data enters a processing pipeline in which it suffers several transformations before conclusions are drawn. Often the data acquired through the fMRI scanner follows a feature extraction step in which time-independent activation coefficients are extracted from the fMRI signal. The first contribution of this thesis is the introduction a model named Rank-1 GLM (R1-GLM) for the joint estimation of time-independent activation coefficients and the hemodynamic response function (HRF). We quantify the improvement of this approach with respect to existing procedures on different fMRI datasets. The second part of this thesis is devoted to the problem of fMRI-based decoding, i.e., the task of predicting some information about the stimuli from brain activation maps. From a statistical standpoint, this problem is challenging due to the high dimensionality of the data, often thousands of variables, while the number of images available for training is small, typically a few hundreds. We examine the case in which the target variable consist of discretely ordered values. The second contribution of this thesis is to propose the following two metrics to assess the performance of a decoding model: the absolute error and pairwise disagreement. We describe several models that optimize a convex surrogate of these loss functions and examine their performance on different fMRI datasets. Motivated by the success of some ordinal regression models for the task of fMRI-based decoding, we turn to study some theoretical properties of these methods. The property that we investigate is known as consistency or Fisher consistency and relates the minimization of a loss to the minimization of its surrogate. The third, and most theoretical, contribution of this thesis is to examine the consistency properties of a rich family of surrogate loss functions that are used in the context of ordinal regression. We give sufficient conditions for the consistency of the surrogate loss functions considered. This allows us to give theoretical reasons for some empirically observed differences in performance between surrogates.
117

Gestion de la mobilité dans les réseaux femtocells / Mobility management in femtocells networks

Ben Cheikh, Ahlam 12 December 2016 (has links)
Les femtocellules sont déployées par des FAPs dans la couverture des macrocellules afin d'offrir aux utilisateurs un service continu aussi bien à l'intérieur qu'à l'extérieur.Elles sont caractérisées par une courte portée,faible puissance et ne peuvent couvrir qu'un nombre limité des utilisateurs.Ces caractéristiques rendent la gestion de la mobilité l'un des plus importants défis à résoudre.Dans cette thèse,nous proposons des nouveaux algorithmes de handover.En premier lieu,nous considérons la direction du mobile comme un paramètre clé pour la prise de décision de Handover.Nous proposons un algorithme de handover nommé OHMF basé sur l'optimisation de la liste de FAPs candidats tout en considérant la qualité de signal ainsi que la direction de mouvement de mobile.Ensuite,nous proposons un processus de prédiction de direction basé sur la régression linéaire.L'idée est de prédire la position future du mobile tout en tenant compte des positions actuelle et précédente.Cet algorithme est intitulé OHDP. En deuxième lieu,nous nous intéressons au problème de prédiction de mobilité pour être plus rigoureux lors de prise de décision de handover.Pour cela,nous utilisons les chaînes de markov cachées comme prédicteur du prochain FAP et nous proposons un algorithme de handover nommé OHMP. Afin d'adapter notre solution à toutes les contraintes du réseau femtocellules,nous proposons un algorithme de handover intitulé OHMP-CAC qui intègre un CAC approprié au réseau étudié et une différenciation de service avec et sans contraintes de QoS.Des études de performances basées sur des simulations et des traces de mobilité réelles ont été réalisées pour évaluer l'efficacité de nos propositions. / Femtocell network are deployed in the macrocell’s coverage to provide extended services with better performances. Femtocells have a short-range and low power transmissions.Each FAP supports a few number of connected users.Owing to these inherent features, one of the most challenging issues for the femtocellular network deployment remains the mobility management.In this thesis, we propose new handovers algorithms adapted to the characteristics of femtocells network.As a first part,we consider the direction of mobile user as a key parameter for the handover decision.To do so,we propose a new handover algorithm called OHMF. Its main purpose is the optimization of the list of FAPs candidates based on signal quality as well as the mobile direction to better choose the FAP target.After that, we propose an algorithm called OHDP based on the direction prediction using the linear regression.The idea behind this is to predict the future position of mobile based on its current and previous position. As a second part, we focus on mobility prediction problem to make an efficient handover decision.We propose a novel handoff decision algorithm called OHMP that uses HMM as a predictor to accurately estimate the next FAP that a mobile UE would visit,given its current and historical movement information.In order to adapt our solution to the characteristics of femtocells network,we propose a handover algorithm called OHMP-CAC based on HMM tool as a predictor, a proposed CAC and the availability of resources of the predicted FAP,SINR and the traffic type.In order to assess the efficiency of our proposals,all underlying algorithms are evaluated through simulations and real mobility traces.
118

Développement du langage communicatif chez les autistes qui ont expérimenté une régression langagière en bas âge

Gagnon, David 08 1900 (has links)
Une régression du langage en bas âge (ELR) est observée par 10 à 50% des parents d’enfants autistes, mais l’importance de cet évènement sur le développement des habiletés langagières et sociocommunicatives est incertaine. Ce mémoire de maîtrise vise à établir l’effet de l’ELR sur la progression du développement du langage et les performances sociocommunicatives. Il vise également à mettre en évidence les caractéristiques communicatives atypiques qui accompagnent le développement du langage des enfants autistes avec un ELR. Les données rétrospectives de 2 047 enfants autistes âgés de 4 à 18 ans ont été extraites de la Simons Simplex Collection. La progression du langage après un ELR a été quantifiée et la probabilité d’atteindre un niveau fluide a été modélisée par régression logistique. Les atypies de la communication associées à un antécédent d'ELR ont été identifiées et regroupées. Des modèles linéaires ont été utilisés pour évaluer la relation de l'ELR, le QI non verbal et de la combinaison d’atypies de la communication avec les niveaux d’habiletés langagières et sociocommunicatives. L’ELR est associée à une émergence plus rapide du langage, mais à une maîtrise tardive du langage fluide. La probabilité d’atteindre un langage fluide est principalement influencée par le QI non verbal, dont l’effet n’est pas modulé par ELR. Les enfants autistes avec ELR présentent un développement du langage qui commence tôt, suivi d’un plateau et d’une phase de rattrapage. Cette dernière est associée à un groupe d’atypies de la communication pouvant représenter un profil central du développement du langage en autisme. / Early language regression (ELR) is observed by 10 to 50% of autistic children parents but its relevance on the development of language and socio-communicative skills is uncertain. This master's thesis aims to establish the effect of ELR on the progression of language development and socio-communicative outcomes. It also aims to highlight the atypical communicative features that accompany the language development of autistic children with ELR. Retrospective data from 2 047 unrelated autistic children aged from 4 to 18 years were extracted from the Simons Simplex Collection. Language progression following ELR was quantified and the probability of achieving fluent speech modelled by logistic regression. Atypical communicative features associated with a history of ELR were identified and grouped. Linear models were used to evaluate the relationship of ELR, non- verbal IQ and the combination of atypical communicative features with language and socio-communicative levels. ELR is associated with faster language onset but later attainment of speech fluency. The probability of reaching fluent speech is mostly influenced by non-verbal IQ, the effect of which is not modulated by ELR. Autistic children with ELR present a speech development, which starts early, followed by a plateau and a final phase of catch up. The latter is associated with a group of atypical communicative features that may represent a core language development profile in autism.
119

Étude des effets anti-athérosclérotiques d’analogues aza-GHRP-6 en tant que ligands du récepteur CD36 chez un modèle murin déficient en apolipoprotéine E

Frégeau, Geneviève 09 1900 (has links)
L’athérosclérose est un important facteur de risque des maladies cardiovasculaires ischémiques. Cette pathologie est caractérisée par la formation de plaques lipidiques dans l’intima des vaisseaux sanguins. Le récepteur éboueur cluster de differentiation-36 (CD36) est impliqué dans l’internalisation et l’accumulation de lipoprotéines au sein des macrophages qui vont devenir des cellules spumeuses, ce qui est à l’origine de la formation de lésions athérosclérotiques. Notre hypothèse est que les azapeptides, dérivés du peptide de relâche de l’hormone de croissance 6 (GHRP-6), vont interférer avec l’internalisation des lipoprotéines par les macrophages et ainsi réduire la progression des lésions. Nous avons utilisé des souris déficientes en apolipoprotéine E (apoe-/-) qui ont été traitées quotidiennement par une injection sous-cutanée de 300 nmol/kg de MPE-001 ou de MPE-003. Les effets des azapeptides ont été étudiés sous deux régimes alimentaires, soit le maintien d’une diète enrichie en lipides et en cholestérol (HFHC) pendant la durée de l’étude, ou par une diète HFHC suivie d’une diète normale pendant la période de traitement. Nos résultats montrent que les azapeptides ont réduit la progression des lésions à différents sites aortiques et artériels et induit leur régression au niveau des sinus aortiques du coeur. Ces effets ont été associés à une diminution de médiateurs pro-inflammatoires au niveau plasmatique et à une augmentation des marqueurs caractéristiques des macrophages anti-inflammatoires (M2). Nos travaux ont montré que l’effet athéroprotecteur des azapeptides dépend de la présence du récepteur CD36. Ces résultats appuient le développement de ligands sélectifs du récepteur CD36 dans le traitement de l’athérosclérose. / Atherosclerosis is an important risk factor for the development of ischemic heart disease. This pathology is characterized by the formation of lipid plaques in the intima of the blood vessels. The receptor cluster of differentiation 36 (CD36) is involved in the internalization and retention of lipoproteins within macrophages that will become foam cells, which induce the formation of atherosclerotic lesions. Our hypothesis is that azapeptides, derived from growth hormone release peptide-6 (GHRP-6), will interfere with the internalization of lipoproteins by macrophages and thereby reduce the progression of lesions. We used apolipoprotein E-deficient mice (apoe-/-) which were treated daily with a subcutaneous injection of 300 nmol / kg of MPE-001 or MPE-003. The effects of azapeptides were studied under two diets regimen, the mice were either maintained under a diet enriched in fat and cholesterol (HFHC) for the duration of the study or were given a HFHC diet followed by a normal diet during the treatment period. Our results show that azapeptides reduced the progression of lesions at different aortic and arterial sites and induced their regression in the aortic sinuses of the heart. These effects have been associated with a decrease in pro-inflammatory mediators in plasma and an increase in markers characteristic of anti-inflammatory macrophages (M2). Our work has shown that the atheroprotective effect of azapeptides depends on the presence of the CD36 receptor. These results support the development of selective ligands for the CD36 receptor in the treatment of atherosclerosis.
120

Changeabilité des logiciels orientés objet : propriétés architecturales et indicateurs de qualité

Kabaili, Hind January 2002 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.

Page generated in 0.0888 seconds