• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 76
  • 19
  • 5
  • 1
  • Tagged with
  • 101
  • 101
  • 101
  • 47
  • 46
  • 36
  • 29
  • 20
  • 13
  • 12
  • 12
  • 11
  • 11
  • 11
  • 10
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

Sélection de modèles robuste : régression linéaire et algorithme à sauts réversibles

Gagnon, Philippe 10 1900 (has links)
No description available.
92

Mesure et Analyse Statistique Tout Temps du Spectre du Rayonnement Solaire / All Weather Solar Spectrum Measurement and Statistical Analysis

Tourasse, Guillaume 19 December 2016 (has links)
Ce document présente la mise en place d’un système de mesure des éclairements énergétiques spectraux solaires pour tout type de temps, sur 4 plans. Les 4 spectromètres mesurent au total 900 spectres/min et produisent chacun un spectre/min moyen et son écart type. Entre 2014 et 2015, 700 000 spectres ont été enregistrés sur un domaine compris entre 400 et 1000 nm avec un pas ≤1 nm. Un échantillon de 145 000 spectres représentatifs du climat lyonnais a été sélectionné pour une analyse statistique. Pour ce faire, l’échantillon a été réduit par partitionnement à 1175 spectres. Son domaine spectral a été étendu de 280 à 1500 nm à l’aide du RTM SMARTS. Une ACP de cet échantillon extrapolé a permis d’en réduire la description à 3 composantes et ainsi de réviser le modèle des illuminants D de la CIE. Enfin, la relation entre composition spectrale et paramètres environnementaux ou colorimétriques ouvre une voie vers des modèles statistiques de génération de spectres du rayonnement solaire. / This manuscript presents the design and setup of an all-weather spectral irradiance measurement system on 4 planes. The 4 spectrometers measure a total of 900 spectra/min to produce every minute, a mean spectral irradiance and its standard deviation. Between 2014 and 2015, this system recorded 700,000 spectra, for wavelengths ranging between 400 and 1,000 nm with a step ≤1 nm. A sample of 145,000 spectra representative of the Lyon climate was selected for statistical analysis. For this purpose, the sample was reduced in size by partitioning it in 1,175 spectra. Its spectral domain was extended to 280-1,500 nm by extrapolating the spectra with curve fitting using the SMARTS2 RTM. A PCA of the extrapolated sample reduced its description to only 3 components; hence, allowing a revision of the CIE’s illuminant D series. Finally, the relation between spectral power distribution and environmental or colorimetric parameters opens a way towards statistical models for generating solar spectra.
93

Imputation multiple par analyse factorielle : Une nouvelle méthodologie pour traiter les données manquantes / Multiple imputation using principal component methods : A new methodology to deal with missing values

Audigier, Vincent 25 November 2015 (has links)
Cette thèse est centrée sur le développement de nouvelles méthodes d'imputation multiples, basées sur des techniques d'analyse factorielle. L'étude des méthodes factorielles, ici en tant que méthodes d'imputation, offre de grandes perspectives en termes de diversité du type de données imputées d'une part, et en termes de dimensions de jeux de données imputés d'autre part. Leur propriété de réduction de la dimension limite en effet le nombre de paramètres estimés.Dans un premier temps, une méthode d'imputation simple par analyse factorielle de données mixtes est détaillée. Ses propriétés sont étudiées, en particulier sa capacité à gérer la diversité des liaisons mises en jeu et à prendre en compte les modalités rares. Sa qualité de prédiction est éprouvée en la comparant à l'imputation par forêts aléatoires.Ensuite, une méthode d'imputation multiple pour des données quantitatives basée sur une approche Bayésienne du modèle d'analyse en composantes principales est proposée. Elle permet d'inférer en présence de données manquantes y compris quand le nombre d'individus est petit devant le nombre de variables, ou quand les corrélations entre variables sont fortes.Enfin, une méthode d'imputation multiple pour des données qualitatives par analyse des correspondances multiples (ACM) est proposée. La variabilité de prédiction des données manquantes est reflétée via un bootstrap non-paramétrique. L'imputation multiple par ACM offre une réponse au problème de l'explosion combinatoire limitant les méthodes concurrentes dès lors que le nombre de variables ou de modalités est élev / This thesis proposes new multiple imputation methods that are based on principal component methods, which were initially used for exploratory analysis and visualisation of continuous, categorical and mixed multidimensional data. The study of principal component methods for imputation, never previously attempted, offers the possibility to deal with many types and sizes of data. This is because the number of estimated parameters is limited due to dimensionality reduction.First, we describe a single imputation method based on factor analysis of mixed data. We study its properties and focus on its ability to handle complex relationships between variables, as well as infrequent categories. Its high prediction quality is highlighted with respect to the state-of-the-art single imputation method based on random forests.Next, a multiple imputation method for continuous data using principal component analysis (PCA) is presented. This is based on a Bayesian treatment of the PCA model. Unlike standard methods based on Gaussian models, it can still be used when the number of variables is larger than the number of individuals and when correlations between variables are strong.Finally, a multiple imputation method for categorical data using multiple correspondence analysis (MCA) is proposed. The variability of prediction of missing values is introduced via a non-parametric bootstrap approach. This helps to tackle the combinatorial issues which arise from the large number of categories and variables. We show that multiple imputation using MCA outperforms the best current methods.
94

Nouvelles observations et techniques d'apprentissage automatique appliquées aux galaxies et aux amas de galaxies

Rhea, Carter 10 1900 (has links)
Les amas de galaxies sont l'une des plus grandes structures dans l'univers et jouent le rôle d'hôte de plusieurs phénomènes complexes. Bien qu'il existe beaucoup d'études portant sur leur formation et leur évolution, l'avènement récent de l'apprentissage automatique en astronomie nous permet d'investiguer des questions qui, jusqu'à maintenant, demeuraient sans réponse. Même si ce mémoire se concentre sur l'application de techniques d'apprentissage automatique aux observations en rayons X des amas de galaxies, nous explorons l'usage de ces techniques à son homologue à une échelle réduite : les galaxies elles-mêmes. Malgré le fait que les trois articles présentés dans ce mémoire se concentrent sur différents aspects de la physique, sur de différentes échelles et sur de différentes techniques, ils forment une base d'études que je continuerai pendant mon doctorat : l'usage des nouvelles techniques pour investiguer la physique des régions galactiques et extragalactiques. Dans le premier article, nous introduisons les premières observations en rayons X d'un amas de galaxies lointain qui détient des attributs particuliers comme une formation stellaire hors pair (∽ 900 M⊙/an). Dans cet article, nous employons les techniques traditionnelles en astronomie rayons X pour déterminer si ce taux de formation stellaire est dû à un courant de refroidissement désinhibé. Puisque l'objet est très lointain (z=1.7), il faut faire nos calculs sans beaucoup de photons et il faut donc utiliser les indices par procuration. Nous déterminons que la galaxie centrale est séparée d'une distance de plus de 50 kpc du coeur froid de l'amas. À cause de cette séparation, le trou noir supermassif central n'est pas alimenté et il ne peut pas prévenir le courant de refroidissement. Ceci est le premier exemple d'un amas de galaxies où nous observons l'échec de la rétroaction d'un trou noir supermassif. De plus, ceci nous fournit un autre mécanisme qui peut créer la lumière intra-amas. Dans le deuxième article présenté ici, nous examinons l'émission rayons X provenant du milieu intra-amas extrêmement chaud des amas de galaxies. Nous développons une méthode compréhensive qui détermine le nombre de composantes thermiques sous-jacentes dans un spectre de plasma. Notre nouvelle technique est basée sur une combinaison d'algorithmes d'apprentissage automatique non supervisé (analyse de composantes principales) et d'apprentissage automatique supervisé (arbre aléatoire). Nous créons un ensemble de 100 000 observations synthétiques et réalistes de Chandra qui représentent le gaz chaud dans les amas de galaxies voisines. Après la réduction de notre ensemble d'entraînement à ses 25 composantes principales, nous entraînons notre classificateur afin qu'il puisse déterminer le nombre de composantes thermiques sous-jacentes. Une fois l'étape d'entraînement terminée et l'optimisation des hyperparamètres terminée, nous appliquons la méthodologie à l'amas de galaxies de Persée. En plus de créer une carte de l'amas qui indique le nombre de composantes thermiques nécessaires afin de modéliser précisément l'émission du gaz chaud, nous avons développé un ensemble d'outils numériques qui calculent les températures associées. Nos résultats sont en accord avec plus d'une décennie d'études sur l'amas de galaxies de Persée et nous indiquent qu'il faut utiliser plusieurs composantes thermiques pour modéliser le milieu intra-amas correctement. Le troisième article présenté dans ce mémoire emploie de nouveau l'apprentissage automatique pour résoudre une question précédemment sans réponse nécessaire pour la caractérisation précise de la cinématique de gaz chaud dans les galaxies. Nous avons construit un réseau de neurones convolutif qui estime la vitesse et l'élargissement des raies d'émission d'un spectre de galaxies en visible. Une fois construit, nous l'appliquons aux données synthétiques qui répliquent les observations réelles de SITELLE du programme SIGNALS. En utilisant notre réseau bien entraîné, nous caractérisons l'émission d'une cible de SIGNALS : la galaxie M33. Nos résultats indiquent que notre algorithme surpasse les méthodes standards et s'adapte bien aux procédures d'ajustement spectral. En outre, notre méthodologie augmente la vitesse des calculs par plus d'un ordre de grandeur. Bien que l'algorithme soit entraîné spécifiquement pour SITELLE, on peut faire de petites modifications pour l'utiliser avec des autres interféromètres tels que MUSE et ses futurs analogues dans la prochaine génération de télescopes. Notez que j'ai mené à titre de premier auteur deux des trois articles présentés dans ce mémoire et apporté des contributions majeures au troisième. Les trois articles ont déjà été acceptés pour publication ou ont déjà été soumis et révisés une fois. / Galaxy clusters are one of the largest structures in the universe and host several complex physical phenomena. Although a wealth of knowledge already exists on their formation and evolution, the recent advent of machine learning in the astronomical sciences has allowed us to probe questions heretofore unanswered. While this thesis does focus heavily on the application of machine learning techniques to X-ray observations of galaxy clusters, it takes the techniques applied there to galaxy cluster's smaller counterparts: the individual galaxies themselves. Although the three papers presented here focus on distinct physics, scales, and techniques, they all form a basis of studies that I will continue during my doctorate: using new techniques to probe the underlying physics of galactic and extragalactic regions. The first paper introduced is a study of a galaxy cluster near the beginning of the epoch of cluster formation exhibiting peculiar attributes such as an elevated stellar formation rate (∽ 900M⊙/yr). In this paper, we employ traditional techniques in X-ray astronomy to determine whether or not the prodigious formation rate is due to an uninhibited cooling core. Since the object is so distant (z=1.7), we must execute our calculations with relatively few photons and thus rely on proxy measures. We determine that there exists a strong cooling flow offset by over 50 kpc from the central galaxy. Because of this offset, the AGN is not fueled and thus fails to heat up the cooling flow. This is the first example of a galaxy cluster in which we observe the failure of AGN feedback. Additionally, this provides another mechanism for the creation of intracluster light. The second article presented here focuses on X-ray emission from the hot intra-cluster medium within the galaxy cluster. We develop a comprehensive method for determining the number of underlying thermal components in the plasma's spectra. Our novel technique relies on a combination of an unsupervised learning algorithm (principal component analysis) and a supervised learning algorithm (random forest classification). We create a set of 100,000 realistic mock Chandra observations of the hot X-ray emitting gas in nearby galaxy clusters. After reducing our synthetic training set to its 25 most important principal components, we trained a random forest classifier to distinguish between the number of underlying thermal components. After successful testing and hyperparameter optimization, we applied the methodology third paper featured in this thesis once again employs machine learning to solve a previously undetermined question necessary for the accurate characterization of the kinematics of the warm gas in galaxies. We constructed a convolutional neural network to estimate the velocity and broadening parameters from the optical spectra of emission-line nebula and applied it to synthetic data replicating real SITELLE observations from the SIGNALS program. With a trained and optimized network in hand, we apply our methodology to a target of the SIGNALS program: the galaxy M33. Our results indicate our algorithm out-performs previous methods and nicely complements spectral fitting procedures. Moreover, the methodology increases calculation speeds by more than an order of magnitude -- thus greatly reducing the time needed to determine the kinematic parameters. Although the algorithm was trained for SITELLE data, this method can be readily ported to other IFUs such as MUSE. I have led two of the papers presented in this memoire and made major contributions to the third. All three papers have been either accepted for publication or have already been submitted and revised once. to the Perseus Cluster. In addition to creating a map of the cluster indicating the number of thermal components required to accurately model the thermal emission, we developed a suite of analysis routines to determine the temperatures of the underlying components. Our results are in agreement with over a decade of studies on the Perseus cluster and indicate that multiple temperature components are required for the accurate study of its intracluster medium.
95

Exposition des travailleurs du recyclage électronique à des ignifuges et association à des effets endocriniens.

Gravel, Sabrina 06 1900 (has links)
Les ignifuges sont ajoutés à divers produits afin de les rendre conformes aux normes d’inflammabilité. Les plus communs sont les polybromodiphényléthers (PBDE) et les esters d’organophosphorés (OPE), qui sont détectés en forte proportion dans la population générale. Quelques industries, comme celle du recyclage électronique, peuvent exposer les travailleurs à des niveaux élevés de ces ignifuges, dont certains sont soupçonnés d’être des perturbateurs endocriniens. L’objectif de cette thèse était d’évaluer l’exposition à des ignifuges chez les travailleurs et d’étudier les effets endocriniens associés. Trois types de données ont été utilisés. D’abord, deux bases de données populationnelles ont permis de déterminer les valeurs biologiques de base des PBDE chez les travailleurs des populations générales canadienne et états-unienne, et d’identifier les secteurs industriels les plus exposés. Ensuite, une revue systématique de littérature a recensé les niveaux d’exposition professionnelle aux ignifuges dans diverses industries en portant un regard critique sur les méthodes de prélèvement. Finalement, des prélèvements d’air en poste personnel, d’urine et de sang ont été réalisés auprès de 100 travailleurs dans six entreprises de recyclage électronique et une de recyclage commercial. Des modèles Tobit et des régressions de Cox inversées ont identifié les tâches les plus exposantes. L’association entre les mesures biologiques d’exposition et les niveaux d’hormones thyroïdiennes et sexuelles a été explorée avec des modèles Tobit et des régressions sur composantes principales. L’analyse des données populationnelles a révélé que les travailleurs canadiens, tous secteurs confondus, avaient des concentrations sériques de PBDE 10 à 20% plus élevées que celles des non-travailleurs. La revue systématique a identifié les milieux du recyclage électronique, de la fabrication de câbles, du transport aérien et des casernes d’incendie comme étant parmi les plus exposants aux ignifuges, particulièrement au BDE209. Cependant, les méthodes de prélèvement utilisées dans ces études étaient généralement peu appropriées pour les ignifuges. L’analyse des données de l’étude terrain a mis en évidence des concentrations d’ignifuges dans l’air plus élevées dans le recyclage électronique que dans le recyclage commercial, avec une concentration en BDE209 plus élevée que toutes les valeurs publiées à ce jour (moyenne géométrique [MG] : 5100 ng/m³). Les tâches de démantèlement et de compactage étaient respectivement associées à des expositions en moyenne 2,2 et 1,4 fois plus élevées que celle de supervision. Finalement, les concentrations sanguines de BDE209 (MG : 18 ng/g lipides) chez les travailleurs du recyclage électronique étaient plus élevées que dans le recyclage commercial (MG : 1,7 ng/g lipides), mais moins élevées que celles rapportées dans la fabrication de câbles (moyenne : 54 ng/g lipides). On a estimé chez l’homme des diminutions de 18% de la testostérone libre et totale pour un doublement de la concentration de tb-TPhP (métabolite OPE), et une augmentation de 16% de l’estradiol pour un doublement de la concentration de o-iPr-DPhP (métabolite OPE). Cette thèse montre que l’exposition aux ignifuges est très répandue, particulièrement chez les travailleurs de quelques industries. Les concentrations plus élevées de certains ignifuges dans le recyclage électronique par rapport aux autres industries, et l’association entre l’exposition aux OPE et les niveaux d’hormones sexuelles chez l’homme ont été identifiées pour la première fois. Bien que devant être reproduits, ces résultats justifient des efforts préventifs de maîtrise de l’exposition aux ignifuges dans cette industrie. / Flame retardants are added to various products to comply to flammability standards. The most common are polybrominated diphenyl ethers (PBDEs) and organophosphate esters (OPEs), which are detected in high proportion in the general population. A few industries, such as electronic recycling, can expose workers to high levels of flame retardants, some of which are suspected of being endocrine disruptors. The objective of this thesis was to evaluate the exposure to flame retardants in workers and to study the associated endocrine effects. Three types of data were used. First, two population databases were used to determine baseline PBDE levels for workers in the general population in Canada and the United States, and to identify the major industrial sectors that are exposed the most. Then, a systematic literature review identified levels of occupational exposure to flame retardants in various industries while critically examining sampling methods. Finally, personal air, urine and blood samples were collected from 100 workers in six electronic recycling and one commercial recycling companies. Tobit models and reverse Cox regressions identified the most exposing tasks. The association between biological concentrations of flame retardants and thyroid and sex hormone levels was explored with Tobit models and principal component regressions. The analysis of the population data revealed that Canadian workers, taking all sectors into consideration, had serum PBDE levels 10 to 20% higher than those of non-workers. The systematic review identified electronic recycling, cable manufacturing, air transport and fire stations as some of the workplaces where flame retardants were found in the highest concentrations, particularly BDE209. However, the sampling methods used in these studies were generally not optimal for flame retardants. Analysis of the field study data revealed higher air concentrations of flame retardants in electronic recycling than in commercial recycling, with a higher BDE209 concentration than all values published to date (geometric mean [MG]: 5100 ng/m³). Dismantling and bailing tasks were associated with exposures averaging 2.2 and 1.4 times higher than supervisory tasks, respectively. Finally, blood concentrations of BDE209 (MG: 18 ng/g lipid) in electronic recycling workers were higher than in commercial recycling (MG: 1.7 ng/g lipid), but lower than those reported in cable manufacturing (average: 54 ng/g lipid). Decreases of 18% in free and total testosterone were estimated in humans for a doubling of the concentration of tb-TPhP (OPE metabolite), and a 16% increase in estradiol for a doubling of the concentration of o-iPr-DPhP (OPE metabolite). This thesis shows that exposure to flame retardants is widespread, particularly among workers in a few industries. The higher concentrations of some flame retardants in electronic recycling compared with other industries, and the association between exposure to OPEs and sex hormone levels in humans were identified for the first time. Although these results must be reproduced, they justify preventive efforts to control exposure to flame retardants in this industry.
96

Essais sur la prévision de la défaillance bancaire : validation empirique des modèles non-paramétriques et étude des déterminants des prêts non performants / Essays on the prediction of bank failure : empirical validation of non-parametric models and study of the determinants of non-performing loans

Affes, Zeineb 05 March 2019 (has links)
La récente crise financière qui a débuté aux États-Unis en 2007 a révélé les faiblesses du système bancaire international se traduisant par l’effondrement de nombreuses institutions financières aux États-Unis et aussi par l’augmentation de la part des prêts non performants dans les bilans des banques européennes. Dans ce cadre, nous proposons d’abord d’estimer et de tester l’efficacité des modèles de prévisions des défaillances bancaires. L’objectif étant d’établir un système d’alerte précoce (EWS) de difficultés bancaires basées sur des variables financières selon la typologie CAMEL (Capital adequacy, Asset quality, Management quality, Earnings ability, Liquidity). Dans la première étude, nous avons comparé la classification et la prédiction de l’analyse discriminante canonique (CDA) et de la régression logistique (LR) avec et sans coûts de classification en combinant ces deux modèles paramétriques avec le modèle descriptif d’analyse en composantes principales (ACP). Les résultats montrent que les modèles (LR et CDA) peuvent prédire la faillite des banques avec précision. De plus, les résultats de l’ACP montrent l’importance de la qualité des actifs, de l’adéquation des fonds propres et de la liquidité en tant qu’indicateurs des conditions financières de la banque. Nous avons aussi comparé la performance de deux méthodes non paramétriques, les arbres de classification et de régression (CART) et le nouveau modèle régression multivariée par spline adaptative (MARS), dans la prévision de la défaillance. Un modèle hybride associant ’K-means clustering’ et MARS est également testé. Nous cherchons à modéliser la relation entre dix variables financières et le défaut d’une banque américaine. L’approche comparative a mis en évidence la suprématie du modèle hybride en termes de classification. De plus, les résultats ont montré que les variables d’adéquation du capital sont les plus importantes pour la prévision de la faillite d’une banque. Enfin, nous avons étudié les facteurs déterminants des prêts non performants des banques de l’Union Européenne durant la période 2012-2015 en estimant un modèle à effets fixe sur données de panel. Selon la disponibilité des données nous avons choisi un ensemble de variables qui se réfèrent à la situation macroéconomique du pays de la banque et d’autres variables propres à chaque banque. Les résultats ont prouvé que la dette publique, les provisions pour pertes sur prêts, la marge nette d’intérêt et la rentabilité des capitaux propres affectent positivement les prêts non performants, par contre la taille de la banque et l’adéquation du capital (EQTA et CAR) ont un impact négatif sur les créances douteuses. / The recent financial crisis that began in the United States in 2007 revealed the weaknesses of the international banking system resulting in the collapse of many financial institutions in the United States and also the increase in the share of non-performing loans in the balance sheets of European banks. In this framework, we first propose to estimate and test the effectiveness of banking default forecasting models. The objective is to establish an early warning system (EWS) of banking difficulties based on financial variables according to CAMEL’s ratios (Capital adequacy, Asset quality, Management quality, Earnings ability, Liquidity). In the first study, we compared the classification and the prediction of the canonical discriminant analysis (CDA) and the logistic regression (LR) with and without classification costs by combining these two parametric models with the descriptive model of principal components analysis (PCA). The results show that the LR and the CDA can predict bank failure accurately. In addition, the results of the PCA show the importance of asset quality, capital adequacy and liquidity as indicators of the bank’s financial conditions. We also compared the performance of two non-parametric methods, the classification and regression trees (CART) and the newly multivariate adaptive regression splines (MARS) models, in the prediction of failure. A hybrid model combining ’K-means clustering’ and MARS is also tested. We seek to model the relationship between ten financial variables (CAMEL’s ratios) and the default of a US bank. The comparative approach has highlighted the supremacy of the hybrid model in terms of classification. In addition, the results showed that the capital adequacy variables are the most important for predicting the bankruptcy of a bank. Finally, we studied the determinants of non-performing loans from European Union banks during the period 2012-2015 by estimating a fixed effects model on panel data. Depending on the availability of data we have chosen a set of variables that refer to the macroeconomic situation of the country of the bank and other variables specific to each bank. The results showed that public debt, loan loss provisions, net interest margin and return on equity positively affect non performing loans, while the size of the bank and the adequacy of capital (EQTA and CAR) have a negative impact on bad debts.
97

Contributions à l'analyse de données fonctionnelles multivariées, application à l'étude de la locomotion du cheval de sport / Contributions to the analysis of multivariate functional data, application to the study of the sport horse's locomotion

Schmutz, Amandine 15 November 2019 (has links)
Avec l'essor des objets connectés pour fournir un suivi systématique, objectif et fiable aux sportifs et à leur entraineur, de plus en plus de paramètres sont collectés pour un même individu. Une alternative aux méthodes d'évaluation en laboratoire est l'utilisation de capteurs inertiels qui permettent de suivre la performance sans l'entraver, sans limite d'espace et sans procédure d'initialisation fastidieuse. Les données collectées par ces capteurs peuvent être vues comme des données fonctionnelles multivariées : se sont des entités quantitatives évoluant au cours du temps de façon simultanée pour un même individu statistique. Cette thèse a pour objectif de chercher des paramètres d'analyse de la locomotion du cheval athlète à l'aide d'un capteur positionné dans la selle. Cet objet connecté (centrale inertielle, IMU) pour le secteur équestre permet de collecter l'accélération et la vitesse angulaire au cours du temps, dans les trois directions de l'espace et selon une fréquence d'échantillonnage de 100 Hz. Une base de données a ainsi été constituée rassemblant 3221 foulées de galop, collectées en ligne droite et en courbe et issues de 58 chevaux de sauts d'obstacles de niveaux et d'âges variés. Nous avons restreint notre travail à la prédiction de trois paramètres : la vitesse par foulée, la longueur de foulée et la qualité de saut. Pour répondre aux deux premiers objectifs nous avons développé une méthode de clustering fonctionnelle multivariée permettant de diviser notre base de données en sous-groupes plus homogènes du point de vue des signaux collectés. Cette méthode permet de caractériser chaque groupe par son profil moyen, facilitant leur compréhension et leur interprétation. Mais, contre toute attente, ce modèle de clustering n'a pas permis d'améliorer les résultats de prédiction de vitesse, les SVM restant le modèle ayant le pourcentage d'erreur inférieur à 0.6 m/s le plus faible. Il en est de même pour la longueur de foulée où une précision de 20 cm est atteinte grâce aux Support Vector Machine (SVM). Ces résultats peuvent s'expliquer par le fait que notre base de données est composée uniquement de 58 chevaux, ce qui est un nombre d'individus très faible pour du clustering. Nous avons ensuite étendu cette méthode au co-clustering de courbes fonctionnelles multivariées afin de faciliter la fouille des données collectées pour un même cheval au cours du temps. Cette méthode pourrait permettre de détecter et prévenir d'éventuels troubles locomoteurs, principale source d'arrêt du cheval de saut d'obstacle. Pour finir, nous avons investigué les liens entre qualité du saut et les signaux collectés par l'IMU. Nos premiers résultats montrent que les signaux collectés par la selle seuls ne suffisent pas à différencier finement la qualité du saut d'obstacle. Un apport d'information supplémentaire sera nécessaire, à l'aide d'autres capteurs complémentaires par exemple ou encore en étoffant la base de données de façon à avoir un panel de chevaux et de profils de sauts plus variés / With the growth of smart devices market to provide athletes and trainers a systematic, objective and reliable follow-up, more and more parameters are monitored for a same individual. An alternative to laboratory evaluation methods is the use of inertial sensors which allow following the performance without hindering it, without space limits and without tedious initialization procedures. Data collected by those sensors can be classified as multivariate functional data: some quantitative entities evolving along time and collected simultaneously for a same individual. The aim of this thesis is to find parameters for analysing the athlete horse locomotion thanks to a sensor put in the saddle. This connected device (inertial sensor, IMU) for equestrian sports allows the collection of acceleration and angular velocity along time in the three space directions and with a sampling frequency of 100 Hz. The database used for model development is made of 3221 canter strides from 58 ridden jumping horses of different age and level of competition. Two different protocols are used to collect data: one for straight path and one for curved path. We restricted our work to the prediction of three parameters: the speed per stride, the stride length and the jump quality. To meet the first to objectives, we developed a multivariate functional clustering method that allow the division of the database into smaller more homogeneous sub-groups from the collected signals point of view. This method allows the characterization of each group by it average profile, which ease the data understanding and interpretation. But surprisingly, this clustering model did not improve the results of speed prediction, Support Vector Machine (SVM) is the model with the lowest percentage of error above 0.6 m/s. The same applied for the stride length where an accuracy of 20 cm is reached thanks to SVM model. Those results can be explained by the fact that our database is build from 58 horses only, which is a quite low number of individuals for a clustering method. Then we extend this method to the co-clustering of multivariate functional data in order to ease the datamining of horses’ follow-up databases. This method might allow the detection and prevention of locomotor disturbances, main source of interruption of jumping horses. Lastly, we looked for correlation between jumping quality and signals collected by the IMU. First results show that signals collected by the saddle alone are not sufficient to differentiate finely the jumping quality. Additional information will be needed, for example using complementary sensors or by expanding the database to have a more diverse range of horses and jump profiles
98

Elaboration de céramiques phosphocalciques pour l'ingénierie tissulaire osseuse : étude de l’influence des propriétés physico-chimiques des matériaux sur le comportement biologique in vitro / Elaboration of phosphocalcic ceramics for bone tissue engineering : influence of physico-chemical properties of materials on the biological behavior in vitro

Germaini, Marie-Michèle 24 January 2017 (has links)
Cette thèse transdisciplinaire réalisée en collaboration avec le laboratoire SPCTS (Sciences des Procédés Céramiques et Traitement de Surface) et l’EA 3842 (Homéostasie cellulaire et pathologies) de l’université de Limoges est un projet de recherche à l’interface entre la biologie et la chimie et a été consacrée à l’étude de l’influence des propriétés physico-chimiques de biocéramiques de phosphate de calcium sur leur comportement biologique in vitro.L’exploration des processus d’interaction entre matériaux et cellules reste une problématique scientifique de premier plan tant d’un point de vue fondamental qu’appliqué pour la mise au point de biomatériaux performants. L’objectif final est d’optimiser l’efficacité thérapeutique des céramiques phosphocalciques comme matériaux de substitution pour la régénération osseuse. La première partie de la thèse est une revue bibliographique générale présentant la problématique actuelle abordée en lien avec les besoins cliniques et les limitations des études actuelles. Les connaissances sur la biologie du tissu osseux sain ainsi que les aspects de régulation du processus de remodelage osseux ont également été abordés dans ce chapitre. Ce chapitre se termine par une synthèse bibliographique sur les biomatériaux et la régénération osseuse. Le chapitre 2 est relatif à la synthèse puis à la caractérisation physico-chimique des matériaux céramiques. Des céramiques de trois compositions chimiques : HA (hydroxyapatite : Ca10(PO4)6(OH)2 , SiHA (hydroxyapatite silicatée : Ca10(PO4)5,6(SiO4)0,42(OH)1,6 et CHA (hydroxyapatite carbonatée : Ca9,5(PO4)5,5(CO3)0,48(OH)1,08(CO3)0,23 , chacune avec deux microstructures différentes : dense ou poreuse, ont été élaborées et rigoureusement caractérisées (porosité, topographie de surface, mouillabilité, potentiel zêta, taille des grains, distribution et taille des pores, surface spécifique). Le chapitre 3 décrit l’approche expérimentale employée pour l’évaluation biologique des interactions matériaux/cellules explorées dans ce travail. Les analyses biologiques ont été réalisées avec deux lignées cellulaires différentes. La lignée cellulaire pré-ostéoblastique MC3T3-E1 et la lignée cellulaire de monocytes/macrophages, précurseurs des ostéoclastes RAW 264.7, (très importantes pour les aspects osseux, mais moins souvent explorées que les lignées ostéoblastiques dans la littérature). Enfin, le chapitre 4 reporte et commente les résultats biologiques obtenus dans ce travail. Tous les biomatériaux évalués dans cette étude sont biocompatibles, néanmoins, le biomatériau poreux CHA s’est avéré le plus prometteur des six variantes de biomatériaux testés. / This transdisciplinary thesis, carried out in collaboration with the SPCTS laboratory (sciences of ceramic processes and surface treatment) and EA 3842 (Cellular homoeostasis and pathologies) of the University of Limoges, is a research project at the interface between biology and chemistry and was devoted to the study of the influence of the physico-chemical properties of calcium phosphate bioceramics on their biological behavior in vitro.The exploration of the processes of interaction between materials and cells remains a major scientific issue, both from a fundamental and applied point of view for the development of highperformance biomaterials. The ultimate objective is to optimize the therapeutic efficiency of phosphocalcic ceramics as substitute materials for bone regeneration.The first part of the thesis is a general bibliographic review presenting the current issues tackled with the clinical needs and limitations of current studies. Knowledge of the biology of healthy bone tissue as well as the regulatory aspects of the bone remodeling process was also discussed in this chapter. It includes also a bibliographic overview of biomaterials and bone regeneration.Chapter 2 relates to the synthesis and the physico-chemical characterization of ceramic materials. HA (hydroxyapatite: Ca10 (PO4) 6 (OH) 2, SiHA (silicated hydroxyapatite: Ca10 (PO4) 5.6 (SiO4) 0.42 (OH) 1.6 and CHA (carbonated hydroxyapatite: Ca9.5 (PO4) 5.5 (CO3) 0.48 (OH) 1.08 (CO3) 0.23, ceramics each with two different microstructures : dense or porous, have been elaborated and thoroughly characterized (porosity, surface topography, wettability, zeta potential, grain size, pore size and distribution, specific surface area). Chapter 3 describes the experimental approach used for the biological evaluation of the interactions between materials and cells. Biological analyzes were performed with two different cell lines. The pre-osteoblastic MC3T3-E1 cell line and the RAW 264.7cell line of monocytes / macrophages, precursors of the steoclasts, (very important for the bone aspects, but less often explored than the osteoblastic lines in the literature). Finally, Chapter 4 reports and comments on the biological results obtained in this work. All biomaterials evaluated are biocompatible, nevertheless, the porous CHA biomaterial was the most promising of the six variants of biomaterials tested.
99

Traitement aveugle et semi-aveugle du signal pour les télécommunications et le génie biomédical

Zarzoso, Vicente 09 November 2009 (has links) (PDF)
Ce rapport résume mes activités de recherche depuis l'obtention de mon doctorat. Je me suis penché sur le problème fondamental de l'estimation de signaux sources à partir de l'observation de mesures corrompues de ces signaux, dans des scénarios où les données mesurées peuvent être considérées comme une transformation linéaire inconnue des sources. Deux problèmes classiques de ce type sont la déconvolution ou égalisation de canaux introduisant des distorsions linéaires, et la séparation de sources dans des mélanges linéaires. L'approche dite aveugle essaie d'exploiter un moindre nombre d'hypothèses sur le problème à résoudre : celles-ci se réduisent typiquement à l'indépendance statistique des sources et l'inversibilité du canal ou de la matrice de mélange caractérisant le milieu de propagation. Malgré les avantages qui ont suscité l'intérêt pour ces techniques depuis les années soixante-dix, les critères aveugles présentent aussi quelques inconvénients importants, tels que l'existence d'ambiguïtés dans l'estimation, la présence d'extrema locaux associés à des solutions parasites, et un coût de calcul élevé souvent lié à une convergence lente. Ma recherche s'est consacrée à la conception de nouvelles techniques d'estimation de signal visant à pallier aux inconvénients de l'approche aveugle et donc à améliorer ses performances. Une attention particulière a été portée sur deux applications dans les télécommunications et le génie biomédical : l'égalisation et la séparation de sources dans des canaux de communications numériques, et l'extraction de l'activité auriculaire à partir des enregistrements de surface chez les patients souffrant de fibrillation auriculaire. La plupart des techniques proposées peuvent être considérées comme étant semi-aveugles, dans le sens où elles visent à exploiter des informations a priori sur le problème étudié autres que l'indépendance des sources ; par exemple, l'existence de symboles pilotes dans les systèmes de communications ou des propriétés spécifiques de la source atriale dans la fibrillation auriculaire. Dans les télécommunications, les approches que j'ai explorées incluent des solutions algébriques aux fonctions de contraste basées sur la modulation numérique, la combinaison de contrastes aveugles et supervisés dans des critères semi-aveugles, et une technique d'optimisation itérative basée sur un pas d'adaptation calculé algébriquement. Nos efforts visant à extraire le signal atrial dans des enregistrements de fibrillation auriculaire nous ont permis non seulement de dégager de nouvelles fonctions de contraste basées sur les statistiques de second ordre et d'ordre élevé incorporant l'information a priori sur les statistiques des sources, mais aussi d'aboutir à de nouveaux résultats d'impact clinique et physiologique sur ce trouble cardiaque encore mal compris. Ce rapport se conclut en proposant quelques perspectives pour la continuation de ces travaux. Ces recherches ont été menées en collaboration avec un nombre de collègues en France et à l'étranger, et ont également compris le co-encadrement de plusieurs doctorants. Les contributions qui en ont découlé ont donné lieu à plus de soixante publications dans des journaux, des conférences et des ouvrages collectifs à caractère international. Quelques-unes de ces publications sont jointes à ce document.
100

Phytochemical investigation of Acronychia species using NMR and LC-MS based dereplication and metabolomics approaches / Etude phytochimique d’espèces du genre Acronychia en utilisant des approches de déréplication et métabolomique basées sur des techniques RMN et SM

Kouloura, Eirini 28 November 2014 (has links)
Les plantes médicinales constituent une source inexhaustible de composés (des produits naturels - PN) utilisé en médecine pour la prévention et le traitement de diverses maladies. L'introduction de nouvelles technologies et méthodes dans le domaine de la chimie des produits naturels a permis le développement de méthodes ‘high throughput’ pour la détermination de la composition chimique des extraits de plantes, l'évaluation de leurs propriétés et l'exploration de leur potentiel en tant que candidats médicaments. Dernièrement, la métabolomique, une approche intégrée incorporant les avantages des technologies d'analyse moderne et la puissance de la bioinformatique s’est révélé un outil efficace dans la biologie des systèmes. En particulier, l'application de la métabolomique pour la découverte de nouveaux composés bioactifs constitue un domaine émergent dans la chimie des produits naturels. Dans ce contexte, le genre Acronychia de la famille des Rutaceae a été choisi sur la base de son usage en médecine traditionnelle pour ses propriétés antimicrobienne, antipyrétique, antispasmodique et anti-inflammatoire. Nombre de méthodes chromatographiques modernes, spectrométriques et spectroscopiques sont utilisées pour l'exploration de leur contenu en métabolites suivant trois axes principaux constituant les trois chapitres de cette thèse. En bref, le premier chapitre décrit l’étude phytochimique d’Acronychia pedunculata, l’identification des métabolites secondaires contenus dans cette espèce et l'évaluation de leurs propriétés biologiques. Le deuxième chapitre vise au développement de méthodes analytiques pour l'identification des dimères d’acétophénones (marqueurs chimiotaxonomiques du genre) et aux stratégies utilisées pour la déréplication de ces différents extraits et la caractérisation chimique des composés par UHPLC-HRMSn. Le troisième chapitre se concentre sur l'application de méthodologies métabolomique (RMN et LC-MS) pour l'analyse comparative (entre les différentes espèces, origines, organes), pour des études chimiotaxonomiques (entre les espèces) et pour la corrélation des composés contenus avec une activité pharmacologique. / Medicinal plants constitute an unfailing source of compounds (natural products – NPs) utilised in medicine for the prevention and treatment of various deceases. The introduction of new technologies and methods in the field of natural products chemistry enabled the development of high throughput methodologies for the chemical composition determination of plant extracts, evaluation of their properties and the exploration of their potentials as drug candidates. Lately, metabolomics, an integrated approach incorporating the advantages of modern analytical technologies and the power of bioinformatics has been proven an efficient tool in systems biology. In particular, the application of metabolomics for the discovery of new bioactive compounds constitutes an emerging field in natural products chemistry. In this context, Acronychia genus of Rutaceae family was selected based on its well-known traditional use as antimicrobial, antipyretic, antispasmodic and anti-inflammatory therapeutic agent. Modern chromatographic, spectrometric and spectroscopic methods were utilised for the exploration of their metabolite content following three basic axes constituting the three chapters of this thesis. Briefly, the first chapter describes the phytochemical investigation of Acronychia pedunculata, the identification of secondary metabolites contained in this species and evaluation of their biological properties. The second chapter refers to the development of analytical methods for the identification of acetophenones (chemotaxonomic markers of the genus) and to the dereplication strategies for the chemical characterisation of extracts by UHPLC-HRMSn. The third chapter focuses on the application of metabolomic methodologies (LC-MS & NMR) for comparative analysis (between different species, origins, organs), chemotaxonomic studies (between species) and compound-activity correlations.

Page generated in 0.1244 seconds