• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 524
  • 233
  • 59
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 814
  • 345
  • 343
  • 190
  • 151
  • 103
  • 95
  • 85
  • 84
  • 83
  • 70
  • 65
  • 59
  • 58
  • 57
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
121

Algorithmes d'accélération générique pour les méthodes d'optimisation en apprentissage statistique / Generic acceleration schemes for gradient-based optimization in machine learning

Lin, Hongzhou 16 November 2017 (has links)
Les problèmes d’optimisation apparaissent naturellement pendant l’entraine-ment de modèles d’apprentissage supervises. Un exemple typique est le problème deminimisation du risque empirique (ERM), qui vise a trouver un estimateur en mini-misant le risque sur un ensemble de données. Le principal défi consiste a concevoirdes algorithmes d’optimisation efficaces permettant de traiter un grand nombre dedonnées dans des espaces de grande dimension. Dans ce cadre, les méthodes classiques d’optimisation, telles que l’algorithme de descente de gradient et sa varianteaccélérée, sont couteux en termes de calcul car elles nécessitent de passer a traverstoutes les données a chaque évaluation du gradient. Ce défaut motive le développement de la classe des algorithmes incrémentaux qui effectuent des mises a jour avecdes gradients incrémentaux. Ces algorithmes réduisent le cout de calcul par itération, entrainant une amélioration significative du temps de calcul par rapport auxméthodes classiques. Une question naturelle se pose : serait-il possible d’accélérerdavantage ces méthodes incrémentales ? Nous donnons ici une réponse positive, enintroduisant plusieurs schémas d’accélération génériques.Dans le chapitre 2, nous développons une variante proximale de l’algorithmeFinito/MISO, qui est une méthode incrémentale initialement conçue pour des problèmes lisses et fortement convexes. Nous introduisons une étape proximale dans lamise a jour de l’algorithme pour prendre en compte la pénalité de régularisation quiest potentiellement non lisse. L’algorithme obtenu admet un taux de convergencesimilaire a l’algorithme Finito/MISO original.Dans le chapitre 3, nous introduisons un schéma d’accélération générique, appele Catalyst, qui s’applique a une grande classe de méthodes d’optimisation, dansle cadre d’optimisations convexes. La caractéristique générique de notre schémapermet l’utilisateur de sélectionner leur méthode préférée la plus adaptée aux problemes. Nous montrons que en appliquant Catalyst, nous obtenons un taux deconvergence accélère. Plus important, ce taux coïncide avec le taux optimale desméthodes incrémentales a un facteur logarithmique pres dans l’analyse du pire descas. Ainsi, notre approche est non seulement générique mais aussi presque optimale du point de vue théorique. Nous montrons ensuite que l’accélération est bienprésentée en pratique, surtout pour des problèmes mal conditionnes.Dans le chapitre 4, nous présentons une seconde approche générique qui appliqueles principes Quasi-Newton pour accélérer les méthodes de premier ordre, appeléeQNing. Le schéma s’applique a la même classe de méthodes que Catalyst. En outre,il admet une simple interprétation comme une combinaison de l’algorithme L-BFGSet de la régularisation Moreau-Yosida. A notre connaissance, QNing est le premieralgorithme de type Quasi-Newton compatible avec les objectifs composites et lastructure de somme finie.Nous concluons cette thèse en proposant une extension de l’algorithme Catalyst au cas non convexe. Il s’agit d’un travail en collaboration avec Dr. CourtneyPaquette et Pr. Dmitriy Drusvyatskiy, de l’Université de Washington, et mes encadrants de thèse. Le point fort de cette approche réside dans sa capacité a s’adapterautomatiquement a la convexité. En effet, aucune information sur la convexité de lafonction n’est nécessaire avant de lancer l’algorithme. Lorsque l’objectif est convexe,l’approche proposée présente les mêmes taux de convergence que l’algorithme Catalyst convexe, entrainant une accélération. Lorsque l’objectif est non-convexe, l’algorithme converge vers les points stationnaires avec le meilleur taux de convergencepour les méthodes de premier ordre. Des résultats expérimentaux prometteurs sontobserves en appliquant notre méthode a des problèmes de factorisation de matriceparcimonieuse et a l’entrainement de modèles de réseaux de neurones. / Optimization problems arise naturally in machine learning for supervised problems. A typical example is the empirical risk minimization (ERM) formulation, which aims to find the best a posteriori estimator minimizing the regularized risk on a given dataset. The current challenge is to design efficient optimization algorithms that are able to handle large amounts of data in high-dimensional feature spaces. Classical optimization methods such as the gradient descent algorithm and its accelerated variants are computationally expensive under this setting, because they require to pass through the entire dataset at each evaluation of the gradient. This was the motivation for the recent development of incremental algorithms. By loading a single data point (or a minibatch) for each update, incremental algorithms reduce the computational cost per-iteration, yielding a significant improvement compared to classical methods, both in theory and in practice. A natural question arises: is it possible to further accelerate these incremental methods? We provide a positive answer by introducing several generic acceleration schemes for first-order optimization methods, which is the main contribution of this manuscript. In chapter 2, we develop a proximal variant of the Finito/MISO algorithm, which is an incremental method originally designed for smooth strongly convex problems. In order to deal with the non-smooth regularization penalty, we modify the update by introducing an additional proximal step. The resulting algorithm enjoys a similar linear convergence rate as the original algorithm, when the problem is strongly convex. In chapter 3, we introduce a generic acceleration scheme, called Catalyst, for accelerating gradient-based optimization methods in the sense of Nesterov. Our approach applies to a large class of algorithms, including gradient descent, block coordinate descent, incremental algorithms such as SAG, SAGA, SDCA, SVRG, Finito/MISO, and their proximal variants. For all of these methods, we provide acceleration and explicit support for non-strongly convex objectives. The Catalyst algorithm can be viewed as an inexact accelerated proximal point algorithm, applying a given optimization method to approximately compute the proximal operator at each iteration. The key for achieving acceleration is to appropriately choose an inexactness criteria and control the required computational effort. We provide a global complexity analysis and show that acceleration is useful in practice. In chapter 4, we present another generic approach called QNing, which applies Quasi-Newton principles to accelerate gradient-based optimization methods. The algorithm is a combination of inexact L-BFGS algorithm and the Moreau-Yosida regularization, which applies to the same class of functions as Catalyst. To the best of our knowledge, QNing is the first Quasi-Newton type algorithm compatible with both composite objectives and the finite sum setting. We provide extensive experiments showing that QNing gives significant improvement over competing methods in large-scale machine learning problems. We conclude the thesis by extending the Catalyst algorithm into the nonconvex setting. This is a joint work with Courtney Paquette and Dmitriy Drusvyatskiy, from University of Washington, and my PhD advisors. The strength of the approach lies in the ability of the automatic adaptation to convexity, meaning that no information about the convexity of the objective function is required before running the algorithm. When the objective is convex, the proposed approach enjoys the same convergence result as the convex Catalyst algorithm, leading to acceleration. When the objective is nonconvex, it achieves the best known convergence rate to stationary points for first-order methods. Promising experimental results have been observed when applying to sparse matrix factorization problems and neural network models.
122

Etude de la vulnérabilité de structures cylindriques soumises à une forte explosion externe / Study of the vulnerability of cylindrical structures subjected to strong external explosion

Duong, Duy-Hung 23 March 2012 (has links)
Ce travail s'inscrit dans le contexte de l'évaluation et de la prévention des risques d'effets dominos suite à une explosion sur un site industriel. Il s'intéresse plus précisément à la vulnérabilité de réservoirs de stockage soumis à une onde de souffle. Le mode d'explosion étudié est celui de la détonation gazeuse. L’objectif est double. Il consiste d'une part à caractériser le chargement auquel est soumis le réservoir et d'autre part à prédire la réponse du réservoir à ce chargement. Des expérimentations ont été réalisées à échelle réduite, pour trois géométries caractéristiques de réservoirs, satisfaisant des conditions de similitudes énergétiques et mécaniques. Des essais sur maquettes de réservoirs rigides ont permis de caractériser le chargement issu d'une détonation : répartition spatio-temporelle de la surpression et de l’impulsion et détermination de coefficients de réflexion. Des essais sur maquettes métalliques déformables ont permis de déterminer le niveau de chargement nécessaire pour endommager la structure par flambage. Une approche semi-analytique du flambage dynamique basée sur une modélisation simplifiée du chargement de surpression de type Friedlander associée à un modèle de coque élastique surbaissée de Donnell et à la croissance d'imperfections géométriques jusqu'à une taille critique a été développée. Son application permet la construction des courbes critiques de flambage des réservoirs métalliques dans des diagrammes pression-impulsion. La confrontation entre les résultats expérimentaux et les prédictions numériques souligne l'intérêt et la pertinence de la démarche proposée. / This work is a contribution to the assessment and prevention of potential domino effects caused by an explosion in an industrial area. It focuses specifically on the vulnerability of storage tanks subjected to a blast wave. Within this context, we investigate the effects of gaseous detonation. The objective is twofold: on one hand, to characterize the blast loading and, on the other, to predict the structural response. Three representative atmospheric chemical tanks were selected. Experiments were conducted at small scale satisfying Hopkinson-Cranz and structural scaling laws. A first campaign was performed on rigid instrumented cylinders to quantify the loading in terms of time and space pressure distribution. A second campaign was performed on flexible cylinders to quantify the structural response in terms of dynamic buckling damage. Simplified semi-analytical models were developed to provide damage predictions. They are based on a Friedlander pressure-time history pulse description, shallow-shell (Donnell's) equations and critical shape imperfection amplification thresholds. These models are used to construct pressure-impulse buckling damage diagrams for atmospheric tanks subjected to blast loading. The comparison between experimental results and numerical predictions highlights the interest and the relevance of the proposed approach.
123

Spectropolarimétrie stellaire UV et visible depuis l'espace / Stellar UV and visible spectropolarimetry from space

Pertenais, Martin 14 October 2016 (has links)
Ces dernières décennies, des champs magnétiques ont été détectés dans quasiment tous les types d'étoiles. Ces découvertes ont donné lieu à des études innovantes sur la cartographie des champs magnétiques et leur impact sur l'environnement stellaire. Pour aller encore plus loin il est nécessaire d'allier la spectroscopie à la polarimétrie, dans l'UV et le visible. L'UV permet d'étudier les vents stellaires et l'environnement circumstellaire, tandis que le visible permet d'étudier la surface de l'étoile. La spectropolarimétrie UV+visible permet ainsi d'étudier les magnétosphères dans leur globalité. Ceci doit être fait sur au moins une période complète de rotation de l'étoile. Pour cela, il faut aller dans l'espace, à la fois pour atteindre le domaine UV et pour obtenir des observations ininterrompues sur une période de rotation stellaire complète. Le consortium international UVMag a été créé en 2010 pour discuter, étudier et promouvoir une mission spatiale pour l'étude des magnétosphères stellaires via de la spectropolarimétrie spatiale dans les domaines UV et visible simultanés. D'un point de vue technique, la spectroscopie spatiale pure, y compris dans l'UV, a déjà été utilisée avec succès, par exemple sur IUE, et serait très performante avec les détecteurs et les technologies disponibles aujourd'hui. Par contre, le spectropolarimètre UV+visible est la partie instrumentale la plus ambitieuse pour une future mission spatiale. En effet, alors que les français (en particulier le LESIA et l'IRAP) sont les spécialistes de ce type de spectropolarimètres dans le visible pour des télescopes au sol (comme ESPaDOnS au CFHT ou Narval au TBL), aucun instrument de ce type n'a encore été embarqué sur une mission spatiale, encore moins en UV. La première partie de ma thèse consistait à concevoir le design optique du module polarimétrique pour le spectropolarimètre de la mission Arago, dans le cadre du consortium UVMag. J'ai donc étudié et recherché différents concepts innovants qui pourraient s'adapter aux contraintes très particulières de cet instrument. En effet, les spécifications imposent l'utilisation d'un unique polarimètre pour tout le domaine spectral [119-888] nm. Les contraintes du spatial s'ajoutent à cela avec un besoin de compacité, légèreté et robustesse. Je me suis concentré sur 2 concepts de polarimètre différents, un premier basé sur le module de polarisation de l'instrument X-Shooter avec une modulation temporelle de la polarisation et une achromatisation des efficacités d'extraction des paramètres de Stokes et un second basé sur une modulation spatiale de la polarisation, permettant d'obtenir un polarimètre statique. J'ai adapté ces 2 concepts aux spécificités d'Arago et intégré ces 2 systèmes au design optique global de l'instrument. Le premier concept de modulation temporelle a été choisi pour l'instrument d'Arago qui a été soumis à l'ESA dans le cadre des appels Cosmic Vision M4 et M5. Dans un deuxième temps, l'objectif de ma thèse était de prouver la faisabilité des concepts évoqués plus haut. / Over the last few decades, magnetic fields have been detected in almost all kinds of stars. This led to innovative studies on the mapping of magnetic fields and their impact on the circumstellar environment. To go further, we need to use spectroscopy and polarimetry together, in the UV and visible range. The UV domain is used to study the stellar wind and stellar environment, whereas the visible range allows to study the surface of the star. UV+visible spectropolarimetry enables the global study of magnetospheres. This has to be done over at least one rotation period of the star. Therefore, we need to go to space in order to see the UV range and to obtain uninterrupted observations on a complete stellar rotation period. The international consortium UVMag has been created in 2010 to discuss, study and promote a space mission for the study of stellar magnetospheres using simultaneous UV and visible space spectropolarimetry. From the technical point of view, pure spectroscopy in space, both in the UV and visible ranges, has already been successfully used, for example on IUE, and would be very efficient with current detectors and technologies. On the other hand, the UV+visible spectropolarimeter is the most ambitious instrumental challenge for a future space mission. Indeed, until now, no such optical spectropolarimeter has flown on a space mission, despite the fact that the French (particularly the LESIA and IRAP laboratories) are the specialists for such instruments (such as ESPaDOnS at CFHT or Narval at TBL). The first part of my thesis consisted in elaborating the optical design of the polarimetric module for the spectropolarimeter of the space mission Arago, in the framework of the UVMag consortium. I studied various innovative concepts that could be adapted to the specific constraints of this instrument. The specifications indeed show the need for a unique polarimeter covering the complete spectral range [119-888] nm. Moreover, the usual compacity, lightness and robustness constraints of a space instrument are added to these specifications. I focused my work on 2 different polarimeter concepts, a first one based on the polarimetric module of the X-shooter instrument using a temporal modulation and an achromatization of the extraction efficiencies of the Stokes parameters, and a second one based on spatial modulation of the polarization, offering a static polarimeter. I adapted these 2 concepts to the specific constraints of Arago and integrated them to the complete optical design of the instrument. The first concept, using temporal modulation, has been chosen as the baseline for the instrument proposed to ESA for the Cosmic Vision calls M4 and M5. The goal was then to demonstrate the feasibility of the two concepts.
124

Analyse multi-échelle d'un écoulement réactif gaz-particule en lit fluidisé dense / Multiscale analysis of a reactive gas-particle dense fluidized bed

Moula, Guillaume 29 June 2012 (has links)
L’étude multi-échelle d’un lit fluidisé gaz-particule est réalisée afin de comprendre les raisons de la mauvaise prédiction de la combustion dans ce type de réacteur. Dans un premier temps, des simulations numériques directes à l’échelle de quelques particules montrent le couplage entre la fraction volumique de particules et la fraction massique des espèces dans l’écoulement. Ensuite, une analyse des équations flitrées en LES montre qu’un terme de corrélation fluide-particule apparaît lorsque l’on explicite le taux de réaction gaz-particules. On comprend alors que si ce couplage n’est pas pris en compte correctement dans les simulations aux grandes échelles, le résultat ne peut pas être bon. Des simulations numériques à l’échelle du réacteur sont alors réalisées avec différents maillages pour tenter de mettre en évidence les effets de sous-maille liés à ce couplage à l’échelle des petites structures solides dans l’écoulement. / The multiscale study of a reactive gas-solid fluidized bed is performed to understand the reason of the bad prediction of the combustion in such a reactor. First, Direct Numerical Simulations at the particle array lenght scale show the dependency of the species mass fraction released in the gas phase on the solid volume fraction. Then, the analysis of the filtered continuity equations for the eulerian granular model highlights that a fluid-particle coupling term appears when expliciting the heterogeneous reaction rate. Therefore, we understand the need to take this coupling into account in large scales simulations to obtain good results. Computations at the lab-scale reactor are eventually performed using different grid refinements in order to try to highlight the subgrid terms due to this coupling at the small solid structure scale.
125

Analyse multi-échelle du comportement hygro-mécanique des fibres de lin / Multi-scale analysis of the hygro-mechanical behaviour of flax fibres

Roudier, Agnès 04 April 2012 (has links)
Les fibres végétales utilisées comme renfort dans les matériaux composites présentent des propriétés mécaniques spécifiques concurrentielles par rapport à celles des fibres de verre. De plus, elles ont l'avantage d'être renouvelables et recyclables. Toutefois, leur principal inconvénient est leur sensibilité à l'humidité, ce qui a pour conséquence d'induire une baisse des propriétés mécaniques ainsi d'une décohésion de l'interface fibre/matrice. L'objectif principal de cette thèse est d'étudier l'influence de l'humidité sur le comportement hygro-mécanique de fibres de lin. La première partie de mes travaux a été consacrée à la caractérisation des propriétés hygroscopiques et mécaniques de la fibre et du composite. Dans la deuxième partie, deux modèles multi-échelles, l'un analytique et l'autre numérique, ont été développés pour l'estimation des propriétés hygro-mécaniques des fibres élémentaires de lin. Ils utilisent en partie pour données d'entrée, les propriétés identifiées dans la première partie. / Natural fibres used as reinforcement in composite materials present specific mechanical properties, which are comparable to glass fibres. In addition, they have the advantage of being renewable and recyclable. But, their main drawback is their inherent susceptibility to moisture expansion, which has the effect of inducing a decrease in mechanical properties, and of debonding and fracturing interface in the composite. The main aim of this thesis is to study the influence of humidity on hygro-mechanical behavior of flax fibres. The first part of my work was deal with the characterization of mechanical and hygroscopic properties of the fibre and the composite. The second part is dedicated to the development of two multiscale models, one analytical and one numerical. They have been developed for the estimation of hygro-mechanical properties of elementary flax fibres. Properties identified in the first part of the work are used as input data.
126

Machine Learning Strategies for Large-scale Taxonomies / Strategies d'apprentissage pour la classification dans les grandes taxonomies

Babbar, Rohit 17 October 2014 (has links)
À l'ère de Big Data, le développement de modèles d'apprentissage machine efficaces et évolutifs opérant sur des Tera-Octets de données est une nécessité. Dans cette thèse, nous étudions un cadre d'apprentissage machine pour la classification hiérarchique à large échelle. Cette analyse comprend l'étude des défis comme la complexité d'entraînement des modèles ainsi que leur temps de prédiction. Dans la première partie de la thèse, nous étudions la distribution des lois de puissance sous-jacente à la création des taxonomies à grande échelle. Cette étude permet de dériver des bornes sur la complexité spatiale des classifieurs hiérarchiques. L'exploitation de ce résultat permet alors le développement des modèles efficaces pour les classes distribuées selon une loi de puissance. Nous proposons également une méthode efficace pour la sélection de modèles pour des classifieurs multi-classes de type séparateurs à vaste marge ou de la régression logistique. Dans une deuxième partie, nous étudions le problème de la classification hiérarichique contre la classification plate d'un point de vue théorique. Nous dérivons une borne sur l'erreur de généralisation qui permet de définir les cas où la classification hiérarchique serait plus avantageux que la classification plate. Nous exploitons en outre les bornes développées pour proposer deux méthodes permettant adapter une taxonomie donnée de catégories à une taxonomies de sorties qui permet d'atteindre une meilleure performance de test. / In the era of Big Data, we need efficient and scalable machine learning algorithms which can perform automatic classification of Tera-Bytes of data. In this thesis, we study the machine learning challenges for classification in large-scale taxonomies. These challenges include computational complexity of training and prediction and the performance on unseen data. In the first part of the thesis, we study the underlying power-law distribution in large-scale taxonomies. This analysis then motivates the derivation of bounds on space complexity of hierarchical classifiers. Exploiting the study of this distribution further, we then design classification scheme which leads to better accuracy on large-scale power-law distributed categories. We also propose an efficient method for model-selection when training multi-class version of classifiers such as Support Vector Machine and Logistic Regression. Finally, we address another key model selection problem in large scale classification concerning the choice between flat versus hierarchical classification from a learning theoretic aspect. The presented generalization error analysis provides an explanation to empirical findings in many recent studies in large-scale hierarchical classification. We further exploit the developed bounds to propose two methods for adapting the given taxonomy of categories to output taxonomies which yield better test accuracy when used in a top-down setup.
127

Apport des représentations modales au traitement des signaux cardio-respiratoires et posturaux / Modal representations of physiological signals : application to cardio-respiratory and postural signals

Franco, Céline 13 March 2014 (has links)
Le développement de systèmes de mesures et de suivi non-invasifs, fiables, robustes et utilisablesen autonomie est de première importance pour le confort et l’implication de la personne prise en charge dansson parcours de santé. En collaboration avec la société IDS SA, ce travail a été initié et motivé par la volontéde développer des méthodes de traitement et d’analyse dédiées à l’exploration fonctionnelle de mesures phy-siologiques non-invasives d’une part, et le développement de solutions pour la santé et l’autonomie, d’autre part.Les aspects fondamentaux de ce travail doctoral ont pour objectifs la mise au point et la validation de méthodesde décomposition modale pour : (1) l’extraction et la reconstruction des composantes cardiaques d’un signalpléthysmographique et (2) l’estimation d’un indice de complexité témoignant de modifications de stratégiesde contrôle postural. Il est attendu que ces méthodes soient : (1) locales pour gérer les non-stationnarités, (2)lisibles pour permettre l’identification des composantes et (3) adaptatives au sens d’un paramétrage a minima.`A cette fin, la connaissance du contexte physiologique et des modèles spectraux attenants sont employés toutautant comme un guide dans le choix et l’utilisation qu’une grille de lecture dans l’exploitation des méthodesengagées.Dans la première partie de ce travail, à travers le développement d’un banc de test sur signaux simulés, nousavons démontré la supériorité d’une variante de la décomposition modale empirique en comparaison à sa formeoriginale. Par la suite, nous avons établi l’utilisabilité, avec des hypothèses a minima, d’une représentationmodale récente, la transformée par Synchrosqueezing (SQT).Dans la seconde partie de ce travail, nous avons mis au point un indice de complexité en échelles basé sur la SQTet dont le fenêtrage temporel est entièrement déterminé par la dynamique spectrale de la représentation. Aupréalable, nous avons mis en place un protocole expérimental pour identifier les limites des méthodes existanteset légitimer une approche spectrale de l’entropie. Notre indice a été validé sur signaux simulés et testé sur si-gnaux réels où il a pu mettre en évidence le phénomène de repondération sensorielle à la suite d’une perturbation.Les aspects appliqués de ce travail doctoral, quant à eux, s’articulent autour du développement de solutionsdédiées : (1) à la prévention du risque de chute et (2) au suivi des activités de la vie quotidienne.Dans cette dernière partie, nous nous sommes intéressés : (1) à l’évaluation des troubles latéralisés de l’équilibre,(2) à l’évaluation de la prise en charge en charge de troubles posturaux, (3) à la conception et la validationd’un outil de mesure et de rééducation des capacités de contrôle postural intégré dans un smartphone, et (4) àla détection de dérives comportementales par le développement d’un indice de persévération et son applicationau suivi du rythme nycthéméral des activités de la vie quotidienne. / L'auteur n'a pas fourni de résumé en anglais
128

Combination of GNSS and SLR measurements : contribution to the realization of the terrestrial reference frame / Combinaison des données GNSS et SLR : contribution à la réalisation du repère de référence terrestre

Bruni, Sara 31 May 2016 (has links)
La mise en oeuvre exacte et précise du repère international de référence terrestre (ITRF) est une exigence fondamentale pour le développement des Sciences du Système Terre. La réalisation du référentiel mondial, en fait, concerne directement de nombreux domaines allant de la détermination précise des orbites des satellites, à la calibration des altimètres, à l'évaluation des étalonnages absolus d'antennes satellites pour le Global Navigation Satellite System (GNSS) et la validation des corrections du vecteur du centre de masse pour les véhicules spatiaux portant à bord des rétro-réflecteurs pour la technique de télémétrie laser sur satellite (SLR). En conséquence, toutes les études portant sur les mouvements de la surface de la Terre, y compris les océans et les calottes glaciaires, dépendent étroitement de la disponibilité d'un repère de référence fiable qui est fondamental pour référencer les mesures pertinentes. La réalisation de l'ITRF doit alors être périodiquement mise à jour, afin d'intégrer des nouvelles observations et progrès dans les procédures d'analyse des données et/ou des méthodes de combinaison. Toutes les nouvelles stratégies de calcul doivent viser l'amélioration de la réalisation des paramètres physiques du repère, à savoir l'origine et l'échelle, sur lesquels se fondent de façon critique un grand nombre d'études scientifiques et d'applications civiles. Ce travail se concentre sur le potentiel de combiner les observations GNSS et SLR par leur liens à bord de satellites GPS / GLONASS. En fait, les satellites GNSS équipés de rétro-réflecteurs peuvent être observés par les stations SLR, ce qui permet de déterminer les orbites des satellites à travers les deux signaux : optiques et à micro-ondes. En principe, la connexion inter-technique si réalisée pourrait être exploitée pour le calcul de l'ITRF en place des liens terrestres actuellement utilisés. Ces derniers sont connus pour être aujourd'hui un facteur limitant de la précision du repère en raison de leur distribution inhomogène et de leurs divergences avec les estimations de la géodésie spatiale en conséquence des erreurs systématiques dans les observations. Dans cette étude, la force du lien alternatif en orbite a été soigneusement analysée afin d'évaluer les performances de l'approche de combinaison sélectionnée dans les conditions opérationnelles disponibles. L'investigation porte sur la caractérisation de la précision, de la fiabilité et de la pertinence des paramètres combinés du repère de référence. / The accurate and precise implementation of the International Terrestrial Reference Frame (ITRF) is a fundamental requirement for the development of Earth System Sciences. The actual realization of the reference frame, in fact, directly impacts a number of different tasks ranging from precise satellite orbit determination to altimeter calibration, satellite antenna offset assessment for Global Navigation Satellite System (GNSS) and validation of center of mass corrections for spacecrafts carrying on board retro-reflectors for Satellite Laser Ranging (SLR). As a consequence, all the studies investigating motions of the Earth’s surface, including oceans and ice-sheets, strictly depend on the availability of a reliable TRF that is fundamental for geo-referencing the relevant measurements. ITRF realizations must then be periodically updated, in order to account for newly acquired observations and for upgrades in data analysis procedures and/or combination methods. Any innovative computation strategy should ameliorate the realization of the frame physical parameters, namely the origin and the scale, upon which a number of scientific applications critically rely. This work addresses the potential of combining GNSS and SLR observations via their co-location on board GPS/GLONASS satellites. GNSS vehicles equipped with retro-reflector arrays can be tracked by SLR ground stations, which allows determining the spacecraft orbits by means of both optical and microwave signals. In principle, the inter-technique connection so achieved could be exploited for the computation of the ITRF in place of terrestrial ties. These lasts are known to be currently a limiting factor of the frame accuracy because of their inhomogeneous distribution and of their discrepancies with space geodesy estimates due to technique systematic errors. In this study, the strength of the alternative link in orbit has been thoroughly investigated in order to evaluate the performances of the selected space tie approach under the available operational conditions. The analysis focuses on the characterization of the precision, the accuracy and the pertinence of the combined frame parameters.
129

Conception et validation d’un outil de mesure du fonctionnement des personnes ayant un trouble de personnalité limite / Development and validation of a measurement tool on functioning of persons with a borderline personality disorder

Desrosiers, Julie January 2018 (has links)
Introduction : Le trouble de personnalité limite (TPL) entraîne des conséquences majeures sur le quotidien des personnes qui sont affectées par celui-ci. Une évaluation rigoureuse et fiable du fonctionnement au quotidien des personnes ayant un TPL est essentielle afin d’orienter adéquatement les services de réadaptation. Objectifs : Les objectifs de cette thèse sont de : 1) concevoir un outil de mesure du fonctionnement des personnes ayant un TPL ; 2) valider cet outil de mesure, en vérifiant sa cohérence interne, sa fidélité test-retest et sa validité de construit convergente. Méthode : La conception des dimensions du questionnaire et des échelles de mesure a été faite par une recension des écrits et des consultations auprès de 42 experts (personnes avec un TPL, cliniciens et chercheurs) à l’aide de différentes méthodes (groupes de discussion, méthode d’enquête Delphi). Un prétest qualitatif a été réalisé auprès de huit personnes présentant un TPL. Pour la fidélité test-retest, le nouveau questionnaire a été administré à deux reprises (intervalle de deux semaines), auprès de 36 adultes ayant un TPL. La validité de construit convergente a été obtenue en comparant les scores issus du questionnaire à ceux du World Health Organisation Disability Assessment Schedule (WHODAS 2.0) et de l’Échelle d’évaluation globale du fonctionnement (EGF). Résultats : Le questionnaire autoadministré FAB (Fonctionnement Au quotidien pour le trouble de personnalité Borderline) comporte 38 items divisés en quatre domaines : les activités de base au quotidien, les activités dans la collectivité, les dimensions de l’environnement social et les dimensions internes de la personne. Chaque item est évalué selon deux échelles de cotation : 1) le mode de fonctionnement de la personne et 2) le degré de difficulté perçue. La cohérence interne du FAB est élevée (alpha de Cronbach = 0,88 pour l’échelle 1 et 0,82 pour l’échelle 2). Le FAB montre une fidélité test-retest de très bonne à excellente pour l’échelle 1 (ICC=0,92, IC 95% : 0,85-0,96) et pour l’échelle 2 (ICC=0,87, IC 95% : 0,75-0,93). Les deux échelles de cotation sont modérément corrélées à l’EGF (r=0,48; p=0,003 pour l’échelle 1 et r=0,41; p=0,013, pour l’échelle 2, respectivement) et sont fortement corrélées au WHODAS 2.0 (r=-0,70; p<0,001 pour les deux échelles). Conclusion : Le FAB est un nouveau questionnaire prometteur portant sur des dimensions fonctionnelles touchées par le TPL. Il pourra être un levier de discussion entre les personnes ayant un TPL et les cliniciens pour identifier les cibles prioritaires de changement dans leur fonctionnement quotidien. / Abstract: Introduction: Borderline Personality Disorder (BPD) has a major impact on the daily lives of people affected by it. A rigorous and reliable assessment of the day-to-day functioning of people with BPD is essential to adequately guide rehabilitation services. Objectives: The main objectives of this project are to: 1) to design a tool for measuring the functioning of people with BPD; 2) validate this new measurement tool by verifying its internal consistency, test-retest reliability and convergent construct validity with tools measuring functioning. Methods: The development of the dimensions of the questionnaire and the measurement scale was done through a literature review and consultations with 42 experts (persons with BPD, clinicians and researchers) through various methods (focus groups, Delphi survey). A qualitative pre-test was carried out with eight persons with BPD in order to verify the intelligibility of the questionnaire. For test-retest reliability, the new questionnaire was administered twice, with a two-week interval, to 36 adults with BPD. The convergent construct validity was obtained by comparing the scores from the 36 participants with those obtained from the World Health Organization Disability Assessment Schedule (WHODAS 2.0) and the Global Functioning Assessment Scale (GAF), a tool completed by a psychiatrist. Results: The FAB self-administered questionnaire consists of 38 items divided into four areas: basic day-to-day activities, community-based activities, dimensions of the social environment, and internal dimensions of the person. Each item is assessed according to two rating scales: 1) the person's mode of functioning and its impact on health and well-being; 2) the degree of difficulty perceived. The FAB’s internal consistency was high (Cronbach’s alpha of 0.88 for scale 1 and 0.82 for scale 2). The FAB demonstrated very good to excellent test-retest reliability (ICC=0.92, 95% CI: 0.85-0.96). Both scales were moderately correlated with the GAF (r=0.48, p=0.003 and r=0.41, p=0.013) and strongly correlated with the WHODAS 2.0 (r=-0.70, p<0.001 for both scales). Conclusion: The FAB is a promising new questionnaire addressing functional dimensions affected by BPD. It can serve as a trigger for more in-depth discussion between persons with BPD and clinicians to identify targets for change in their daily functioning.
130

Kernel-based learning on hierarchical image representations : applications to remote sensing data classification / Apprentissage à base de noyaux sur représentations d’images arborescentes : applications à la classification des images de télédétection

Cui, Yanwei 04 July 2017 (has links)
La représentation d’image sous une forme hiérarchique a été largement utilisée dans un contexte de classification. Une telle représentation est capable de modéliser le contenu d’une image à travers une structure arborescente. Dans cette thèse, nous étudions les méthodes à noyaux qui permettent de prendre en entrée des données sous une forme structurée et de tenir compte des informations topologiques présentes dans chaque structure en concevant des noyaux structurés. Nous présentons un noyau structuré dédié aux structures telles que des arbres non ordonnés et des chemins (séquences de noeuds) équipés de caractéristiques numériques. Le noyau proposé, appelé Bag of Subpaths Kernel (BoSK), est formé en sommant les noyaux calculés sur les sous-chemins (un sac de tous les chemins et des noeuds simples) entre deux sacs. Le calcul direct de BoSK amène à une complexité quadratique par rapport à la taille de la structure (nombre de noeuds) et la quantité de données (taille de l’ensemble d’apprentissage). Nous proposons également une version rapide de notre algorithme, appelé Scalable BoSK (SBoSK), qui s’appuie sur la technique des Random Fourier Features pour projeter les données structurées dans un espace euclidien, où le produit scalaire du vecteur transformé est une approximation de BoSK. Cet algorithme bénéficie d’une complexité non plus linéaire mais quadratique par rapport aux tailles de la structure et de l’ensemble d’apprentissage, rendant ainsi le noyau adapté aux situations d’apprentissage à grande échelle. Grâce à (S)BoSK, nous sommes en mesure d’effectuer un apprentissage à partir d’informations présentes à plusieurs échelles dans les représentations hiérarchiques d’image. (S)BoSK fonctionne sur des chemins, permettant ainsi de tenir compte du contexte d’un pixel (feuille de la représentation hiérarchique) par l’intermédiaire de ses régions ancêtres à plusieurs échelles. Un tel modèle est utilisé dans la classification des images au niveau pixel. (S)BoSK fonctionne également sur les arbres, ce qui le rend capable de modéliser la composition d’un objet (racine de la représentation hiérarchique) et les relations topologiques entre ses sous-parties. Cette stratégie permet la classification des tuiles ou parties d’image. En poussant plus loin l’utilisation de (S)BoSK, nous introduisons une nouvelle approche de classification multi-source qui effectue la classification directement à partir d’une représentation hiérarchique construite à partir de deux images de la même scène prises à différentes résolutions, éventuellement selon différentes modalités. Les évaluations sur plusieurs jeux de données de télédétection disponibles dans la communauté illustrent la supériorité de (S)BoSK par rapport à l’état de l’art en termes de précision de classification, et les expériences menées sur une tâche de classification urbaine montrent la pertinence de l’approche de classification multi-source proposée. / Hierarchical image representations have been widely used in the image classification context. Such representations are capable of modeling the content of an image through a tree structure. In this thesis, we investigate kernel-based strategies that make possible taking input data in a structured form and capturing the topological patterns inside each structure through designing structured kernels. We develop a structured kernel dedicated to unordered tree and path (sequence of nodes) structures equipped with numerical features, called Bag of Subpaths Kernel (BoSK). It is formed by summing up kernels computed on subpaths (a bag of all paths and single nodes) between two bags. The direct computation of BoSK yields a quadratic complexity w.r.t. both structure size (number of nodes) and amount of data (training size). We also propose a scalable version of BoSK (SBoSK for short), using Random Fourier Features technique to map the structured data in a randomized finite-dimensional Euclidean space, where inner product of the transformed feature vector approximates BoSK. It brings down the complexity from quadratic to linear w.r.t. structure size and amount of data, making the kernel compliant with the large-scale machine-learning context. Thanks to (S)BoSK, we are able to learn from cross-scale patterns in hierarchical image representations. (S)BoSK operates on paths, thus allowing modeling the context of a pixel (leaf of the hierarchical representation) through its ancestor regions at multiple scales. Such a model is used within pixel-based image classification. (S)BoSK also works on trees, making the kernel able to capture the composition of an object (top of the hierarchical representation) and the topological relationships among its subparts. This strategy allows tile/sub-image classification. Further relying on (S)BoSK, we introduce a novel multi-source classification approach that performs classification directly from a hierarchical image representation built from two images of the same scene taken at different resolutions, possibly with different modalities. Evaluations on several publicly available remote sensing datasets illustrate the superiority of (S)BoSK compared to state-of-the-art methods in terms of classification accuracy, and experiments on an urban classification task show the effectiveness of proposed multi-source classification approach.

Page generated in 0.034 seconds