• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 949
  • 444
  • 93
  • 3
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 1536
  • 381
  • 295
  • 274
  • 226
  • 202
  • 192
  • 179
  • 153
  • 147
  • 144
  • 142
  • 142
  • 139
  • 136
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
471

Comportement mécano-fiabiliste de structures composites – approche matériaux / Reliability-mechanical behavior of composite structures - materials approach

Gauthier, Edouard 25 September 2018 (has links)
L’usage de matériaux composites est en plein essor dans le monde de l’industrie, particulièrement dans des domaines comme l’aéronautique, les transports ou la production d’énergie et ce développement amène une forte production de structures composites, notamment des pièces de grandes dimensions. La conception de ces structures en composite nécessite une connaissance approfondie du comportement mécanique du composite afin de garantir l’intégrité de la structure. Or le comportement mécanique des matériaux composites est de nature hétérogène avec une certaine variabilité sur les différents paramètres mécaniques. Cette variabilité est causée par deux principales sources : la variabilité intrinsèque au matériau due à des variations physiques au sein du composite, et la variabilité due aux défauts de mise en œuvre. La thèse, qui est présentée, s’intéresse à cette deuxième source de variabilité, à savoir la présence de défauts de mise en œuvre et son influence sur le comportement mécanique du composite. Deux défauts de mise en œuvre sont étudiés dans cette thèse, la porosité et le plissement, en suivant une analyse probabiliste. La première partie de l’étude rassemble l’ensemble de l’état de l’art sur les défauts de porosité et de plissement, ainsi que sur les analyses probabilistes dans le domaine des composites. Une deuxième partie de l’étude se consacre à la caractérisation probabiliste des défauts de porosité et de plissement en analysant la variabilité de chaque paramètre caractéristique du défaut et en la modélisant à l’aide de loi de distribution qui sont implémentées dans un code de calcul afin de modéliser numériquement la porosité observée expérimentalement. Une troisième partie de l’étude s’intéresse à l’influence des défauts de porosité et de plissement sur le comportement mécanique en quasi-statique et en fatigue. Cette étude mécanique compare les résultats d’essais expérimentaux sur un matériau sain, deux matériaux avec deux taux de porosité différents et sur deux matériaux avec un plissement de dimensions différentes, afin de pouvoir quantifier l’influence des défauts et déterminer un modèle de dégradation des propriétés mécaniques en fonction du défaut. L’étude mécanique en quasi-statique est complétée par une analyse de la variance afin de bien séparer la variabilité des propriétés mécaniques due aux défauts et celle due directement à l’essai lui-même. L’ensemble des résultats de cette étude permet donc d’identifier les deux types de défauts avec un ensemble de paramètres caractéristiques, ainsi que leur influence sur le comportement mécanique, tout en prenant en compte la variabilité observée sur les défauts et leur influence mécanique, et de modéliser numériquement l’ensemble de ces observations. / The use of composite materials increases in the world of industry, particularly in sectors such as aeronautics, transport or energy production and this development leads to a strong production of composite structures, including large dimensions. The design of these composite structures requires a thorough knowledge of the mechanical behavior of the composite to ensure the integrity of the structure. However, the mechanical behavior of composite materials is heterogeneous in nature with a certain variability on the different mechanical parameters. This variability is caused by two main sources: the intrinsic variability of the material due to physical variations within the composite, and the variability due to defects in implementation. The thesis, which is presented, focuses on this second source of variability, namely the presence of implementation defects and its influence on the mechanical behavior of the composite. Two defects of implementation are studied in this thesis, porosity and wrinkle, following a probabilistic analysis. The first part of the study brings together all the state of the art on porosity and wrinkle defects, as well as on probabilistic analyzes in the field of composites. A second part of the study is devoted to the probabilistic characterization of porosity and wrinkle defects by analyzing the variability of each characteristic parameter of the defect and modeling it using a distribution law that are implemented in a calculation code to numerically model the experimentally observed porosity. A third part of the study focuses on the influence of porosity and wrinkle defects on quasi-static and fatigue mechanical behavior. This mechanical study compares the results of experimental tests on a healthy material, two materials with two different porosity states and two materials with a wrinkle of different dimensions, in order to be able to quantify the influence of the defect and to determine a model of degradation of mechanical properties according to the defect. The quasi-static mechanical study is supplemented by an analysis of the variance in order to separate the variability of the mechanical properties due to the defect and that due directly to the test itself. All the results of this study thus make it possible to identify the two types of defects with a set of characteristic parameters, as well as their influence on the mechanical behavior, while taking into account the variability observed on the defects and their mechanical influence, and to model numerically all these observations.
472

Imagerie polarimétrique adaptée en lumière cohérente / Adapted Polarimetric Imaging with Coherent Light

Upadhyay, Debajyoti 14 February 2014 (has links)
Nous proposons dans cette thèse d’étudier une méthode d’imagerie qui s’adapte à la scène étudiée en utilisant des états polarimétriques choisis sur critères physiques pour optimiser le contraste polarimétrique en 2 zones aux propriétés polarimétriques différentes. En prenant en compte le bruit de Grenaille du détecteur, cette nouvelle technique d’imagerie à 2 canaux nommée APSCI montre un gain en contraste quantifié par la distance de Bhattacharyya pouvant atteindre un facteur 10 par rapport à l’imagerie de Mueller. D’autre part, elle utilise la totalité de l’information polarimétrique de la scène pour générer une seule image au contraste optimum ce qui la rend particulièrement performante pour distinguer deux zones aux propriétés polarimétriques légèrement différentes. La solution analytique complète de ce problème est proposée au chapitre suivant avec des illustrations associées. Le modèle proposé permet, en plus d’une interprétation physique, de quantifier les performances limites de la méthode APSCI en fonction des matrices de Mueller des 2 objets à discerner. Le chapitre suivant est consacré à l’étude des performances de cette méthode soumise au bruit optique de tavelure de cible. Les simulations numériques montrent que les performances de cette méthode en terme de contraste polarimétrique restent relativement robustes et souvent très supérieures à celles obtenues par l’imagerie de Mueller classique. Le dernier chapitre consiste à décrire l’implémentation expérimentale nécessaire à l’adaptation d’un imageur de Mueller en imageur APSCI en vue d’obtenir un imageur hybride Mueller/APSCI. La méthode APSCI nécessite de pouvoir utiliser en émission et en projection lors de la détection. / We propose in this thesis to study and imaging method which is adapted to the scene under investigation by the use of specific polarimetric excitations. The scenes under inversigation have two separate regions with different polarimetric properties. The specific fully polarized state of illumination is found by the physical criteria for oprimizing the polarimetric constrat in two aereas with different polarization properties. Taking into account the Shot noise of the detector, this new 2 channel imaging technique named APSCI, shows a gain in contrast quantified by the Bhattacharyya distance of up to a factor of 10 compared to what is achievable from classical Mueller imagnin. On the other hand, it uses the full polarimetric information of the scene to generate a single image at optimum contrast which makes it particularly effective to distinguish two distinct areas with slightly different polarization properties. The complete analytical solution of this problem is proposed in the next chapter with associated illustrations. The proposed model allows, in addition to a physical interpretation of the imaging problem, to quantify the limits of APSCI method based on evaluated Mueller matrices of the scene. Furthermore the relative performance of APSCI vs Classical Mueller Imaging (CMI) associated to polar decomposition has been studied numerically. Finally we have setup an hybrid CMI-APSCI imaging setup by indigenous calibration technique with a polarimetric precession of approximately 1% when room temperature varies around 1 degree C.
473

Lymphomes anaplasiques à grandes cellules ALK positifs : signature pronostique des rechutes précoces / ALK positive anaplastic large cell lymphoma : prognostic signature of early relapses

Daugrois, Camille 19 October 2015 (has links)
Les lymphomes anaplasiques à grandes cellules (ou ALCL) appartiennent au groupe des lymphomes T périphériques et peuvent être porteurs d'une translocation impliquant le gène ALK (ALK+). Ce sont des lymphomes rares, de haut grade de malignité qui touchent souvent les sujets jeunes. Les traitements actuels permettent d'obtenir une rémission complète pour plus de 80% des patients. Cependant près de 30% des patients dont le traitement est aujourd'hui stratifié selon des facteurs pronostiques cliniques, vont rechuter dans l'année qui suit l'arrêt du traitement. Il est donc essentiel de disposer de critères prédictifs de la rechute au moment du diagnostic afin d'adapter la prise en charge thérapeutique des patients. L'objectif de mon projet était d'une part, d'identifier des facteurs moléculaires dépendants de la tumeur ou de son microenvironnement, associés à la rechute ou à l'absence de rechute et d'autre part, d'établir une signature d'expression génique pronostique au moment du diagnostic utilisable en routine clinique. Nous avons effectué une analyse du profil d'expression génique d'échantillons obtenus au diagnostic d'une cohorte de 48 patients présentant un ALCL ALK+ avec un suivi suffisant (26 provenant de patients ayant rechuté précocement, 22 patients n'ayant pas rechuté). Nous avons mis en évidence une signature de 47 gènes différentiellement exprimés entre les deux groupes de patients. Cette signature montre notamment, dans le groupe des patients n'ayant pas rechuté, un enrichissement en gènes codant pour des protéines impliquées dans la régulation de la matrice extracellulaire. Cette signature a été ensuite validée par PCR quantitative (qPCR) à haut débit (Fluidigm). Les algorithmes de classification tels que les forêts aléatoires et la PLS-DA ont permis de sélectionner les huit gènes les plus discriminants en termes de pouvoir prédictif. Sur la base de leur niveau d'expression, trois gènes ayant le plus fort pouvoir prédictif ont été identifiés par régression logistique. Afin de rendre cette signature applicable en routine clinique, ces trois gènes ont été validés par une technique de qPCR classique. L'expression de ces trois gènes a permis d'établir un score et un seuil permettant de distinguer les patients qui ont un fort risque de rechute des patients qui n'ont qu'un faible risque de rechuter. Cette classification dichotomique donne un taux d'échec de prédiction de seulement 16% sur cette première cohorte de patients. Ce score de prédiction a été validé sur une cohorte indépendante de 18 patients, avec un taux d'échec de 22%. Ainsi cette étude démontre l'intérêt des signatures prédictives issues de données à haut débit afin de guider le clinicien dans le choix de la stratégie thérapeutique. / Anaplastic large cell lymphomas (ALCL) peripheral belong to T cell lymphomas and may be associated with translocations involving the ALK gene (ALK+). These lymphoma are rare, of high grade and often affect young subjects. Current treatments allow obtaining a complete remission for over 80% of patients. However nearly 30% of patients whose treatment is stratified according to current clinical prognostic factors, will relapse in the year following the end of treatment. It is therefore essential to decipher predictive factors of relapse at diagnosis in order to improve therapeutic management. The aim of my project was on one hand, to identify molecular factors of the tumor or its microenvironment, associated with relapse or lack of relapse and secondly, to establish a predictive gene expression signature at diagnosis that could be used in clinical routine. We performed transcriptome analysis of samples obtained at diagnosis in a cohort of 48 patients with ALK+ ALCL and sufficient follow up (26 from patients who early relapsed, 22 patients who did not relapse). We have identified 47 differentially expressed genes between the two groups. This signature shows in particular, from the group of patients who did not relapse, an enrichment of genes encoding proteins involved in the regulation of the extracellular matrix. This signature has been then validated by high-throughput quantitative PCR (Fluidigm). Classification algorithms such as Random Forests and PLS-DA helped select the eight most discriminating genes in terms of predictive power. Based on their expression level, three genes with the strongest predictive power were identified by logistic regression. For diagnostic testing in routine practice, these three genes were validated by standard qPCR. A score and a threshold for distinguishing patients who will relapse from patients who will not were established from the expression of these three genes. This dichotomous classification gives a prediction failure rate of only 16% on this first cohort. This prediction score was then validated in an independent cohort of 18 patients, with a failure rate of 22%. This study demonstrates the value of predictive signatures derived from high-throughput data to guide treatment strategy.
474

Statistical methodologies for modelling the impact of process variability in ultra-deep-submicron SRAMs / Méthodologie statistique de modélisation pour l'optimisation de l'offre SRAM 'basse puissance'

Akyel, Kaya Can 17 December 2014 (has links)
La miniaturisation des transistors vers ses ultimes limites physiques a exacerbé les effets négatifs qui sont liées à la granularité de la matière. Plusieurs nouvelles sources de variabilités affectent les transistors qui, bien qu'identiquement dessinés, montrent des caractéristiques électriques qui sont variables entre eux et entre différents moments de leur utilisation. Les circuits de mémoire SRAM, qui sont conçues avec des règles de dessin parmi le plus agressives et contiennent un nombre de transistors très élevé, sont menacés en particulier par ce phéomène de variabilité qui représente le plus grand obstacle non seulement pour la réduction de la surface d'un point mémoire SRAM, mais aussi pour la réduction de son tension d'alimentation. L'optimisation des circuits SRAM est devenue une tache cruciale afin de répondre à la fois aux demandes d'augmentation de densité et de la réduction de la consommation, donc une méthodologie statistique permettant de modéliser an amont l'impact de la variabilité à travers des simulations SPICE est devenue un besoin obligatoire. Les travaux de recherches présentés se concentrent sur le développement des nouvelles méthodologies pour la simulation des points mémoires sous l'impact de la variabilité, dans le but d'accomplir une modélisation précise de la tension d'alimentation minimale d'un SRAM quelques soit les conditions d'opérations. La variabilité dynamique liée au bruit RTS qui cause le changement des caractéristiques électrique des transistors au cours de leurs opérations est également étudiée avec un effort particulier de modélisation. Ce travail a donné lieu à de nombreuses publications internationales et à un brevet. Aujourd'hui cette méthodologie est retenue par STMicroelectronics et est utilisé dans la phase d'optimisation des plans mémoires SRAM. / The downscaling of device geometry towards its physical limits exacerbates the impact of the inevitable atomistic phenomena tied to matter granularity. In this context, many different variability sources raise and affect the electrical characteristics of the manufactured devices. The variability-aware design methodology has therefore become a popular research topic in the field of digital circuit design, since the increased number of transistors in the modern integrated circuits had led to a large statistical variability affecting dramatically circuit functionality. Static Random Access Memory (SRAM) circuits which are manufactured with the most aggressive design rules in a given technology node and contain billions of transistor, are severely impacted by the process variability which stands as the main obstacle for the further reduction of the bitcell area and of its minimum operating voltage. The reduction of the latter is a very important parameter for Low-Power design, which is one of the most popular research fields of our era. The optimization of SRAM bitcell design therefore has become a crucial task to guarantee the good functionality of the design at an industrial manufacturing level, in the same time answering to the high density and low power demands. However, the long time required by each new technology node process development means a long waiting time before obtaining silicon results, which is in cruel contrast with the fact that the design optimization has to be started as early as possible. An efficient SPICE characterization methodology for the minimum operating voltage of SRAM circuits is therefore a mandatory requirement for design optimization. This research work concentrates on the development of the new simulation methodologies for the modeling of the process variability in ultra-deep-submicron SRAMs, with the ultimate goal of a significantly accurate modeling of the minimum operating voltage Vmin. A particular interest is also carried on the time-dependent sub-class of the process variability, which appears as a change in the electrical characteristics of a given transistor during its operation and during its life-time. This research work has led to many publications and one patent application. The majority of findings are retained by STMicroelectronics SRAM development team for a further use in their design optimization flow.
475

Diffusion de rayons X sur une membrane unique : potentiel d'interaction et effets du champ électrique / X-ray scattering on a floating membrane : interaction potential and effects of an electric field

Hemmerle, Arnaud 24 September 2013 (has links)
Nous avons déterminé par diffusion de rayons X le potentiel d’interaction entre deux bicouches, une première adsorbée sur un substrat solide et une deuxième flottant à proximité. Nous montrons que les interactions dans ces systèmes fortement hydratés sont deux ordres de grandeur plus faibles que dans les travaux précédents menés sur des phases multilamellaires. Cette caractéristique est attribuée à la répulsion électrostatique due à la faible fraction de lipides ionisés. Nous avons de plus accès aux potentiels de répulsion entropique, et testons les différents modèles théoriques existants.Les effets d’un champ électrique sur les membranes ont également été étudiés. Nous montrons que le champ induit une tension négative et une rigidité positive, et mène à la déstabilisation d’une bicouche supportée sous certaines conditions.Finalement, nous mesurons les propriétés de membranes chargées par diffusion de rayons X, nous permettant d’accéder aux limites de la théorie de Poisson-Boltzmann. / We have determined by grazing incidence X-ray scattering the interaction potential between two lipid bilayers, one adsorbed on a solid surface and the other floating close by. We find that interactions in this highly hydrated system are two orders of magnitude softer than in previously reported work on multilayer stacks. This is attributed to the weak electrostatic repulsion due to the small fraction of ionized lipids in defectless supported bilayers. We also access the entropic repulsion potentials, allowing us to discriminate between the different existing models.The effects of an electric field on the properties of membranes have also been studied. We show that the field induces a negative tension and an increase of the rigidity. We also show that it is possible to destabilize a supported bilayer by an electric field under certain conditions.Finally, we measure the properties of charged membranes using X-ray scattering, giving access to the limits of the Poisson-Boltzmann theory.
476

Multi-modal similarity learning for 3D deformable registration of medical images / Titre français non fourni

Michel, Fabrice 04 October 2013 (has links)
Alors que la perspective de la fusion d’images médicales capturées par des systèmes d’imageries de type différent est largement contemplée, la mise en pratique est toujours victime d’un obstacle théorique : la définition d’une mesure de similarité entre les images. Des efforts dans le domaine ont rencontrés un certain succès pour certains types d’images, cependant la définition d’un critère de similarité entre les images quelle que soit leur origine et un des plus gros défis en recalage d’images déformables. Dans cette thèse, nous avons décidé de développer une approche générique pour la comparaison de deux types de modalités donnés. Les récentes avancées en apprentissage statistique (Machine Learning) nous ont permis de développer des solutions innovantes pour la résolution de ce problème complexe. Pour appréhender le problème de la comparaison de données incommensurables, nous avons choisi de le regarder comme un problème de plongement de données : chacun des jeux de données est plongé dans un espace commun dans lequel les comparaisons sont possibles. A ces fins, nous avons exploré la projection d’un espace de données image sur l’espace de données lié à la seconde image et aussi la projection des deux espaces de données dans un troisième espace commun dans lequel les calculs sont conduits. Ceci a été entrepris grâce à l’étude des correspondances entre les images dans une base de données images pré-alignées. Dans la poursuite de ces buts, de nouvelles méthodes ont été développées que ce soit pour la régression d’images ou pour l’apprentissage de métrique multimodale. Les similarités apprises résultantes sont alors incorporées dans une méthode plus globale de recalage basée sur l’optimisation discrète qui diminue le besoin d’un critère différentiable pour la recherche de solution. Enfin nous explorons une méthode qui permet d’éviter le besoin d’une base de données pré-alignées en demandant seulement des données annotées (segmentations) par un spécialiste. De nombreuses expériences sont conduites sur deux bases de données complexes (Images d’IRM pré-alignées et Images TEP/Scanner) dans le but de justifier les directions prises par nos approches. / Even though the prospect of fusing images issued by different medical imagery systems is highly contemplated, the practical instantiation of it is subject to a theoretical hurdle: the definition of a similarity between images. Efforts in this field have proved successful for select pairs of images; however defining a suitable similarity between images regardless of their origin is one of the biggest challenges in deformable registration. In this thesis, we chose to develop generic approaches that allow the comparison of any two given modality. The recent advances in Machine Learning permitted us to provide innovative solutions to this very challenging problem. To tackle the problem of comparing incommensurable data we chose to view it as a data embedding problem where one embeds all the data in a common space in which comparison is possible. To this end, we explored the projection of one image space onto the image space of the other as well as the projection of both image spaces onto a common image space in which the comparison calculations are conducted. This was done by the study of the correspondences between image features in a pre-aligned dataset. In the pursuit of these goals, new methods for image regression as well as multi-modal metric learning methods were developed. The resulting learned similarities are then incorporated into a discrete optimization framework that mitigates the need for a differentiable criterion. Lastly we investigate on a new method that discards the constraint of a database of images that are pre-aligned, only requiring data annotated (segmented) by a physician. Experiments are conducted on two challenging medical images data-sets (Pre-Aligned MRI images and PET/CT images) to justify the benefits of our approach.
477

Nouvelles méthodes dans la détection d' exoplanètes par effet de microlentille gravitationnelle et vers une théorie statistique des orbites des planètes du système solaire / New methods in exoplanet detection via gravitational microlensing and towards a statistical theory of planet orbits in the solar system

Mogavero, Federico 29 September 2017 (has links)
Cette thèse traite de la détection d’exoplanètes et des propriétés statistiques de leurs orbites. Nous présentons d'abord de nouveaux développements dans la technique de microlentille gravitationnelle. Nous étudions les potentialités de découverte de systèmes inhabituels, comme des planètes flottantes, par des satellites en orbite autour de la Terre. Nous proposons ensuite deux nouvelles approches à la reconstruction d’images, ce qui pourrait mener à un gain de temps important dans l’interprétation des données d’observation. Nous redécouvrons d’abord le résultat peu connu de Asada (2002), en démontrant que l’équation bidimensionnelle des lentilles peut être réécrite en termes de systèmes triangulaires grâce au théorème de Labatie. Cela permet de résoudre une seule équation polynomiale réelle, au lieu de l’équation complexe habituelle. Nous proposons ensuite une nouvelle technique de reconstruction d’images basée sur la résolution d’un système d’équations différentielles ordinaires. Dans la deuxième partie de la thèse, nous faisons un premier pas vers une théorie statistique des architectures planétaires. Nous montrons que l’ensemble microcanonique de la dynamique séculaire dans le système solaire permet d’estimer assez précisément la densité de probabilité des paramètres orbitaux des planètes. Comme la dynamique future de nos planètes ne diffère pas essentiellement de l’excitation gravitationnelle à la quelle sont sujettes les exoplanètes dans la dernière phase de leur formation, un tel résultat constitue un indice préliminaire mais précieux de l’efficacité d’une approche statistique aux architectures planétaires. / This thesis deals with exoplanet detection and the statistical properties of planetary systems. In the first part of the dissertation, we present new developments in the technique of gravitational microlensing. We explore the potentialities of geosynchronous and low Earth orbit satellites to discover unusual systems, such as rogue planets and miniature planetary systems around low-mass brown dwarfs. We then propose two new approaches to image reconstruction, which could result in a precious speed-up when interpreting observational data. We first rediscover the not-well-known result of Asada (2002), demonstrating that the two-dimensional lens equation can be rewritten in terms of triangular systems via Labatie’s theorem. That allows to solve basically a single real polynomial equation, instead of the usual complex one. We then propose a technique of image reconstruction based on the resolution of a system of ordinary differential equations. This turns out to have a number of advantages, among them a straightforward application to the general case of N point-mass lenses. In the second part of the thesis, we take a first step towards a statistical theory of planetary architectures. We show that the microcanonical ensemble of secular dynamics in the solar system provides a very good guess of the probability density of the planet orbital elements over Gyr timescales. Since the future dynamics of our planets is essentially analogue to the gravitational excitation undergone by exoplanets during the final, gas-free phase of their formation, such a result constitutes a preliminary but valuable hint of the effectiveness of a statistical approach to planetary architectures.
478

Algorithmes décentralisés et asynchrones pour l'apprentissage statistique large échelle et application à l'indexation multimédia / Decentralized and asynchronous algorithms for large scale machine learning and application to multimedia indexing

Fellus, Jérôme 03 October 2017 (has links)
Avec l’avènement de « l'ère des données », les besoins des systèmes de traitement de l'information en ressources de calcul ont explosé, dépassant largement les évolutions technologiques des processeurs modernes. Dans le domaine de l'apprentissage statistique en particulier, les paradigmes de calcul massivement distribués représentent la seule alternative praticable.L'algorithmique distribuée emprunte la plupart de ses concepts à l'algorithmique classique, centralisée et séquentielle, dans laquelle le comportement du système est décrit comme une suite d'instructions exécutées l'une après l'autre. L'importance de la communication entre unités de calcul y est généralement négligée et reléguée aux détails d'implémentation. Or, lorsque le nombre d'unités impliquées augmente, le poids des opérations locales s'efface devant les effets émergents propres aux larges réseaux d'unités. Pour conserver les propriétés désirables de stabilité, de prédictibilité et de programmabilité offertes par l'algorithmique centralisée, les paradigmes de calcul distribué doivent dès lors intégrer cette dimension qui relève de la théorie des graphes.Cette thèse propose un cadre algorithmique pour l'apprentissage statistique large échelle, qui prévient deux défaut majeurs des méthodes classiques : la centralisation et la synchronisation. Nous présentons ainsi plusieurs algorithmes basés sur des protocoles Gossip décentralisés et asynchrones, applicables aux problèmes de catégorisation, estimation de densité, réduction de dimension, classification et optimisation convexe. Ces algorithmes produisent des solutions identiques à leurs homologues centralisés, tout en offrant une accélération appréciable sur de larges réseaux pour un coût de communication très réduit. Ces qualités pratiques sont démontrées mathématiquement par une analyse de convergence détaillée. Nous illustrons finalement la pertinence des méthodes proposées sur des tâches d'indexation multimédia et de classification d'images. / With the advent of the "data era", the amount of computational resources required by information processing systems has exploded, largely exceeding the technological evolutions of modern processors. Specifically, contemporary machine learning applications necessarily resort to massively distributed computation.Distributed algorithmics borrows most of its concepts from classical centralized and sequential algorithmics, where the system's behavior is defined as a sequence of instructions, executed one after the other. The importance of communication between computation units is generally neglected and pushed back to implementation details. Yet, as the number of units grows, the impact of local operations vanishes behind the emergent effects related to the large network of units. To preserve the desirable properties of centralized algorithmics such as stability, predictability and programmability, distributed computational paradigms must encompass this graph-theoretical dimension.This thesis proposes an algorithmic framework for large scale machine learning, which prevent two major drawbacks of classical methods, namely emph{centralization} and emph{synchronization}. We therefore introduce several new algorithms based on decentralized and asynchronous Gossip protocols, for solving clustering, density estimation, dimension reduction, classification and general convex optimization problems, while offering an appreciable speed-up on large networks with a very low communication cost. These practical advantages are mathematically supported by a theoretical convergence analysis. We finally illustrate the relevance of proposed methods on multimedia indexing applications and real image classification tasks.
479

La versification de Raymond Queneau, approche statistique à partir d'une base de données / Raymond Queneau's versification, a statistical approach, making use of a database

Bories, Anne-Sophie 26 March 2013 (has links)
Nous proposons une approche statistique de la versification de Raymond Queneau. Au cœur de notre travail se trouve une base de données MySQL, qui rassemble des informations descriptives à propos de la versification des 15.996 vers publiés par Queneau de son vivant. Jusqu’ici, les bases de données consacrées à la métrique ont exploré les vers réguliers, laissant de côté le vers libre et les questions spécifiques qu’il pose. Notre base envisage conjointement ces deux catégories de vers. Nous en tirons des statistiques, des représentations graphiques, et une approche globale du texte.La versification de Raymond Queneau a été peu étudiée. Il s’agit d’un corpus hétérogène, pour lequel la distinction entre vers libres et vers réguliers n’est pas toujours opérante. Au sein de ces formes variées, nous avons cherché des traits fixes, des motifs récurrents, des tendances, des routines. Nous proposons une typologie des vers queniens, décrivons la parenté du vers libre quenien avec le vers classique, modélisons des structures de la poésie de Queneau et étudions les significations liées à ses choix métriques.Il ressort de nos résultats que la versification de Queneau est porteuse de signification. Queneau y manifeste son refus des conventions, et son choix systématique d’une troisième voie réconciliant conservatisme et innovation.Ce travail ouvre des perspectives pour les bases de données consacrées à la versification. De nouvelles bases de données sont à développer, pour d’autres corpus, qui enrichiront les champs de la stylistique et de la poétique. / We present a statistical approach to Raymond Queneau’s versification. At the centre of the study is a MySQL database, which compiles descriptive data on the versification of the 15,996 lines of poetry published by Queneau during his lifetime. Until now databases dedicated to metrics have focussed on strict verse, leaving aside free verse and the specific issues it raises. Our database explores both categories together, providing the source for statistics, graphs and a comprehensive approach to the text.Raymond Queneau’s versification has not been studied to any great extent. It is a heterogeneous corpus, where the strict vs. free verse distinction does not apply consistently. Within these diverse forms, this study endeavours to find fixed features, recurring patterns, trends and routines. This exploration has resulted in the creation of a typology of Queneau’s verse, a description of how free and strict verse are related in his writing, the making of a model for his poems’ structures, and a study of his metrical choices’ meanings.Our results show that Queneau’s versification conveys various meanings. Through it he expresses his reluctance towards conventions and his choice of third path, bringing together conservatism and innovation.The approach behind this thesis also opens up new perspectives regarding databases dedicated to versification. Similar databases can be developed for other corpora, which will enrich both stylistics and poetics.
480

Contributions en morphologie mathématique pour l'analyse d'images multivariées / Topics in mathematical morphology for multivariate images

Velasco-Forero, Santiago 14 June 2012 (has links)
Cette thèse contribue au domaine de la morphologie mathématique et illustre comment la statistique multivariée et les techniques d'apprentissage numérique peuvent être exploitées pour concevoir un ordre dans l'espace des vecteurs et pour inclure les résultats d'opérateurs morphologiques au processus d'analyse d'images multivariées. En particulier, nous utilisons l'apprentissage supervisé, les projections aléatoires, les représentations tensorielles et les transformations conditionnelles pour concevoir de nouveaux types d'ordres multivariés et de nouveaux filtres morphologiques pour les images multi/hyperspectrales. Nos contributions clés incluent les points suivants :• Exploration et analyse d'ordre supervisé, basé sur les méthodes à noyaux.• Proposition d'un ordre nonsupervisé, basé sur la fonction de profondeur statistique calculée par projections aléatoires. Nous commençons par explorer les propriétés nécessaires à une image pour assurer que l'ordre ainsi que les opérateurs morphologiques associés, puissent être interprétés de manière similaire au cas d'images en niveaux de gris. Cela nous amènera à la notion de décomposition en arrière plan. De plus, les propriétés d'invariance sont analysées et la convergence théorique est démontrée.• Analyse de l'ordre supervisé dans les problèmes de correspondance morphologique de patrons, qui correspond à l'extension de l'opérateur tout-ou-rien aux images multivariées grâce à l‘utilisation de l'ordre supervisé.• Discussion sur différentes stratégies pour la décomposition morphologique d'images. Notamment, la décomposition morphologique additive est introduite comme alternative pour l'analyse d'images de télédétection, en particulier pour les tâches de réduction de dimension et de classification supervisée d'images hyperspectrales de télédétection.• Proposition d'un cadre unifié basé sur des opérateurs morphologiques, pour l'amélioration de contraste et pour le filtrage du bruit poivre-et-sel.• Introduction d'un nouveau cadre de modèles Booléens multivariés en utilisant une formulation en treillis complets. Cette contribution théorique est utile pour la caractérisation et la simulation de textures multivariées. / This thesis contributes to the field of mathematical morphology and illustrates how multivariate statistics and machine learning techniques can be exploited to design vector ordering and to include results of morphological operators in the pipeline of multivariate image analysis. In particular, we make use of supervised learning, random projections, tensor representations and conditional transformations to design new kinds of multivariate ordering, and morphological filters for color and multi/hyperspectral images. Our key contributions include the following points:• Exploration and analysis of supervised ordering based on kernel methods.• Proposition of an unsupervised ordering based on statistical depth function computed by random projections. We begin by exploring the properties that an image requires to ensure that the ordering and the associated morphological operators can be interpreted in a similar way than in the case of grey scale images. This will lead us to the notion of background/foreground decomposition. Additionally, invariance properties are analyzed and theoretical convergence is showed.• Analysis of supervised ordering in morphological template matching problems, which corresponds to the extension of hit-or-miss operator to multivariate image by using supervised ordering.• Discussion of various strategies for morphological image decomposition, specifically, the additive morphological decomposition is introduced as an alternative for the analysis of remote sensing multivariate images, in particular for the task of dimensionality reduction and supervised classification of hyperspectral remote sensing images.• Proposition of an unified framework based on morphological operators for contrast enhancement and salt- and-pepper denoising.• Introduces a new framework of multivariate Boolean models using a complete lattice formulation. This theoretical contribution is useful for characterizing and simulation of multivariate textures.

Page generated in 0.0239 seconds