• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 20
  • 8
  • 2
  • Tagged with
  • 37
  • 37
  • 16
  • 16
  • 7
  • 5
  • 5
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Lymphomes anaplasiques à grandes cellules ALK positifs : signature pronostique des rechutes précoces / ALK positive anaplastic large cell lymphoma : prognostic signature of early relapses

Daugrois, Camille 19 October 2015 (has links)
Les lymphomes anaplasiques à grandes cellules (ou ALCL) appartiennent au groupe des lymphomes T périphériques et peuvent être porteurs d'une translocation impliquant le gène ALK (ALK+). Ce sont des lymphomes rares, de haut grade de malignité qui touchent souvent les sujets jeunes. Les traitements actuels permettent d'obtenir une rémission complète pour plus de 80% des patients. Cependant près de 30% des patients dont le traitement est aujourd'hui stratifié selon des facteurs pronostiques cliniques, vont rechuter dans l'année qui suit l'arrêt du traitement. Il est donc essentiel de disposer de critères prédictifs de la rechute au moment du diagnostic afin d'adapter la prise en charge thérapeutique des patients. L'objectif de mon projet était d'une part, d'identifier des facteurs moléculaires dépendants de la tumeur ou de son microenvironnement, associés à la rechute ou à l'absence de rechute et d'autre part, d'établir une signature d'expression génique pronostique au moment du diagnostic utilisable en routine clinique. Nous avons effectué une analyse du profil d'expression génique d'échantillons obtenus au diagnostic d'une cohorte de 48 patients présentant un ALCL ALK+ avec un suivi suffisant (26 provenant de patients ayant rechuté précocement, 22 patients n'ayant pas rechuté). Nous avons mis en évidence une signature de 47 gènes différentiellement exprimés entre les deux groupes de patients. Cette signature montre notamment, dans le groupe des patients n'ayant pas rechuté, un enrichissement en gènes codant pour des protéines impliquées dans la régulation de la matrice extracellulaire. Cette signature a été ensuite validée par PCR quantitative (qPCR) à haut débit (Fluidigm). Les algorithmes de classification tels que les forêts aléatoires et la PLS-DA ont permis de sélectionner les huit gènes les plus discriminants en termes de pouvoir prédictif. Sur la base de leur niveau d'expression, trois gènes ayant le plus fort pouvoir prédictif ont été identifiés par régression logistique. Afin de rendre cette signature applicable en routine clinique, ces trois gènes ont été validés par une technique de qPCR classique. L'expression de ces trois gènes a permis d'établir un score et un seuil permettant de distinguer les patients qui ont un fort risque de rechute des patients qui n'ont qu'un faible risque de rechuter. Cette classification dichotomique donne un taux d'échec de prédiction de seulement 16% sur cette première cohorte de patients. Ce score de prédiction a été validé sur une cohorte indépendante de 18 patients, avec un taux d'échec de 22%. Ainsi cette étude démontre l'intérêt des signatures prédictives issues de données à haut débit afin de guider le clinicien dans le choix de la stratégie thérapeutique. / Anaplastic large cell lymphomas (ALCL) peripheral belong to T cell lymphomas and may be associated with translocations involving the ALK gene (ALK+). These lymphoma are rare, of high grade and often affect young subjects. Current treatments allow obtaining a complete remission for over 80% of patients. However nearly 30% of patients whose treatment is stratified according to current clinical prognostic factors, will relapse in the year following the end of treatment. It is therefore essential to decipher predictive factors of relapse at diagnosis in order to improve therapeutic management. The aim of my project was on one hand, to identify molecular factors of the tumor or its microenvironment, associated with relapse or lack of relapse and secondly, to establish a predictive gene expression signature at diagnosis that could be used in clinical routine. We performed transcriptome analysis of samples obtained at diagnosis in a cohort of 48 patients with ALK+ ALCL and sufficient follow up (26 from patients who early relapsed, 22 patients who did not relapse). We have identified 47 differentially expressed genes between the two groups. This signature shows in particular, from the group of patients who did not relapse, an enrichment of genes encoding proteins involved in the regulation of the extracellular matrix. This signature has been then validated by high-throughput quantitative PCR (Fluidigm). Classification algorithms such as Random Forests and PLS-DA helped select the eight most discriminating genes in terms of predictive power. Based on their expression level, three genes with the strongest predictive power were identified by logistic regression. For diagnostic testing in routine practice, these three genes were validated by standard qPCR. A score and a threshold for distinguishing patients who will relapse from patients who will not were established from the expression of these three genes. This dichotomous classification gives a prediction failure rate of only 16% on this first cohort. This prediction score was then validated in an independent cohort of 18 patients, with a failure rate of 22%. This study demonstrates the value of predictive signatures derived from high-throughput data to guide treatment strategy.
12

L’îlot de chaleur urbain et le changement climatique : application à l’agglomération rennaise / Urban heat island and climate change : application to Rennes metropolitan area

Foissard, Xavier 14 October 2015 (has links)
L’urbanisation engendre, par l’imperméabilisation des surfaces et la présence de bâtiments, une modification locale du climat et, plus spécifiquement, le phénomène d’îlot de chaleur urbain (ICU). Ce phénomène se traduit par l’augmentation de la température en ville la nuit. Lors des vagues de chaleur ce phénomène peut causer un inconfort voire une surmortalité. Dans le contexte du changement climatique et d’une dynamique démographique importante, la thèse est réalisée sur le territoire de Rennes Métropole. Au cours de cette thèse, plusieurs objectifs sont poursuivis. Dans un premier temps, l’étude porte sur l’analyse de la variabilité spatiale de l’ICU selon l’occupation du sol et des formes urbaines. Afin d’observer ce phénomène sur le territoire de Rennes Métropole, plusieurs réseaux de mesuressont mis en place. Le premier réseau concerne l’échelle de l’agglomération avec 22 stations météorologiques. Le second réseau est établi à l’échelle intra-urbaine avec l’installation de 20 capteurs de température. Enfin, le troisième réseau de mesures vise à observer la variabilité de l’ICU au sein de deux quartiers rennais et d’une petite ville, Vezin-le-Coquet. Dans un second temps, des modèles de spatialisation de l’ICU sont construits à l’échelle de l’agglomération, puis, à l’échelle intra-urbaine. Ces modèles permettent de réaliser des cartes de l’ICU pour ces deux échelles emboitées. Dans un troisième temps, l’analyse temporelle est établie par la relation entre les types de temps et l’ICU. Cette analyse permet de construire un modèle de prévision de l’ICU quotidien. A partir de ce modèle, l’ICU quotidien est projeté par les sorties régionalisées des modèles du changement climatique. Plusieurs outils d’aide à la décision sont proposés à partir des modèles développés de l’ICU. L’exposition de l’agglomération rennaise au changement climatique est évaluée à partir des cartes de l’ICU et de plusieurs indices projetés par les sorties régionalisées des modèles du changement climatique / Urban development, characterized by the presence of buildings and impervious surfaces, modify the local climate and in particular, enhance the urban heat island (UHI). This phenomenon raises temperatures in cities at night, which could cause discomfort and over-mortality during heat waves. In the context of climate change and important population dynamics, this thesis is carried out in the Rennes Metropolitan area (in Brittany). Firstly, this thesis focuses on the spatial analysis of UHI variability according to land use and urban forms. To observe UHI in the Rennes Metropolitan area, a network of multiple measurement types were implemented at various scale. 1) a network of 22 permanents weather stations located in urban/rural sites; 2) a network of 20 temperature sensors placed in intra-urban area; and 3) a network of temperature measurements in two neighborhoods of Rennes and a small town, Vezin-le-Coquet. Secondly, spatial models of UHI were designed in this thesis at both the urban agglomeration and intra-urban scale. This multi-scale approach produced UHI map for these nesting-scales. Thirdly, this thesis determined the temporal variability of UHI by looking at the interaction between weather types and UHI. This analysis produced a statistical model of daily UHI magnitude according to meteorological observations. This model combined with data from downscaled climate change scenarios provided future projections of UHI. Lastly, this study deals with tools for town planning to prevent intensive UHI. UHI maps and downscaled climate change scenarios defined the risk assessment in the Rennes Metropolitan area
13

Analyse du transport solide en réseau d’assainissement unitaire par temps de pluie : exploitation de données acquises par les observatoires français en hydrologie urbaine / Analysis of solid transport in combined sewer network during wet weather : exploitation of data acquired by the French observatories in urban hydrology

Hannouche, Ali 23 November 2012 (has links)
Cette thèse valorise les données de mesure en continu de pluie de débit et de turbidité, ainsi que les bases de donnée de résultat d'analyse et les connaissances acquises dans le cadre des trois observatoires français en hydrologie urbaine, OPUR-Paris, OTHU-Lyon et ONEVU Nantes, pour valider et améliorer les connaissances sur les flux et les sources de particules vectrices de contaminants, en réseaux d'assainissement unitaire. Les données provenant de 6 sites expérimentaux drainés par un réseau d'assainissement unitaire ont été exploitées : Marais, Quais et Clichy à Paris, Cordon Bleu et Saint-Mihiel à Nantes et Écully à Lyon, avec sur chaque site des bases de données de longue durée qui ont permis des études statistiques sur des échantillons de plusieurs dizaines d'événements pluvieux et de journées de temps sec. Cette thèse a permis : 1- d'évaluer la représentativité de la turbidité pour analyser du transport solide en réseau ; 2- d'analyser et de modéliser statistiquement les concentrations et les masses de particules à l'échelle événementielle ; 3- d'étudier la dynamique des flux et des concentrations à l'échelle intra-événementielle. Les résultats obtenus indiquent d'une part, que la turbidité permet de décrire les dynamiques intra-événementielles des flux et des concentrations à condition d'exprimer ceux-ci sous forme relative, normalisée par les valeurs moyennes événementielles. En revanche, ces valeurs événementielles sont attachées par des erreurs systématiques non négligeables induites par les variations inter-événementielles de la relation MES-Turbidité (intervalle de confiance de l'ordre de 30% de la moyenne). Ils confirment d'autre part que la contribution des dépôts aux flux de temps de pluie est importante mais variable (entre 20 et 80% de la masse à l'exutoire selon l'événement), y compris sur un site réputé exempt de dépôts (grossiers). Autrement dit, les problématiques d'ensablement et de pollution de temps de pluie ne sont pas nécessairement liées. L'autre contribution majeure est celle des eaux usées « de temps sec ». De plus, ils nous ont permis de progresser dans la compréhension des phénomènes de décalage temporel entre hydrogramme et pollutogramme et d'effet piston / This thesis exploits continuous measurement of rainfall, discharge and turbidity data and the knowledge acquired by three French observatories in urban hydrology, OPUR-Paris, OTHU Lyon and ONEVU-Nantes, to validate and improve knowledge on suspended solids discharges and sources of particles, which are major vectors of contaminants in combined sewer systems. Data from six experimental sites served by a combined sewer system were used: Marais, Quais and Clichy in Paris, Cordon Bleu and Saint-Mihiel in Nantes and Ecully in Lyon. At each site, a long duration databases enabled statistical studies on samples of several tens of rainfall events and dry weather days. This thesis allowed: 1-to assess the representativeness of turbidity to analyze sediments transport in network; 2-to analyze and model concentrations and masses of particles at the scale of rain events; 3-to study the dynamics of fluxes and concentrations at intra-event scale. Results show that turbidity can describe the dynamics of intra-event fluxes and concentrations provided these are expressed in a relative form, normalized by the event mean values. However, these mean values are attached by significant systematic errors induced by variations of the inter-event TSS-turbidity relationship (95% confidence interval about 30% of average). The contribution of sewer deposits to wet weather suspended solids discharges is important but variable (between 20 and 80% of the mass at the outlet depending on the event), including for a site allegedly free of (coarse) sewer deposits. In other words, the problems of silting and contribution from deposits to wet weather pollution are not necessarily related. The other major contribution is from “dry weather” wastewater. In addition, they we made some progress in understanding the lag-time phenomena between hydrograph and pollutograph and the piston effect
14

Développement d'un modèle d'estimation des variables de trafic urbain basé sur l'utilisation des technologies de géolocalisation / Leveraging geolocalization technologies to model and estimate urban traffic

Hofleitner, Aude 04 December 2012 (has links)
Face à l’augmentation de la mobilité, les politiques de développement durable cherchent à optimiser l’utilisation des infrastructures de transport existantes. En particulier, les systèmes d’information du trafic à large échelle ont le potentiel d’optimiser l’utilisation du réseau de transport. Ils doivent fournir aux usagers une information fiable en temps réel leur permettant d’optimiser leurs choix d’itinéraires. Ils peuvent également servir d’outils d’aide à la décision pour les gestionnaires du réseau. La thèse étudie comment l’émergence des services Internet sur les téléphones portables et la rapide prolifération des systèmes de géolocalisation permet le développement de nouveaux services d’estimation et d’information des conditions de trafic en réseau urbain. L’utilisation des données provenant de véhicules traceurs nécessite le développement de modèles et d’algorithmes spécifiques, afin d’extraire l’information de ces données qui ne sont envoyées, jusqu’à présent, que par une faible proportion des véhicules circulant sur le réseau et avec une fréquence faible. La variabilité des conditions de circulations, due à la présence de feux de signalisation, motive une approche statistique de la dynamique du trafic, tout en intégrant les principes physiques hydrodynamiques (formation et dissolution de files d’attentes horizontales). Ce modèle statistique permet d’intégrer de façon robuste les données bruitées envoyées par les véhicules traceurs, d’estimer les paramètres physiques caractérisant la dynamique du trafic et d’obtenir l’expression paramétrique de la loi de probabilité des temps de parcours entre deux points quelconques du réseau. La thèse s’appuie sur les données et les infrastructures développées par le projet Mobile Millennium à l’Université de Californie, Berkeley pour valider les modèles et algorithmes proposés. Les résultats soulignent l’importance du développement de modèles statistiques et d’algorithmes adaptés aux données disponibles pour développer un système opérationnel d’estimation du trafic à large échelle / Sustainable mobility development requires the optimization of existing transportation infrastructure. In particular, ubiquitous traffic information systems have the potential to optimize the use of the transportation network. The system must provide accurate and reliable traffic information in real-time to optimize mobility choices. Successful implementations are also valuable tools for traffic management agencies. The thesis studies how the emergence of Internet services and location based services on mobile devices enable the development of novel Intelligent Transportation Systems which estimate and broadcast traffic conditions in arterial networks. Sparsely sampled probe data is the main source of arterial traffic data with the prospect of broad coverage in the near future. The small number of vehicles that report their position at a given time and the low sampling frequency require specific models and algorithms to extract valuable information from the available data. On the one hand, the variability of traffic conditions in urban networks, caused mainly by the presence of traffic lights, motivates a statistical approach of arterial traffic dynamics. On the other hand, an accurate modeling of the physics of arterial traffic from hydrodynamic theory (formation and dissolution of horizontal queues) ensures the physical validity of the model. The thesis proposes to integrate the dynamical model of arterial traffic in a statistical framework to integrate noisy measurements from probe vehicle data and estimate physical parameters, which characterize the traffic dynamics. In particular, the thesis derives and estimates the probability distributions of vehicle location and of travel time between arbitrary locations. The thesis leverages the data and the infrastructure developed by the Mobile Millennium project at the University of California, Berkeley to validate the models and algorithms. The results underline the importance to design statistical models for sparsely sampled probe vehicle data in order to develop the next generation of operation large-scale traffic information systems
15

Technique alternative de test pour les interrupteurs MEMS RF

Nguyen, H.N. 06 July 2009 (has links) (PDF)
Ce travail vise à trouver une technique de test rapide et peu onéreuse pour les interrupteurs MEMS RF embarqués dans les SiPs (System-in-Package). La complexité des SiPs RF exige une stratégie de conception en vue du test (DFT, Design-for-Test) afin d'éviter l'utilisation d'équipements sophistiqués de test, aussi bien que de surmonter les difficultés d'accès aux points de mesure embarqués. L'approche proposée utilise le principe du test alternatif qui remplace des procédures de test à base des spécifications conventionnelles. L'idée de base est d'extraire les performances haute fréquence de l'interrupteur à partir des caractéristiques basse fréquence du signal d'enveloppe de la réponse. Ces caractéristiques, qui incluent le temps de montée, le temps de descente, ou les amplitudes maximales du signal dans les états ON et OFF, sont alors utilisées dans un processus de régression pour prédire des spécifications RF comme les paramètres /S/. Un banc de test a été configuré et utilisé pour évaluer une dizaine d'échantillons d'un commutateur commercial. Des mesures expérimentales ont été réalisées avec un kit d'évaluation développé par notre partenaire industriel et un kit d'évaluation du développeur. Les mesures de basse fréquence comme le temps de transition ON/OFF et les amplitudes RF de la sortie sont utilisées comme régresseurs pour l'algorithme de régression multivariée qui construit une liaison non-linéaire entre les caractéristiques de basse fréquence et les performances RF de l'interrupteur. Ainsi, des performances conventionnelles comme les paramètres /S/ sont prédites à partir de ces mesures par la régression non-linéaire. Les résultats ont exposé une bonne corrélation entre les performances RF et les mesures de basse fréquence. La validation expérimentale a seulement été réalisée pour un petit échantillon d'interrupteurs. Les résultats de simulation ont aussi été utilisés pour évaluer cette corrélation.
16

Mod'ele statistique de chauffage de la couronne solaire calme

Podlachikova, Elena 21 February 2002 (has links) (PDF)
La température anormalement élevée de la couronne reste un des problèmes majeurs de la physique solaire. Toutefois, les observations récentes des satellites SoHO, Yohkoh ou TRACE semblent indiquer que les processus responsables du chauffage des régions fermées se situent dans la basse couronne ou dans la chromosphère, donc proches de la surface solaire, et sont associées 'a la dissipation de couches de courant continu. L'analyse statistique de données suggère que les mécanismes de chauffage résulteraient donc de nombreux événements de dissipation de couches de courant de petite échelle et de faible 'énergie, 'a la limite de la résolution des instruments modernes. Nous proposons un modèle statistique sur réseau, résultante d'une approche plus physique que la criticalité auto-organisée, constitué d'une source d'énergie magnétique de petite échelle et de mécanismes de dissipation des courants, qui peuvent être associés soit 'a la reconnexion magnétique soit à la résistivité anormale. Les différents types de sources et de mécanismes de dissipation permettent d''étudier leur influence sur les propriétés statistiques du système, en particulier sur l''énergie dissipée. Dans le but de quantifier ces comportements et de permettre des comparaisons approfondies entres les modèles et les observations, des techniques d'analyse peu utilisées en physique solaire, telles que la décomposition en valeurs singulières, des entropies, ou la technique de Pearson de classification des densités de probabilité, sont introduites et appliquées à l'étude des propriétaires spatiales et temporelles du modèle.
17

Imagerie par résonance magnétique du tenseur de diffusion (IRM-TD) en imagerie cardiaque humaine : traitements et premi`eres interprétations

Frindel, Carole 04 December 2009 (has links) (PDF)
Cette thèse a pour cadre l'étude de l'organisation spatiale des fibres du muscle cardiaque à partir de séries d'images tridimensionnelles acquises par IRM du Tenseur de Diffusion (IRMTD). Cette organisation constitue une propriété fondamentale du coeur sous-tendant la fonction contractile. Néanmoins elle est très complexe à obtenir au vu des difficultés inhérentes au mouvements cardiaque et respiratoire. Notre objectif consiste à développer de nouvelles approches, basées sur la prise en compte du mouvement du coeur et de la sensibilité au bruit de l'acquisition, pour l'estimation, l'analyse et la visualisation des fibres du myocarde. Dans ce cadre, mes travaux se déclinent selon trois axes principaux. Le premier compare, dans le contexte d'études cliniques ex vivo, les principales approches de régularisation opérant soit sur les images pondérées en diffusion soit sur les champs de tenseurs de diffusion. Les différences sont suffisamment faibles pour conclure que la qualité de nos données IRMTD est suffisante pour considérer toutes les méthodes de régularisation comme équivalentes. Partant de ce constat, une méthode de régularisation simple et rapide apparaî satisfaisante. Le second concerne la mise en place d'une méthode de tractographie spécialement conçue pour la spécificité cardiaque. Celle-ci est guidée par une fonctionnelle de coût globale qui permet l'estimation automatique des fibres cardiaques en une seule fois pour l'ensemble des données, et ce sans l'utilisation de points d'initialisation. Le dernier axe consiste en la distinction d'une population de fibres cardiaques en sous-groupes. Celle-ci s'appuie sur la comparaison de méthodes de classification de type géométrique et de type topologique exploitant toutes trois modes différents de représentation des fibres. Les résultats établissent que la classification pourrait permettre l'identification automatique de régions spécialisées dans le myocarde, ce qui pourrait grandement faciliter l'analyse et la comparaison des données IRMTD cardiaques pour la conception de thérapies patient-spécifiques.
18

Discrete shape modeling for geometrical product specification : contributions and applications to skin model simulation / Shape modeling discrets pour la spécification géométrique des produits : contributions et applications à la simulation sur le skin model

Zhang, Min 17 October 2011 (has links)
La gestion et le contrôle des variations géométriques des produits pendant les processus de développement représentent une préoccupation importante pour la réduction des coûts, l’amélioration de la qualité et la compétitivité des entreprises dans un contexte de mondialisation. Pendant la phase de conception, les exigences fonctionnelles et les tolérances géométriques sont issues de l'intention de conception. La modélisation des formes et le dimensionnement des produits sont aujourd'hui largement supportés par des outils de modélisation géométrique. Toutefois, les variations géométriques ne peuvent pas être évaluées en utilisant intuitivement les outils de modélisation existants. En outre, les étapes de fabrication et de mesure sont les deux principaux générateurs de variations géométriques desquels découlent les deux axiomes bien connus de l'imprécision de la fabrication et de l'incertitude de la mesure. Une vision globale des spécifications géométriques des produits (GPS) devrait considérer non seulement le processus complet de tolérancement, la modélisation des tolérances, et la représentation des tolérances mais aussi les représentations des formes géométriques et les techniques de traitement appropriées ainsi que les algorithmes associés. GeoSpelling, solution considérée comme fondement des normes ISO GPS, offre un langage non ambigu et un cadre complet pour la modélisation et la description des variations géométriques sur le cycle de vie des produits. GeoSpelling s’appuie sur un ensemble de concepts forts dont celui du "Skin Model". Cependant, l’«opérationnalisation» de GeoSpelling n'a pas été réalisée et peu de recherches ont porté sur la génération du Skin Model. Le Skin Model, vu comme un modèle de forme discrète est l'objectif principal de cette thèse. Dans ce travail, les fondamentaux de la géométrie discrète sont appliqués à GeoSpelling, les techniques de simulation de Monte Carlo et les méthodes statistiques d'analyse de formes sont développées pour simuler et analyser les "formes réalistes" prenant en compte, les contraintes géométriques dérivées de spécifications fonctionnelles et de considérations de fabrication. En plus de cartographier les concepts fondamentaux et les opérations de GeoSpelling avec la géométrie discrète, ce travail propose un modèle de forme discrète intégrant les erreurs aléatoires et systématiques approchées du second ordre. Le concept d'un Skin Model moyen et ses statistiques robustes sont également développés. Une étude de cas plus complète, basée sur un embouti de tôle en forme de croix pour lequel le processus de fabrication est simulé avec des variations stochastiques, permet d’illustrer les résultats des simulations du skin model. Les performances de la méthode sont ensuite évaluées. / The management and the control of product geometrical variations during the whole development process is an important issue for cost reduction, quality improvement and company competitiveness in the global manufacturing era. During the design phase, geometric functional requirements and tolerances are derived from the design intent. Geometric modeling tools, now largely support the modeling of product shapes and dimensions. However, permissible geometrical variations cannot be intuitively assessed using existing modeling tools. In addition, the manufacturing and measurement stages are two main geometrical variations generators according to the two well know axioms of manufacturing imprecision and measurement uncertainty. A comprehensive view of Geometrical Product Specifications should consider not only the complete tolerancing process, tolerance modeling and tolerance representation but also shape geometric representations, and suitable processing techniques and algorithms. GeoSpelling as the basis of the GPS standard enables a comprehensive modeling framework and an unambiguous language to describe geometrical variations covering the overall product life cycle thanks to a set of concepts and operations based on the fundamental concept of the “Skin Model”. However, the “operationalization” of GeoSpelling has not been successfully completed and few research studies have focused on the skin model simulation. The skin model as a discrete shape model is the main focus of this dissertation. We investigate here discrete geometry fundamentals of GeoSpelling, Monte Carlo Simulation Techniques and Statistical Shape Analysis methods to simulate and analyze “realistic shapes” when considering geometrical constraints requirements (derived from functional specifications and manufacturing considerations). In addition to mapping fundamental concepts and operations to discrete geometry one’s, the work presented here investigates a discrete shape model for both random and systematic errors when taking into account second order approximation of shapes. The concept of a mean skin model and its robust statistics are also developed. The results of the skin model simulations and visualizations are reported. By means of a case study based on a cross-shaped sheet metal part where the manufacturing process is simulated using Finite Element Analysis considering stochastic variations, the results of the skin model simulations are shown, and the performances of the method are described.
19

Distributions alpha-stable pour la caractérisation de phénomènes aléatoires observés par des capteurs placés dans un environnement maritime

Fiche, Anthony 19 November 2012 (has links) (PDF)
Le travail réalisé dans le cadre de cette thèse a pour but de caractériser des signaux aléatoires, rencontrés dans le domaine aérien et sous-marin, en s'appuyant sur une approche statistique. En traitement du signal, l'analyse statistique a longtemps été fondée sous l'hypothèse de Gaussianité des données. Cependant, ce modèle n'est plus valide dès lors que la densité de probabilité des données se caractérise par des phénomènes de queues lourdes et d'asymétrie. Une famille de lois est particulièrement adaptée pour représenter de tels phénomènes : les distributions α-stables. Dans un premier temps, les distributions α-stables ont été présentées et utilisées pour estimer des données synthétiques et réelles, issues d'un sondeur monofaisceau, dans une stratégie de classification de fonds marins. La classification est réalisée à partir de la théorie des fonctions de croyance, permettant ainsi de prendre en compte l'imprécision et l'incertitude liées aux données et à l'estimation de celles-ci. Les résultats obtenus ont été comparés à un classifieur Bayésien. Dans un second temps, dans le contexte de la surveillance maritime, une approche statistique à partir des distributions α-stables a été réalisée afin de caractériser les échos indésirables réfléchis par la surface maritime, appelés aussi fouillis de mer, où la surface est observée en configuration bistatique. La surface maritime a d'abord été générée à partir du spectre d'Elfouhaily puis la Surface Équivalente Radar (SER) de celle-ci a été déterminée à partir de l'Optique Physique (OP). Les distributions de Weibull et ont été utilisées et comparées au modèle α-stable. La validité de chaque modèle a été étudiée à partir d'un test de Kolmogorov-Smirnov.
20

Des structures affines à la géométrie de l'information / From affines structures to the Information Geometry

Byande, Paul Mirabeau 07 December 2010 (has links)
Ce mémoire traite des structures affines et de leur rapport à la géométrie de l'information. Nous y introduisons la notion de T-plongement. Il permet de montrer que l'ensemble des structures affines complètes du tore T^2 est une courbe projective de RP^2. En substituant à la contrainte topologique (compacité) une contrainte dynamique (action canonique de Aff_0(1) dans le démi-plan de Poincaré H^2)on démontre que l'ensemble S des structures Aff_0(1)-invariantes dans H^2 est une surface projective connexe dans RP^5 ne contenant aucun point complet. Un de mes résultats remarquables concerne la classification des éléments de S pour la relation d'isomorphisme.Nous exploitons un outil récent: la KV-cohomologie. Outre le rôle fondamental joué par la KV-cohomologie dans l'étude des points rigides dans certains modules des structures affines, elle nous a permis d'aborder avec succès une problématique qui est au centre de la géométrie de l'information. Cette problématique concerne la détermination des structures affines invariantes dans les variétés modèles statistiques qui sont invariantes par toute transformation non singulière de l'espace des paramètres. Celles-ci ont une signification pertinente en statistique. / This dissertation deals with modules of affinely flat structure and with their relationships between these structures and the information geometry. The so-called T-embedding is used to prove that the set of complete locally flat structures is an irreducible projective curve in RP^2. In the same way we prove that the set S of Aff_0(1)-invariant locally flat structure in H^2 is a connected projective surface in RP^5, which does not contain any complete point. We also give the classification up to isomorphism of S. We use the KV-cohomology to study the rigidity problem for locally flat structures. The main concern of information geometry is the study of geometrical invariants in statistical models. We perform the KV-cohomology to bring in control this problem.

Page generated in 0.114 seconds