Spelling suggestions: "subject:"déséquilibre"" "subject:"déséquilibres""
91 |
Optimisation des méthodes statistiques d'analyse de la variabilité des caractères à l'aide d'informations génomiques / Optimization of statistical methods using genomic data for QTL detectionJacquin, Laval 10 October 2014 (has links)
L’avènement du génotypage à haut débit permet aujourd’hui de mieux exploiter le phénomène d’association, appelé déséquilibre de liaison (LD), qui existe entre les allèles de différents loci sur le génome. Dans ce contexte, l’utilité de certains modèles utilisés en cartographie de locus à effets quantitatifs (QTL) est remise en question. Les objectifs de ce travail étaient de discriminer entre des modèles utilisés en routine en cartographie et d’apporter des éclaircissements sur la meilleure façon d’exploiter le LD, par l’utilisation d’haplotypes, afin d’optimiser les modèles basés sur ce concept. On montre que les modèles uni-marqueur de liaison, développés en génétique il y a vingtaine d’années, comportent peu d’intérêts aujourd’hui avec le génotypage à haut débit. Dans ce contexte, on montre que les modèles uni-marqueur d’association comportent plus d’avantages que les modèles uni-marqueur de liaison, surtout pour des QTL ayant un effet petit ou modéré sur le phénotype, à condition de bien maîtriser la structure génétique entre individus. Les puissances et les robustesses statistiques de ces modèles ont été étudiées, à la fois sur le plan théorique et par simulations, afin de valider les résultats obtenus pour la comparaison de l’association avec la liaison. Toutefois, les modèles uni-marqueur ne sont pas aussi efficaces que les modèles utilisant des haplotypes dans la prise en compte du LD pour une cartographie fine de QTL. Des propriétés mathématiques reliées à la cartographie de QTL par l’exploitation du LD multiallélique capté par les modèles haplotypiques ont été explicitées et étudiées à l’aide d’une distance matricielle définie entre deux positions sur le génome. Cette distance a été exprimée algébriquement comme une fonction des coefficients du LD multiallélique. Les propriétés mathématiques liées à cette fonction montrent qu’il est difficile de bien exploiter le LD multiallélique, pour un génotypage à haut débit, si l’on ne tient pas compte uniquement de la similarité totale entre des haplotypes. Des études sur données réelles et simulées ont illustré ces propriétés et montrent une corrélation supérieure à 0.9 entre une statistique basée sur la distance matricielle et des résultats de cartographie. Cette forte corrélation a donné lieu à la proposition d’une méthode, basée sur la distance matricielle, qui aide à discriminer entre les modèles utilisés en cartographie. / The advent of high-throughput genotyping nowadays allows better exploitation of the association phenomenon, called linkage disequilibrium (LD), between alleles of different loci on the genome. In this context, the usefulness of some models to fine map quantitative trait locus (QTL) is questioned. The aims of this work were to discriminate between models routinely used for QTL mapping and to provide enlightenment on the best way to exploit LD, when using haplotypes, in order to optimize haplotype-based models. We show that single-marker linkage models, developed twenty years ago, have little interest today with the advent of high-throughput genotyping. In this context, we show that single-marker association models are more advantageous than single-marker linkage models, especially for QTL with a small or moderate effect on the phenotype. The statistical powers and robustness of these models have been studied both theoretically and by simulations, in order to validate the comparison of single-marker association models with single-marker linkage models. However, single-marker models are less efficient than haplotype-based models for making better use of LD in fine mapping of QTL. Mathematical properties related to the multiallelic LD captured by haplotype-based models have been shown, and studied, by the use of a matrix distance defined between two loci on the genome. This distance has been expressed algebraically as a function of the multiallelic LD coefficients. The mathematical properties related to this function show that it is difficult to exploit well multiallelic LD, for a high-throughput genotyping, if one takes into account the partial and total similarity between haplotypes instead of the total similarity only. Studies on real and simulated data illustrate these properties and show a correlation above 0.9 between a statistic based on the matrix distance and mapping results. Hence a new method, based on the matrix distance, which helps to discriminate between models used for mapping is proposed.
|
92 |
An Efficient Classification Model for Analyzing Skewed Data to Detect Frauds in the Financial Sector / Un modèle de classification efficace pour l'analyse des données déséquilibrées pour détecter les fraudes dans le secteur financierMakki, Sara 16 December 2019 (has links)
Différents types de risques existent dans le domaine financier, tels que le financement du terrorisme, le blanchiment d’argent, la fraude de cartes de crédit, la fraude d’assurance, les risques de crédit, etc. Tout type de fraude peut entraîner des conséquences catastrophiques pour des entités telles que les banques ou les compagnies d’assurances. Ces risques financiers sont généralement détectés à l'aide des algorithmes de classification. Dans les problèmes de classification, la distribution asymétrique des classes, également connue sous le nom de déséquilibre de classe (class imbalance), est un défi très commun pour la détection des fraudes. Des approches spéciales d'exploration de données sont utilisées avec les algorithmes de classification traditionnels pour résoudre ce problème. Le problème de classes déséquilibrées se produit lorsque l'une des classes dans les données a beaucoup plus d'observations que l’autre classe. Ce problème est plus vulnérable lorsque l'on considère dans le contexte des données massives (Big Data). Les données qui sont utilisées pour construire les modèles contiennent une très petite partie de groupe minoritaire qu’on considère positifs par rapport à la classe majoritaire connue sous le nom de négatifs. Dans la plupart des cas, il est plus délicat et crucial de classer correctement le groupe minoritaire plutôt que l'autre groupe, comme la détection de la fraude, le diagnostic d’une maladie, etc. Dans ces exemples, la fraude et la maladie sont les groupes minoritaires et il est plus délicat de détecter un cas de fraude en raison de ses conséquences dangereuses qu'une situation normale. Ces proportions de classes dans les données rendent très difficile à l'algorithme d'apprentissage automatique d'apprendre les caractéristiques et les modèles du groupe minoritaire. Ces algorithmes seront biaisés vers le groupe majoritaire en raison de leurs nombreux exemples dans l'ensemble de données et apprendront à les classer beaucoup plus rapidement que l'autre groupe. Dans ce travail, nous avons développé deux approches : Une première approche ou classifieur unique basée sur les k plus proches voisins et utilise le cosinus comme mesure de similarité (Cost Sensitive Cosine Similarity K-Nearest Neighbors : CoSKNN) et une deuxième approche ou approche hybride qui combine plusieurs classifieurs uniques et fondu sur l'algorithme k-modes (K-modes Imbalanced Classification Hybrid Approach : K-MICHA). Dans l'algorithme CoSKNN, notre objectif était de résoudre le problème du déséquilibre en utilisant la mesure de cosinus et en introduisant un score sensible au coût pour la classification basée sur l'algorithme de KNN. Nous avons mené une expérience de validation comparative au cours de laquelle nous avons prouvé l'efficacité de CoSKNN en termes de taux de classification correcte et de détection des fraudes. D’autre part, K-MICHA a pour objectif de regrouper des points de données similaires en termes des résultats de classifieurs. Ensuite, calculez les probabilités de fraude dans les groupes obtenus afin de les utiliser pour détecter les fraudes de nouvelles observations. Cette approche peut être utilisée pour détecter tout type de fraude financière, lorsque des données étiquetées sont disponibles. La méthode K-MICHA est appliquée dans 3 cas : données concernant la fraude par carte de crédit, paiement mobile et assurance automobile. Dans les trois études de cas, nous comparons K-MICHA au stacking en utilisant le vote, le vote pondéré, la régression logistique et l’algorithme CART. Nous avons également comparé avec Adaboost et la forêt aléatoire. Nous prouvons l'efficacité de K-MICHA sur la base de ces expériences. Nous avons également appliqué K-MICHA dans un cadre Big Data en utilisant H2O et R. Nous avons pu traiter et analyser des ensembles de données plus volumineux en très peu de temps / There are different types of risks in financial domain such as, terrorist financing, money laundering, credit card fraudulence and insurance fraudulence that may result in catastrophic consequences for entities such as banks or insurance companies. These financial risks are usually detected using classification algorithms. In classification problems, the skewed distribution of classes also known as class imbalance, is a very common challenge in financial fraud detection, where special data mining approaches are used along with the traditional classification algorithms to tackle this issue. Imbalance class problem occurs when one of the classes have more instances than another class. This problem is more vulnerable when we consider big data context. The datasets that are used to build and train the models contain an extremely small portion of minority group also known as positives in comparison to the majority class known as negatives. In most of the cases, it’s more delicate and crucial to correctly classify the minority group rather than the other group, like fraud detection, disease diagnosis, etc. In these examples, the fraud and the disease are the minority groups and it’s more delicate to detect a fraud record because of its dangerous consequences, than a normal one. These class data proportions make it very difficult to the machine learning classifier to learn the characteristics and patterns of the minority group. These classifiers will be biased towards the majority group because of their many examples in the dataset and will learn to classify them much faster than the other group. After conducting a thorough study to investigate the challenges faced in the class imbalance cases, we found that we still can’t reach an acceptable sensitivity (i.e. good classification of minority group) without a significant decrease of accuracy. This leads to another challenge which is the choice of performance measures used to evaluate models. In these cases, this choice is not straightforward, the accuracy or sensitivity alone are misleading. We use other measures like precision-recall curve or F1 - score to evaluate this trade-off between accuracy and sensitivity. Our objective is to build an imbalanced classification model that considers the extreme class imbalance and the false alarms, in a big data framework. We developed two approaches: A Cost-Sensitive Cosine Similarity K-Nearest Neighbor (CoSKNN) as a single classifier, and a K-modes Imbalance Classification Hybrid Approach (K-MICHA) as an ensemble learning methodology. In CoSKNN, our aim was to tackle the imbalance problem by using cosine similarity as a distance metric and by introducing a cost sensitive score for the classification using the KNN algorithm. We conducted a comparative validation experiment where we prove the effectiveness of CoSKNN in terms of accuracy and fraud detection. On the other hand, the aim of K-MICHA is to cluster similar data points in terms of the classifiers outputs. Then, calculating the fraud probabilities in the obtained clusters in order to use them for detecting frauds of new transactions. This approach can be used to the detection of any type of financial fraud, where labelled data are available. At the end, we applied K-MICHA to a credit card, mobile payment and auto insurance fraud data sets. In all three case studies, we compare K-MICHA with stacking using voting, weighted voting, logistic regression and CART. We also compared with Adaboost and random forest. We prove the efficiency of K-MICHA based on these experiments
|
93 |
Contribution à la commande d'un onduleur multiniveaux, destinée aux énergies renouvelables, en vue de réduire le déséquilibre dans les réseaux électriques. / Contribution to the control of a multilevel inverter, intended for renewable energies, in order to reduce the imbalance in electrical networksRiachy, Léa 15 December 2017 (has links)
Le travail de cette thèse apporte une contribution aux méthodes de réglage de la tension dans les réseaux électriques. Il s’agit de fournir au réseau la puissance active et surtout la puissance réactive nécessaire pour réguler la tension et aboutir à un système équilibré vue du côté source. Ces puissances sont extraites d’une source d’energie renouvelable : une attention particulière a été portée à l’énergie éolienne raccordée au réseau à travers la Machine Asynchrone à Double Alimentation (MADA) pilotée par des convertisseurs statiques. Le système de contrôle le plus répandu des éoliennes est basé principalement sur la technique d’extraction du maximum de puissance. Cependant, cette technique limite la mise en oeuvre deservices auxiliaires, telle que la participation des éoliennes au réglage de la tension dans le réseau électrique. Pour cela, une nouvelle méthode d’extraction du coefficient de puissance optimal, permettant d’améliorer la participation de la MADA à la régulation de la tension dans le réseau (compensation de la puissance réactive et du déséquilibre), a été développée. Le convertisseur multiniveaux à structure NPC (Neutral Point Clamped) raccordant l’énergie renouvelable au réseau a été étudié. La commande prédictive assurant simulatnément l’amélioration du facteur de puissance, l’équilibrage du réseau électrique et du bus continu du convertisseur NPC a été proposée. Ensuite, l’application de cette commande prédictive a été elargie en lui attribuant plusieurs objectifs : amélioration du facteur de puissance avec équilibrage du réseau, équilibrage du bus continu, minimisation des pertes par commutation et réduction de la tension de mode commun. La minimisation des pertes a été obtenue en proposant une nouvelle stratégie qui consiste à exploiter les datasheets constructeurs donnant l’évolution de l’énergie dissipée durant la commutation en fonction du courant. Ces courbes expérimentales ont été transformées en modèlesmathématiques implémentés dans la commande prédictive. Les résultats de simulation et expérimentaux sont présentés pour évaluer les performances de la méthode proposée. / The work in this research thesis presents a contribution to voltage regulation in electrical networks. By considering adequate active and reactive powers injection into the grid, voltage control and load balancing are provided. These powers are generated from a grid connected renewable energy conversion system : a special attention was paid to the Wind Energy ConversionSystem (WECS) based on Doubly-Fed Induction Generator (DFIG).The typical control strategy for WECS is the maximum power coefficient tracking method. However, this method limits desirable ancillary power services, such as the participation of wind turbines in voltage regulation in the power grid. Therefore, a new method that derives the optimal power coefficient enhancing the participation of WTS in voltage regulation in the network (reactive and unbalanced power compensation), has been developed. The multilevel NPC (Neutral Point Clamped) converter, used for grid interface connection of renewable energy sources systems, has been studied. A predictive control method for the three-level NPC converter, capable of simultaneously compensating the problems of : DC link capacitors voltage balancing, load balancing and power factor correction in the power system, has been proposed. Then, the application of this predictive control was extended to simultaneously achieve multiple objectives: load balancing with power factor correction in the network, DC link capacitors voltage balancing, switching losses minimization and common mode voltage reduction. The switching losses minimization was obtained by proposing a new strategy which consists on exploiting the manufacturer datasheets that gives the evolution of the switching loss energy in function of the circulating current. The experimental curves of the datasheet are expressed in a mathematical model implemented in the predictive control. Simulation and experimental results are presented to evaluate the performance of the proposed method.
|
94 |
Exploring the relationship between on- and off-ice interlimb asymmetries in professional men’s ice-hockeyPearson, Aaron 08 1900 (has links)
Introduction : Les joueurs de hockey sur glace effectuent des mouvements asymétriques en utilisant la rotation du torse et des hanches lors des passes et des tirs. Les asymétries entre les segments corporels peuvent avoir un impact sur la capacité de sprints répétés, la puissance verticale lors de sauts à contre-bas et les performances sportives générales. La force isométrique de la hanche et le saut à contre-bas sont couramment évalués chez les joueurs de hockey sur glace en raison de leurs relations avec les performances en patinage et l'incidence des blessures à l'aine, respectivement. Objectif : Cette étude vise explorer si les asymétries obtenues lors des évaluations des forces isométriques de la hanche et des sauts à contre-bas sont associées à celles observées lors du patinage. Méthodes : Trente-sept joueurs professionnels de l'hockey sur glace ont effectué des évaluations hebdomadaires de force et de saut de la hanche et ont porté des centrales inertielles pendant les séances sur glace tout au long des saisons pré et compétitives. Les accélérations sont mesurées pour les deux jambes et ont été utilisées pour calculer les asymétries inter-membres, en pourcentage. Résultats : Parmi tous les paramètres mesurés, seule l'asymétrie dans le pic de la force de l’attérissage du saut à contre-bas a dépassé 10% pour toutes les positions (22,1%) et par position (21,3% - 22,6%). Les joueurs de centre et à la défense ont mené à plusieurs relations modérées à grandes entre différentes asymétries lors des évaluations hors-glace (r: -0,67 - 0,38, p <0,01). Toutes les positions ont montré des relations modérées à grandes entre la résistance à la hanche et la charge de patinage sur la glace et la force moyenne par foulée (r: -0,32 - 0,56, p <0,05). Les joueurs de centre ont montré des relations modérées entre le saut à contre-bas et des asymétries sur la glace (r: -0,31 - 0,43, p <0,01). Conclusion Cette étude a révélé qu'il existe des relations significatives entre les asymétries sur- et hors glace dans le hockey professionnel masculin. Les résultats de cette étude fournissent également aux intervenants auprès de cette population des valeurs de référence pour les asymétries sur glace et hors glace. / Introduction Ice-hockey players develop asymmetrical movement patterns by favoring rotation through the torso and hips while passing and shooting. Interlimb asymmetries have been shown to affect repeated sprint ability, vertical and horizontal countermovement jump power, and general athletic performance. Isometric hip strength and the countermovement jump are commonly assessed in ice-hockey players because of their relationships with skating performance and incidence of groin injuries, respectively. Purpose: This study explored whether asymmetries returned during isometric hip strength and countermovement jump assessments relate to those from stride-by-stride analyses. Methods: Thirty-seven professional ice-hockey players performed weekly hip strength and jump assessments and wore inertial momentum units during on-ice sessions throughout the pre- and competitive seasons. Data were either available for both limbs and were utilized to calculate inter-limb asymmetries, or as an asymmetry percentage. Results: Among all parameters measured, only the CMJ peak landing force asymmetry exceeded 10% for all positions (22.1%) and by position (21.3% - 22.6%). Centers and Defense positions returned several moderate to large relationships between fitness assessment asymmetries (r: -0.67 – 0.38, p < 0.01). All positions returned moderate to large relationships between hip strength and on-ice skating load and average force per stride (r: -0.32 – 0.56, p < 0.05). Centers returned moderate countermovement jump and on-ice asymmetries (r: -0.31 – 0.43, p < 0.01). Conclusion: This study revealed that significant relationships exist between on- and off-ice asymmetries in men’s professional ice-hockey. The results from this study also provide practitioners with reference values for on- and off-ice asymmetries.
|
95 |
Modélisation physique et simulations numériques des écoulements dans les disjoncteurs électriques haute tensionNichele, Sylvain 13 October 2011 (has links)
Les simulations numériques sont devenues un outil indispensable dans la conception des chambres de coupure des disjoncteurs électriques haute tension. Elles sont utilisées non seulement dans le dimensionnement des différentes pièces, mais elles fournissent également une aide précieuse dans la compréhension des phénomènes intervenant entre les deux électrodes au moment de la coupure. L’arc électrique généré entre ces deux électrodes rassemble de nombreux domaines de la physique plus ou moins complexes. Tous ces phénomènes ne sont pas encore parfaitement compris. Avec l’évolution de la puissance de calcul, ces simulations peuvent prendre en compte de plus en plus de phénomènes. Mais pour des raisons de temps de développement, la question des phénomènes à prendre en compte dans ces simulations se pose. Le but de telles simulations est de déterminer de manière rapide si une configuration est plus ou moins capable qu’une autre de couper sous une contrainte donnée. Ainsi, il est important de prendre en compte uniquement les phénomènes physiques importants et nécessaires pour avoir une réponse la plus décisive possible et la plus rapide possible, de la réussite ou non à la coupure d’une configuration testée. Dans cette thèse, nous nous sommes particulièrement intéressés aux déséquilibres thermiques et chimiques qui pourraient intervenir dans les disjoncteurs électriques haute tension au moment de la coupure. En effet, pour des raisons de temps et de coût de calcul, la plupart des simulations numériques actuelles sont réalisées en faisant une hypothèse forte : l’hypothèse d’Equilibre Thermodynamique Local (ETL). Cette hypothèse consiste à considérer que dans chaque maille de notre domaine d’étude et à chaque pas de temps, on a un équilibre thermodynamique réalisé. Faire cette hypothèse nous permet d’utiliser les lois de conservation (masse, quantité de mouvement et énergie) en allégeant le problème. Mais en réalité, cette hypothèse est mise à mal dès que l’on est en présence de forts gradients de température ou de densité. Pour réaliser ces simulations, le code numérique CARBUR a été utilisé. Des modules d’arc électrique (effet Joule et rayonnement) et d’électrode mobile ont été implémentés afin de pouvoir simuler au mieux le comportement du gaz présent dans les disjoncteurs électriques haute tension. Six études différentes ont été réalisées et sont présentées. Ces études portent sur les influences de la forme du bout des électrodes, d’une modélisation en Navier-Stokes par rapport à une modélisation en Euler, de la nature du gaz (SF6, CO2 et N2), du déséquilibre thermique dans le cas de l’azote ou encore du positionnement des termes sources de l’arc électrique dans les différentes équations d’évolution des énergies. Dans ce travail, une étude sur différents modèles cinétiques chimiques est proposée. Dans ces modèles, 5 espèces chimiques sont présentes : N2, N, N+, N2+ et e-. En ce qui concerne la température, on en distingue 4 : T, TVib-N2, TVib-N2+ et Te. / The numerical simulations are become a very important tool to design the high voltage circuit breaker (HVCB) chamber. They help for the understanding of the different phenomena which can take place between the 2 electrodes during an interruption process. The electric arc brings together many fields of physics more or less complex and many of these phenomena are still poorly studied. So many aspects remain to be explored to improve simulations. With the increase of the calculation power, these numerical simulations can take into account more phenomena. However, for reasonable simulation times, we need to know which phenomena are preponderant. The aim of these numerical simulations is to rapidly conclude on the capacity of geometry to success an interruption process compared to different other geometries, under a given stress. In this PhD dissertation, we are particularly interested on thermal and chemical non equilibrium that can occur in HVCB during an interruption process. Currently, most simulations are carried out with a strong hypothesis: the hypothesis of Local Thermodynamic Equilibrium (LTE). This assumption allows us to alleviate the problem and to reduce the computing time. But this assumption becomes not valid when high temperature or density gradients occur. To do these simulations, the CARBUR numerical code has been used. In order to simulate flow behaviors in HVCB, an electrical arc (Joule effect and radiation) model and a module of mobile electrode have been added. Six different studies have been done and are presented: influence of the electrode shape, influence of the Navier-Stokes equations compared to the Euler equations, influence of the gas (SF6, CO2 et N2), influence of the thermal non equilibrium in a nitrogen case, influence of the position of the arc source terms in the different energy equations. In this work, a study on different nitrogen chemical kinetics is proposed. In these models, 5 chemical species are distinguished: N2, N, N+, N2+ and e-. Finally, 4 different temperatures are used: T, TVib-N2, TVib-N2+ and Te.
|
96 |
Les abus de puissance économique dans les relations commerciales déséquilibrées / The abuses of economic power in unequal commercial relationshipsPark, Sehwan 26 September 2017 (has links)
La loi doit trouver le moyen de prévenir et sanctionner de façon efficiente les abus de puissance économique constatés dans les relations commerciales déséquilibrés mais sans provoquer d’effets pervers sur le marché et sans ruiner l’efficacité des autres règles relevant du droit de la concurrence. Lorsque les rapports de force entre les parties sont particulièrement déséquilibrés, la partie forte peut imposer des conditions inégales à la partie faible, notamment à la faveur du « facteur crainte ». En effet, tant que le contrat est en cours d’exécution, la partie faible ne réagit pas de peur que la relation commerciale ne se termine. De ce fait, en dépit de la présence de nombreux textes réprimant les abus, la réalité montre qu’ils ne cessent de se répandre. Le législateur agit généralement dans la précipitation, abuse de palliatifs et néglige la faculté d’adaptation des entreprises les plus puissantes qui trouvent souvent le moyen de contourner les règles. En définitive, seul un marché plus équilibré, c’est-à-dire moins concentré, permettrait de remédier durablement aux abus de puissance économique. Dans ces conditions, la mise en place d’une véritable injonction structurelle mériterait d’être de nouveau envisagée. Le présent travail se propose de comparer les principales mesures de prévention et de sanction des abus mises en place en France et en Corée du sud qui, face à un phénomène similaire, adoptent parfois des réponses différentes. / Competition provisions seek to regulate the abuse of economic power in unequal commercial relationships. However, in the process, such provisions should not have the effect of adversely impacting the market or harming the proper functioning of other competition rules. When there exists a significant power disparity between parties, the stronger party can impose unequal conditions on the weaker party, particularly through what is called the "fear factor". During the duration of the contractial relationship, the weaker party will not be able to stand up to the stronger party in fear of the commercial relationship being terminated. This is why oppressive behaviors continue in reality, despite the presence of numerous regulations designed to prevent such behaviors. Law makers have a tendency to react by hastily enacting ad hoc regulations. The adaptability of powerful corporations to circumvent the rules is often overlooked. Ultimately, abuses of economic power can only be regulated on a sustainable basis through the creation of a more balanced and less concentrated market. It is in this context that a truly structural approach should be considered. This analysis compares the principal measures against abuses of economic power employed in France and Korea, which sometimes adopt different responses to similar circumstances.
|
97 |
La consanguinité à l'ère du génome haut-débit : estimations et applications / Consanguinity in the High-Throughput Genome Era : Estimations and ApplicationsGazal, Steven 24 June 2014 (has links)
Un individu est dit consanguin si ses parents sont apparentés et s’il existe donc dans sa généalogie au moins une boucle de consanguinité aboutissant à un ancêtre commun. Le coefficient de consanguinité de l’individu est par définition la probabilité pour qu’à un point pris au hasard sur le génome, l’individu ait reçu deux allèles identiques par descendance qui proviennent d’un seul allèle présent chez un des ancêtres communs. Ce coefficient de consanguinité est un paramètre central de la génétique qui est utilisé en génétique des populations pour caractériser la structure des populations, mais également pour rechercher des facteurs génétiques impliqués dans les maladies. Le coefficient de consanguinité était classiquement estimé à partir des généalogies, mais des méthodes ont été développées pour s’affranchir des généalogies et l’estimer à partir de l’information apportée par des marqueurs génétiques répartis sur l’ensemble du génome.Grâce aux progrès des techniques de génotypage haut-débit, il est possible aujourd’hui d’obtenir les génotypes d’un individu sur des centaines de milliers de marqueurs et d’utiliser ces méthodes pour reconstruire les régions d’identité par descendance sur son génome et estimer un coefficient de consanguinité génomique. Il n’existe actuellement pas de consensus sur la meilleure stratégie à adopter sur ces cartes denses de marqueurs en particulier pour gérer les dépendances qui existent entre les allèles aux différents marqueurs (déséquilibre de liaison). Dans cette thèse, nous avons évalué les différentes méthodes disponibles à partir de simulations réalisées en utilisant de vraies données avec des schémas de déséquilibre de liaison réalistes. Nous avons montré qu’une approche intéressante consistait à générer plusieurs sous-cartes de marqueurs dans lesquelles le déséquilibre de liaison est minimal, d’estimer un coefficient de consanguinité sur chacune des sous-cartes par une méthode basée sur une chaîne de Markov cachée implémentée dans le logiciel FEstim et de prendre comme estimateur la médiane de ces différentes estimations. L’avantage de cette approche est qu’elle est utilisable sur n’importe quelle taille d’échantillon, voire sur un seul individu, puisqu’elle ne demande pas d’estimer les déséquilibres de liaison. L’estimateur donné par FEstim étant un estimateur du maximum de vraisemblance, il est également possible de tester si le coefficient de consanguinité est significativement différent de zéro et de déterminer la relation de parenté des parents la plus vraisemblable parmi un ensemble de relations. Enfin, en permettant l’identification de régions d’homozygoties communes à plusieurs malades consanguins, notre stratégie peut permettre l’identification des mutations récessives impliquées dans les maladies monogéniques ou multifactorielles.Pour que la méthode que nous proposons soit facilement utilisable, nous avons développé le pipeline, FSuite, permettant d’interpréter facilement les résultats d’études de génétique de populations et de génétique épidémiologique comme illustré sur le panel de référence HapMap III, et sur un jeu de données cas-témoins de la maladie d’Alzheimer. / An individual is said to be inbred if his parents are related and if his genealogy contains at least one inbreeding loop leading to a common ancestor. The inbreeding coefficient of an individual is defined as the probability that the individual has received two alleles identical by descent, coming from a single allele present in a common ancestor, at a random marker on the genome. The inbreeding coefficient is a central parameter in genetics, and is used in population genetics to characterize the population structure, and also in genetic epidemiology to search for genetic factors involved in recessive diseases.The inbreeding coefficient was traditionally estimated from genealogies, but methods have been developed to avoid genealogies and to estimate this coefficient from the information provided by genetic markers distributed along the genome.With the advances in high-throughput genotyping techniques, it is now possible to genotype hundreds of thousands of markers for one individual, and to use these methods to reconstruct the regions of identity by descent on his genome and estimate a genomic inbreeding coefficient. There is currently no consensus on the best strategy to adopt with these dense marker maps, in particular to take into account dependencies between alleles at different markers (linkage disequilibrium).In this thesis, we evaluated the different available methods through simulations using real data with realistic patterns of linkage disequilibrium. We highlighted an interesting approach that consists in generating several submaps to minimize linkage disequilibrium, estimating an inbreeding coefficient of each of the submaps based on a hidden Markov method implemented in FEstim software, and taking as estimator the median of these different estimates. The advantage of this approach is that it can be used on any sample size, even on an individual, since it requires no linkage disequilibrium estimate. FEstim is a maximum likelihood estimator, which allows testing whether the inbreeding coefficient is significantly different from zero and determining the most probable mating type of the parents. Finally, through the identification of homozygous regions shared by several consanguineous patients, our strategy permits the identification of recessive mutations involved in monogenic and multifactorial diseases.To facilitate the use of our method, we developed the pipeline FSuite, to interpret results of population genetics and genetic epidemiology studies, as shown on the HapMap III reference panel, and on a case-control Alzheimer's disease data.
|
98 |
Etude sur les clauses limitatives ou exonératoires de responsabilité / Limitation and exclusion clausesLeveneur-Azémar, Marie 14 September 2016 (has links)
Présentes dans de nombreux domaines, les clauses limitatives de réparation et les clauses exonératoires de responsabilité constituent une pratique très courante. Si elles se rencontrent le plus souvent en matière contractuelle, ces conventions peuvent également aménager la responsabilité extracontractuelle d’un potentiel responsable qui connaîtrait déjà la victime éventuelle, tel un voisin ou un cotraitant dans la réalisation d’un ouvrage. Malgré leur utilité et leur fréquence pratique, ces clauses pâtissent aujourd’hui d’un régime incertain, qui suscite nombre d’interrogations, tant en matière contractuelle qu’extracontractuelle. Pour savoir si une clause limitative ou exonératoire de responsabilité peut jouer en faveur du responsable, il faut dans un premier temps vérifier sa validité. Or, tant les droits spéciaux (droit des transports, droit de la consommation…) que la jurisprudence (notamment l’arrêt Chronopost) ont porté de multiples atteintes aux règles classiques de validité de ces stipulations. Il est dès lors nécessaire d’instaurer des directives renouvelées afin de clarifier cette question primordiale. Dans un second temps, il n’est pas certain que la clause relative à la responsabilité, pourtant valable, puisse déployer tous ses effets. L’efficacité de ces stipulations revêt ainsi une grande importance. Cependant, là encore, les règles de paralysie en cas de faute qualifiée du responsable, ainsi que celles qui gouvernent l’opposabilité des clauses aux tiers victimes d’un dommage causé par un manquement contractuel, méritent d’être rénovées pour balayer les incertitudes qui jalonnent aujourd’hui la matière. À l’heure où le droit de la responsabilité civile est en passe d’être réformé, cette étude propose un nouveau régime applicable aux clauses relatives à la responsabilité pour que la notion recouvre sa fonction de véritable outil de prévisibilité pour les parties. / Limitation and exclusion clauses constitute a very common practice in many areas. Although they are more often used in the contractual field, these agreements can also change tort liability of a potential tortfeasor who would already know the potential victim, as a neighbour or a consortium member. Nowadays, despite their utility and practical frequency, these stipulations suffer from an uncertain regime, that gives rise to questions, as much in contractual field as in tort field. Firstly, to know whether an exclusion clause can be invoked by the responsible, we need to verify its validity. Yet, both laws in different fields (transport law, consumer law …) and case law (especially the famous Chronopost case) have affected the classic rules of validity of these stipulations. There is therefore a need to establish new guidelines to clarify this important question. Secondly, it is not certain that the exclusion clause, however valid, will apply. The effectiveness of these provisions is also of great importance. Nevertheless, the rules governing the paralysis in case of gross fault from the responsible and those who regulate the enforceability of clauses to third parties, victims of a damage caused by a breach of contract, should be renovated to sweep away the uncertainties that confuse the subject. At a time when French civil liability law is about to be reformed, this study proposes a new regime for exclusion and limitation clauses in order to restore their true function of foreseeability for parties.
|
99 |
Les effets de la diversification sur le risque de change non couvert par les marchés financiers : estimation de la rentabilité du portefeuille dans un système d'informatio optimal / The effects of diversification on the currency risk is not covered by the financial markets : estimate of the profitability of the portfolio information system optimalBoukrami, Othmane 09 June 2011 (has links)
Dans les conditions actuelles du marché, les entreprises dans les pays émergeants ont le choix entre une dette à court terme en monnaie locale et un financement à long terme en devise forte provenant de sources internationales pour financer leurs investissements à long terme. Ceci crée un gap de taux ou de change. Cette thèse se situe dans la continuité des travaux de recherche qui ont déjà étudié la question de la diversification des risques de change dans les marchés financiers matures. A la différence des approches existantes, cette recherche se concentre sur les monnaies des pays émergeants pour lesquels il n’existe pas ou peu d’instruments de couverture du risque de change et de taux. Le modèle proposé repose sur une conception fondamentalement différente des modèles de risque existants, cherchant à atténuer les risques internes grâce à la diversification du portefeuille, plutôt que par l’adéquation entre l'offre et la demande. Ceci en étudiant à la fois les corrélations entre les monnaies des pays des marchés émergeants constituées dans un portefeuille composé de monnaies des pays africains, asiatiques, sud-américains et d’Europe de l’Est ainsi que l’effet de la diversification sur la réduction du risque de marché. Le choix des monnaies n’a pas une incidence significative sur les résultats du moment que les limites régionales proposées sont respectées. L’objectif principal de cette thèse est de contribuer à la spécification et à l’identification d’un modèle de diversification des risques tout en démontrant que la constitution d’un portefeuille diversifié et non couvert des produits dérivés de change sur les monnaies des marchés émergents est une activité lucrative à long terme. En s’appuyant sur un Système d’Information performant, le model proposé tente de démontrer l’effet qu’auraient de tels produits de couverture sur la réduction du risque de crédit de l’emprunteur et par conséquent celui des bailleurs de fonds. Afin d’atteindre cet objectif, les différents risques liés à ces activités ont été définis tout en choisissant les méthodes pour une gestion efficace de ces risques ainsi que la modélisation d’expositions hypothétiques créées par cette activité. L’impact de la réduction de l’exposition au risque de marché par l’usage des produits de couverture du risque de change et de taux, sur le risque de crédit des entreprises dans les pays émergeants a aussi été modélisé. Les résultats de la simulation proposée montrent qu’une gestion optimale des risques de changes et de taux générés, à travers l’offre de couvertures sur les monnaies des pays émergeants, peut être une activité lucrative pour les banques car l’atténuation des risques peut se faire en diversifiant efficacement le portefeuille. / In current market conditions, companies in emerging markets have the choice between a short-term debt in local currency and a long-term hard currency financing from international sources to finance their long-term investments. This practice would create either an interest rate gap or a currency gap. As an extent of previous researches and studies covering the question of currency risks diversification in mature financial markets, this thesis is quite distinctive from the existing literature as it focuses on emerging market currencies for which there are little or no hedging options of currency and interest rate risks. The proposed model is based on a fundamentally different approach from existing risk models, seeking to mitigate risks internally through portfolio diversification, rather than by matching supply and demand. This, by analyzing both correlations between emerging market currencies in a portfolio composed of African, Asian, South American and Eastern Europe currencies and the effect of diversification on market risk reduction. The main objective of this thesis is to contribute to the specification and the identification of a risk diversification model while demonstrating that the establishment of a diversified portfolio of emerging market currencies not covered by the commercial banks is a lucrative business over the long-term. With an efficient information system, the proposed model attempts to demonstrate the effect that such hedging products would have on reducing the credit risk of borrowers and hence the lenders. To achieve this aim, the different risks associated with these activities have been identified while choosing the methods for their effective management as well as the modeling of hypothetical exposures created by this activity. The impact of reducing market risk exposure through the usage of interest rate and currency hedging products on the credit risk rating of companies in emerging countries has also been modeled. The current research claims that the choice of currencies does not significantly impact the results as long as the proposed regional limits are respected. The simulation’ results show that managing a diversified currency portfolio under an optimal risk management guidelines can be a lucrative business for banks as the risk mitigation can be effectively done through portfolio diversification.
|
100 |
Theoretical and experimental study of optical solutions for analog-to-digital conversion of high bit-rate signals / Étude théorique et expérimentale de techniques optiques pour la conversion analogique-numérique de signaux de communication à très haut débitNguyen, Trung-Hiên 19 November 2015 (has links)
Les formats de modulation bidimensionnels (i.e. basés sur l’amplitude et la phase de l’onde porteuse) ont gagné depuis peu le domaine des transmissions par fibre optique grâce aux progrès conjoints de l’électronique rapide et du traitement du signal, indispensables pour réaliser les récepteurs opto-électroniques utilisant la détection cohérente des signaux optiques. Pour pallier les limites actuelles en rapidité de commutation des circuits intégrés électroniques, une voie de recherche a été ouverte il y a quelques années, consistant à utiliser des technologies optiques pour faciliter la parallélisation du traitement du signal, notamment dans l’étape d’échantillonnage ultra-rapide du signal rendu possible par des horloges optiques très performantes. Le thème principal de cette thèse concerne l’étude théorique et expérimentale de la fonction de conversion analogique-numérique (ADC) de signaux optiques par un récepteur opto-électronique cohérent, associant les étapes d’échantillonnage optique linéaire, de conversion analogique-numérique et de traitement du signal. Un prototype, utilisant une solution originale pour la source d’échantillonnage, est modélisé, réalisé et caractérisé, permettant la reconstruction temporelle de signaux optiques modulés selon divers formats : NRZ, QPSK, 16-QAM. Les limitations optiques et électroniques du système sont analysées, notamment l’impact sur la reconstruction des signaux de divers paramètres : le taux d’extinction de la source optique, les paramètres de l’ADC (bande passante BW, temps d’intégration et nombre effectif de bits ENOB). Par ailleurs, de nouveaux algorithmes de traitement du signal sont proposés dans le cadre de la transmission optique cohérente à haut débit utilisant des formats de modulation bidimensionnels (amplitude et phase) : deux solutions sont proposées pour la compensation du déséquilibre de quadrature IQ dans les transmissions mono-porteuses: une méthode originale de l’estimation du maximum du rapport signal sur bruit ainsi qu’une nouvelle structure de compensation et d’égalisation conjointes; ces deux méthodes sont validées expérimentalement et numériquement avec un signal 16-QAM. Par ailleurs, une solution améliorée de récupération de porteuse (décalage de fréquence et estimation de la phase), basée sur une décomposition harmonique circulaire de la fonction de maximum de vraisemblance logarithmique, est validée numériquement pour la première fois dans le contexte des transmissions optiques (jusqu’à une modulation de 128-QAM). Enfin les outils développés dans ce travail ont finalement permis la démonstration d’une transmission sur 100 km d’un signal QPSK à 10 Gbaud fortement limité par un bruit de phase non linéaire et régénéré optiquement à l’aide d’un limiteur de puissance préservant la phase basé sur une nanocavité de cristal photonique. / Bi-dimensional modulation formats based on amplitude and phase signal modulation, are now commonly used in optical communications thanks to breakthroughs in the field of electronic and digital signal processing (DSP) required in coherent optical receivers. Photonic solutions could compensate for nowadays limitations of electrical circuits bandwidth by facilitating the signal processing parallelization. Photonic is particularly interesting for signal sampling thanks to available stable optical clocks. The heart of the present work concerns analog-to-digital conversion (ADC) as a key element in coherent detection. A prototype of linear optical sampling using an original solution for the optical sampling source, is built and validated with the successful equivalent time reconstruction of NRZ, QPSK and 16-QAM signals. Some optical and electrical limitations of the system are experimentally and numerically analyzed, notably the extinction ratio of the optical source or the ADC parameters (bandwidth, integration time, effective number of bits ENOB). Moreover, some new DSPs tools are developed for optical transmission using bi-dimensional modulation formats (amplitude and phase). Two solutions are proposed for IQ quadrature imbalance compensation in single carrier optical coherent transmission: an original method of maximum signal-to-noise ratio estimation (MSEM) and a new structure for joint compensation and equalization; these methods are experimentally and numerically validated with 16-QAM signals. Moreover, an improved solution for carrier recovery (frequency offset and phase estimation) based on a circular harmonic expansion of a maximum loglikelihood function is studied for the first time in the context of optical telecommunications. This solution which can operate with any kind of bi-dimensional modulation format signal is numerically validated up to 128-QAM. All the DSP tools developed in this work are finally used in a demonstration of a 10 Gbaud QPSK 100 km transmission experiment, featuring a strong non-linear phase noise limitation and regenerated using a phase preserving and power limiting function based on a photonic crystal nanocavity.
|
Page generated in 0.0523 seconds