• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 945
  • 444
  • 93
  • 3
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 1531
  • 381
  • 293
  • 274
  • 226
  • 202
  • 192
  • 179
  • 153
  • 147
  • 143
  • 142
  • 142
  • 139
  • 136
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
331

Influence of Network topology on the onset of long-range interaction / Lien entre le seuil d'interaction à longue-portée et la topologie des réseaux.

De Nigris, Sarah 10 June 2014 (has links)
Dans cette thèse, nous discutons l'influence d'un réseau qui possède une topologie non triviale sur les propriétés collectives d'un modèle hamiltonien pour spins,le modèle $XY$, défini sur ces réseaux.Nous nous concentrons d'abord sur la topologie des chaînes régulières et du réseau Petit Monde (Small World), créé avec le modèle Watt- Strogatz.Nous contrôlons ces réseaux par deux paramètres $\gamma$, pour le nombre d' interactions et $p$, la probabilité de ré-attacher un lien aléatoirement.On définit deux mesures, le chemin moyen $\ell$ et la connectivité $C$ et nous analysons leur dépendance de $(\gamma,p)$.Ensuite,nous considérons le comportement du modèle $XY$ sur la chaîne régulière et nous trouvons deux régimes: un pour $\gamma<1,5$,qui ne présente pas d'ordre longue portée et un pour $\gamma>1,5$ où une transition de phase du second ordre apparaît.Nous observons l'existence d'un état ​​métastable pour $\gamma_ {c} = 1,5$. Sur les réseaux Petit Monde,nous illustrons les conditions pour avoir une transition et comment son énergie critique $\varepsilon_{c}(\gamma,p)$ dépend des paramètres $(\gammap$).Enfin,nous proposons un modèle de réseau où les liens d'une chaîne régulière sont ré-attachés aléatoirement avec une probabilité $p$ dans un rayon spécifique $r$. Nous identifions la dimension du réseau $d(p,r)$ comme un paramètre crucial:en le variant,il nous est possible de passer de réseaux avec $d<2$ qui ne présentent pas de transition de phase à des configurations avec $d>2$ présentant une transition de phase du second ordre, en passant par des régimes de dimension $d=2$ qui présentent des états caractérisés par une susceptibilité infinie et une dynamique chaotique. / In this thesis we discuss the influence of a non trivial network topology on the collective properties of an Hamiltonian model defined on it, the $XY$ -rotors model. We first focus on networks topology analysis, considering the regular chain and a Small World network, created with the Watt-Strogatz model. We parametrize these topologies via $\gamma$, giving the vertex degree and $p$, the probability of rewiring. We then define two topological parameters, the average path length $\ell$and the connectivity $C$ and we analize their dependence on $\gamma$ and $p$. Secondly, we consider the behavior of the $XY$- model on the regular chain and we find two regimes: one for $\gamma<1.5$, which does not display any long-range order and one for $\gamma>1.5$ in which a second order phase transition of the magnetization arises. Moreover we observe the existence of a metastable state appearing for $\gamma_{c}=1.5$. Finally we illustrate in what conditions we retrieve the phase transition on Small World networks and how its critical energy $\varepsilon_{c}(\gamma,p)$ depends on the topological parameters $\gamma$ and $p$. In the last part, we propose a network model in which links of a regular chain are rewired according to a probability $p$ within a specific range $r$. We identify a quantity, the network dimension $d(p,r)$ as a crucial parameter. Varying this dimension we are able to cross over from topologies with $d<2$ exhibiting no phase transitions to ones with $d>2$ displaying a second order phase transition, passing by topologies with dimension $d=2$ which exhibit states characterized by infinite susceptibility and macroscopic chaotic dynamical behavior.
332

Méthodes d'apprentissage statistique pour le criblage virtuel de médicament / Machine learning approaches for drug virtual screening

Playe, Benoit 02 July 2019 (has links)
Le processus de découverte de médicaments a un succès limité malgré tous les progrès réalisés. En effet, on estime actuellement que le développement d'un médicament nécessite environ 1,8 milliard de dollars américains sur environ 13 ans. Nous nous concentrons dans cette thèse sur des approches statistiques qui criblent virtuellement un grand ensemble de composés chimique contre un grand nombre de protéines. Leurs applications sont polyvalentes : elles permettent d’identifier des candidats médicaments pour des cibles thérapeutiques connues, d’anticiper des effets secondaires potentiels, ou de proposer de nouvelles indications thérapeutiques pour des médicaments connus. Cette thèse est conçue selon deux cadres d'approches de criblage virtuel : les approches dans lesquelles les données sont décrites numériquement sur la base des connaissances des experts, et les approches basées sur l'apprentissage automatique de la représentation numérique à partir du graphe moléculaire et de la séquence protéique. Nous discutons ces approches et les appliquons pour guider la découverte de médicaments. / The rational drug discovery process has limited success despite all the advances in understanding diseases, and technological breakthroughs. Indeed, the process of drug development is currently estimated to require about 1.8 billion US dollars over about 13 years on average. Computational approaches are promising ways to facilitate the tedious task of drug discovery. We focus in this thesis on statistical approaches which virtually screen a large set of compounds against a large set of proteins, which can help to identify drug candidates for known therapeutic targets, anticipate potential side effects or to suggest new therapeutic indications of known drugs. This thesis is conceived following two lines of approaches to perform drug virtual screening : data-blinded feature-based approaches (in which molecules and proteins are numerically described based on experts' knowledge), and data-driven feature-based approaches (in which compounds and proteins numerical descriptors are learned automatically from the chemical graph and the protein sequence). We discuss these approaches, and also propose applications of virtual screening to guide the drug discovery process.
333

Conception, développement et analyse de systèmes de fonction booléennes décrivant les algorithmes de chiffrement et de déchiffrement de l'Advanced Encryption Standard / Design, development and analysis of Boolean function systems describing the encryption and decryption algorithms of the Advanced Encryption Standard

Dubois, Michel 24 July 2017 (has links)
La cryptologie est une des disciplines des mathématiques, elle est composée de deux sous-ensembles: la cryptographie et la cryptanalyse. Tandis que la cryptographie s'intéresse aux algorithmes permettant de modifier une information afin de la rendre inintelligible sans la connaissance d'un secret, la seconde s'intéresse aux méthodes mathématiques permettant de recouvrer l'information originale à partir de la seule connaissance de l'élément chiffré.La cryptographie se subdivise elle-même en deux sous-ensembles: la cryptographie symétrique et la cryptographie asymétrique. La première utilise une clef identique pour les opérations de chiffrement et de déchiffrement, tandis que la deuxième utilise une clef pour le chiffrement et une autre clef, différente de la précédente, pour le déchiffrement. Enfin, la cryptographie symétrique travaille soit sur des blocs d'information soit sur des flux continus d'information. Ce sont les algorithmes de chiffrement par blocs qui nous intéressent ici.L'objectif de la cryptanalyse est de retrouver l'information initiale sans connaissance de la clef de chiffrement et ceci dans un temps plus court que l'attaque par force brute. Il existe de nombreuses méthodes de cryptanalyse comme la cryptanalyse fréquentielle, la cryptanalyse différentielle, la cryptanalyse intégrale, la cryptanalyse linéaire...Beaucoup de ces méthodes sont maintenues en échec par les algorithmes de chiffrement modernes. En effet, dans un jeu de la lance et du bouclier, les cryptographes développent des algorithmes de chiffrement de plus en plus efficaces pour protéger l'information chiffrée d'une attaque par cryptanalyse. C'est le cas notamment de l'Advanced Encryption Standard (AES). Cet algorithme de chiffrement par blocs a été conçu par Joan Daemen et Vincent Rijmen et transformé en standard par le National Institute of Standards and Technology (NIST) en 2001. Afin de contrer les méthodes de cryptanalyse usuelles les concepteurs de l'AES lui ont donné une forte structure algébrique.Ce choix élimine brillamment toute possibilité d'attaque statistique, cependant, de récents travaux tendent à montrer, que ce qui est censé faire la robustesse de l'AES, pourrait se révéler être son point faible. En effet, selon ces études, cryptanalyser l'AES se ``résume'' à résoudre un système d'équations quadratiques symbolisant la structure du chiffrement de l'AES. Malheureusement, la taille du système d'équations obtenu et le manque d'algorithmes de résolution efficaces font qu'il est impossible, à l'heure actuelle, de résoudre de tels systèmes dans un temps raisonnable.L'enjeu de cette thèse est, à partir de la structure algébrique de l'AES, de décrire son algorithme de chiffrement et de déchiffrement sous la forme d'un nouveau système d'équations booléennes. Puis, en s'appuyant sur une représentation spécifique de ces équations, d'en réaliser une analyse combinatoire afin d'y détecter d'éventuels biais statistiques. / Cryptology is one of the mathematical fields, it is composed of two subsets: cryptography and cryptanalysis. While cryptography focuses on algorithms to modify an information by making it unintelligible without knowledge of a secret, the second focuses on mathematical methods to recover the original information from the only knowledge of the encrypted element.Cryptography itself is subdivided into two subsets: symmetric cryptography and asymmetric cryptography. The first uses the same key for encryption and decryption operations, while the second uses one key for encryption and another key, different from the previous one, for decryption. Finally, symmetric cryptography is working either on blocks of information either on continuous flow of information. These are algorithms block cipher that interests us here.The aim of cryptanalysis is to recover the original information without knowing the encryption key and this, into a shorter time than the brute-force attack. There are many methods of cryptanalysis as frequency cryptanalysis, differential cryptanalysis, integral cryptanalysis, linear cryptanalysis...Many of these methods are defeated by modern encryption algorithms. Indeed, in a game of spear and shield, cryptographers develop encryption algorithms more efficient to protect the encrypted information from an attack by cryptanalysis. This is the case of the Advanced Encryption Standard (AES). This block cipher algorithm was designed by Joan Daemen and Vincent Rijmen and transformed into standard by the National Institute of Standards and Technology (NIST) in 2001. To counter the usual methods of cryptanalysis of AES designers have given it a strong algebraic structure.This choice eliminates brilliantly any possibility of statistical attack, however, recent work suggests that what is supposed to be the strength of the AES, could prove to be his weak point. According to these studies, the AES cryptanalysis comes down to ``solve'' a quadratic equations symbolizing the structure of the AES encryption. Unfortunately, the size of the system of equations obtained and the lack of efficient resolution algorithms make it impossible, at this time, to solve such systems in a reasonable time.The challenge of this thesis is, from the algebraic structure of the AES, to describe its encryption and decryption processes in the form of a new Boolean equations system. Then, based on a specific representation of these equations, to achieve a combinatorial analysis to detect potential statistical biases.
334

Sequence encoding in preverbal infants : an electrophysiological perspective / Représentations mentales de séquences chez le nourrisson : une approche en électrophysiologie

Kabdebon, Claire 13 December 2016 (has links)
A ce jour, seul le cerveau du nourrisson est capable d’appréhender et de maîtriser la complexité du langage humain. La recherche en psychologie du développement a investi beaucoup d’énergie pour tenter de percer le mystère de l’acquisition du langage, révélant d’impressionnantes capacités précoces permettant le traitement et la représentation de la parole. La récente émergence de techniques de neuro-imagerie non-invasives offre aujourd’hui de nouveaux outils et de nouvelles perspectives pour d’étude des mécanismes d’apprentissage du langage. Cette thèse a pour but d’explorer les mécanismes permettant l’acquisition et la représentation de structures linguistiques, grâce à une approche en électrophysiologie. La première partie de ce manuscrit consiste en une contribution méthodologique à la neuro-imagerie du développement. Sur la base de données acquises en imagerie par résonnance magnétique (IRM), nous avons localisé les positions du système international 10/20 pour le placement d’électrodes – utilisé aussi bien en électroencéphalographie (EEG) qu’en spectroscopie proche infra-rouge (NIRS) – par rapport aux structures cérébrales internes. Cette étude a permis de quantifier la variabilité interindividuelle de ces positions, mais également de construire un modèle de cerveau complété d’un atlas anatomique pour le nourrisson. Dans une seconde partie de cette thèse, grâce à l’EEG haute-densité, nous avons pu démontrer que dès 8 mois, les nourrissons étaient capables de mettre en œuvre de puissance mécanismes d’analyse statistique, permettant d’extraire les dépendances entre syllabes non-adjacentes, pour segmenter un flux continu de parole en unités distinctes. L’analyse des réponses neurales a révélé une hiérarchie de processus cérébraux soutenant le traitement des syllabes mais aussi des unités segmentées. Enfin, dans une dernière partie, nous proposons un paradigme expérimental permettant d’étudier non seulement l’extraction mais aussi la représentation de séquences linguistiques sous la forme d’expressions unifiées. Nous avons pu établir grâce à cette étude que dès 5 mois, les nourrissons étaient capables de former de solides représentations de séquences définies par des répétitions, leur permettant de catégoriser et manipuler plusieurs structures. Pour conclure, cette thèse vient compléter les études comportementales sur l’acquisition du langage, grâce à une approche des processus cérébraux soutenant l’apprentissage de séquences. La richesse du signal EEG a permis de mettre en évidence une hiérarchie de traitements complexes. / To this day, the infant brain is the only known learning system able to apprehend and master the complexity of the human language. Developmental psychologists have dedicated a lot of efforts to break down the mystery of language acquisition, revealing precocious and impressive abilities for processing and encoding speech sequences. The recent emergence of non-invasive neuroimaging techniques provides a new tool to explore language learning mechanisms from a different perspective. In the present thesis, we aimed at investigating the encoding mechanisms of the structural properties of a speech sequence from an electrophysiological perspective. In the first part of this thesis, we provided the developmental neuroimaging community with a methodological contribution. Based on magnetic resonance imaging (MRI) data, we virtually localized the standardized sensor placement system for both electroencephalography (EEG) and near infrared spectroscopy (NIRS) relative to the internal brain structures, and assessed their variability. We additionally provided an infant brain template with an anatomical atlas which will be valuable for studies in which individual anatomical information cannot be obtained. In the second part of this thesis, using high-density EEG, we demonstrated that 8 month-old infants could deploy powerful learning mechanisms for capturing the statistical dependencies between non-adjacent syllable units, in order to chunk a continuous speech stream. Interestingly, a hierarchy of neural processes tracked both the syllables and the chunked constituents of the sequence. Finally, in a third cognitive EEG study, we proposed an experimental design to assess infants’ ability to not only extract but also encode the structure of speech sequences into unified mental schemas. The results of this study established that 5 month-old infants could form robust mental representations for repetition-based sequences, allowing them to represent, categorize and operate on multiple structures. Inspection of various neural measurements revealed that several stages of the processing hierarchy were affected by the acquired mental representations. Overall, this thesis complements behavioral research on language acquisition with a window onto the early neural mechanisms allowing sequence encoding, revealing a hierarchy of increasingly complex computations in the encoding of linguistic structures.
335

Vérification de la validité du concept de surface somme par une approche statistique du contact élastique entre deux surfaces rugueuses / Validity study of the sum surface concept using a statistical approach of elastic contact between two rough surfaces

Tran, Ich tach 26 January 2015 (has links)
Les propriétés de surface, particulièrement microgéométriques, jouent un rôle essentiel dans tous les systèmes tribologiques. L’analyse de la répartition des efforts de contact dans l’interface entre surfaces rugueuses est indispensable à la prédiction du frottement, de l'usure, de l'adhérence, des résistances de contact électrique et thermique… De nombreux modèles ont été proposés ces dernières décennies pour prédire les efforts entre aspérités de surfaces rugueuses. Parmi ces modèles, les modèles statistiques sont majoritairement développés en considérant le contact ente une surface rugueuse équivalente, la surface somme - qui tient compte des microgéométries des deux surfaces en contact ainsi que de leur matériau - et un plan lisse. Cependant la validité de cette modélisation n’a pas été clairement démontrée. L’objectif de notre étude a été de développer un modèle statistique de contact entre deux surfaces rugueuses isotropes aléatoires puis de comparer les résultats obtenus pour ces deux surfaces avec ceux obtenus en considérant la surface somme définie classiquement à partir des deux surfaces rugueuses et un plan lisse. Les différences entre les résultats nous ont amenés à proposer une nouvelle modélisation de la surface somme. / Surface properties, particularly micro-geometry, play a key role in all tribological systems. The analysis of the distribution of contact forces in the interface between rough surfaces is essential for the prediction of friction, wear, adhesion, electrical and thermal contact resistance... Many models have been proposed during the last decades to predict the forces between asperities of rough surfaces. Among these models, statistical models are mainly based on the contact between an equivalent rough surface, the sum surface - which combines micro-geometry of the two surfaces in contact and their material - and a smooth plane. However, the validity of this model has not been clearly demonstrated. The aim of our study was to develop a statistical model of the contact between two random isotropic rough surfaces and then compare the results with those obtained by considering the classical sum surface. The differences between the results have led us to propose a new definition for the sum surface.
336

Certification de l'intégrité d'images numériques et de l'authenticité / Certification of authenticity and integrity of digital images

Nguyen, Hoai phuong 07 February 2019 (has links)
Avec l’avènement de l’informatique grand public et du réseau Internet, de nombreuses vidéos circulent un peu partout dans le monde. La falsification de ces supports est devenue une réalité incontournable, surtout dans le domaine de la cybercriminalité. Ces modifications peuvent être relativement anodines (retoucher l’apparence d’une personne pour lui enlever des imperfections cutanées), dérangeantes (faire disparaitre les défauts d’un objet) ou bien avoir de graves répercussions sociales (montage présentant la rencontre improbable de personnalités politiques). Ce projet s’inscrit dans le domaine de l’imagerie légale (digital forensics en anglais). Il s’agit de certifier que des images numériques sont saines ou bien falsifiées. La certification peut être envisagée comme une vérification de la conformité de l’image à tester en rapport à une référence possédée. Cette certification doit être la plus fiable possible car la preuve numérique de la falsification ne pourra être établie que si la méthode de détection employée fournit très peu de résultats erronés. Une image est composée de zones distinctes correspondantes à différentes portions de la scène (des individus, des objets, des paysages, etc.). La recherche d’une falsification consiste à vérifier si une zone suspecte est « physiquement cohérente » avec d’autres zones de l’image. Une façon fiable de définir cette cohérence consiste à se baser sur les « empreintes physiques » engendrées par le processus d’acquisition. Le premier caractère novateur de ce projet est la différenciation entre les notions de conformité et d’intégrité. Un support est dit conforme s’il respecte le modèle physique d’acquisition. Si certains des paramètres du modèle prennent des valeurs non autorisées, le support sera déclaré non-conforme. Le contrôle d’intégrité va plus loin. Il s’agit d’utiliser le test précédent pour vérifier si deux zones distinctes sont conformes à un modèle commun. Autrement dit, contrairement au contrôle de conformité qui s’intéresse au support dans son ensemble, le contrôle d’intégrité examine l’image zone par zone pour vérifier si deux zones sont mutuellement cohérentes, c’est-à-dire si la différence entre les paramètres caractérisant ces deux zones est cohérente avec la réalité physique du processus d’acquisition. L’autre caractère novateur du projet est la construction d’outils permettant de pouvoir calculer analytiquement les probabilités d’erreurs du détecteur de falsifications afin de fournir un critère quantitatif de décision. Aucune méthode ou outil actuels ne répondent à ces contraintes. / Nowadays, with the advent of the Internet, the falsification of digital media such as digital images and video is a security issue that cannot be ignored. It is of vital importance to certify the conformity and the integrity of these media. This project, which is in the domain of digital forensics, is proposed to answer this problematic.
337

Modélisation statistique de la diversité multi-site aux fréquences comprises entre 20 et 50 GHz / Statistical modeling of multi-site diversity for frequencies between 20 and 50 GHZ

Fayon, Gaëtan 12 December 2017 (has links)
Du fait de la congestion des bandes de fréquences conventionnelles (bandes S, C, Ku) et de la nécessité d'acheminer des débits de plus en plus importants, l'évolution des télécommunications par satellite fournissant des services multimédia à très haut débit se traduit actuellement par une montée en fréquence (bande Ka, 20-30 GHz, pour les liaisons utilisateurs, et bande Q/V, 40-50 GHz, pour les liens avec les stations d'ancrage) pour atteindre une capacité globale de l'ordre du Tb/s. Cependant, cette montée en fréquence rend les futurs systèmes de télécommunications extrêmement vulnérables aux atténuations troposphériques, notamment aux précipitations qui constituent le principal contributeur à l'affaiblissement troposphérique total. Dans ce contexte, la seule utilisation des techniques de codages et de modulation adaptatives, même combinée avec de la gestion de puissance, ne suffit plus. Afin d'exploiter la décorrélation en distance des champs de précipitations, l'utilisation de stations terrestres en diversité de site est étudiée par les opérateurs afin de maintenir un bilan de liaison favorable, en jouant sur une certaine redondance des stations sols pour rediriger les signaux selon les conditions météorologiques locales. Si plusieurs modèles permettant de dimensionner de tels systèmes existent déjà, leur paramétrage n'a pu s'appuyer pour le moment que sur un nombre limité de bases de données expérimentales, à la fois en terme de durée d'acquisition et de climats représentés : les données ne sont bien souvent recueillies que dans des zones climatiques tempérées (Europe et Amérique du Nord) et ne représentent qu'un faible nombre d'années de mesures (une année dans la majorité des cas). Dès lors, le paramétrage, ainsi que la validation, de ces modèles est compromise. Cette thèse propose la définition d'un nouveau modèle, le modèle WRF-EMM, permettant de générer des statistiques de propagation sur une zone géographique de 100 x 100 km2 en couplant le modèle de prévisions météorologiques à haute résolution WRF (Weather Research and Forecasting) à un module électromagnétique EMM (ElectroMagnetic Module) optimisé pour l'occasion. Aux latitudes moyennes, les sorties de ce simulateur sont utilisées pour alimenter les modèles actuels de dimensionnement des systèmes de télécommunications par satellite en diversité de site. Les résultats obtenus sont suffisamment proches des résultats expérimentaux pour envisager d'utiliser le modèle WRF-EMM pour compléter de façon artificielle les bases de données expérimentales existantes et finalement paramétrer les modèles de propagation en respectant les spécificités climatologiques et orographiques locales. En parallèle au développement du modèle WRF-EMM, cette thèse propose également la mise en place d'une nouvelle métrique de test permettant d'intégrer les variabilités interannuelles dans le processus de validation des modèles, ce qui n'était pas le cas jusqu'à maintenant. / Due to the congestion of standard frequency bands (S, C, Ku bands) and the need to offer higher data rates for multimedia services, space communication systems require to be operated at carrier frequencies higher than 20 GHz: Ka-band (20-30 GHz) for user links or Q/V band (40-50 GHz) for feeder links, to reach the Tb/s capacity. However, these frequency bands are submitted to increase tropospheric impairments, in particular rain attenuation which is its major contributor. In this context, the only use of standard fade mitigation techniques (up-link power control and/or adaptive coding and modulation) is not enough to counteract these propagation impairments and the use of gateways in site diversity configurations allows satisfying link budget to be maintained, relying on redundant gateways to reroute data traffic depending on local meteorological conditions. If several models suited to design such systems already exist, their parameterization is based on a limited number of sub-representative experimental data, both in terms of duration and climatic regions: experimental propagation data in a site diversity context have been often measured in temperate regions (Europe and North America) and represent few years of data (only one year in the majority of the cases). As a consequence, the parameterization, and so the validation, of such models is compromised. This PhD thesis proposes the definition of a new model, the WRF-EMM model, allowing rain attenuation time series and statistics to be generated over a grid of 100 x 100 km2, coupling the high resolution weather prediction model WRF (Weather Research and Forecasting) with the EMM (ElectroMagnetic Module), especially optimized during this thesis. Outputs of this simulator can feed site diversity models in order to design future satellite communications systems. At mid-latitudes, the results are promising and the use of the WRF-EMM model to generate site diversity synthetic datasets and to parameterize site diversity models wherever in the world should now be envisaged as an alternative to experimental data. In parallel with the development of the WRF-EMM model, this thesis also proposes the introduction of a new testing metric allowing to integrate the inter- annual variabilities during the validation process of statistical models, which has not been the case until now.
338

Création d'un modèle de market-timing à partir de deux modèles industriels : simulation d'une gestion de portefeuille de contrats de matières premières / Creation of a model of market-timing from two industrial models : Simulation of the management of a portfolio of commodity contracts

Bambou, Mike 31 March 2015 (has links)
Dans l’industrie, des méthodes de Maîtrise Statistique des Procédés (MSP) sont utilisées pour savoir si des pièces usinées lors d’un processus de fabrication sont non conformes aux spécifications. Les deux méthodes utilisées sont la méthode de Shewhart et la méthode EWMA (moyenne mobile à pondération exponentielle). Une adaptation de ces deux méthodes à la bourse est faite pour créer un modèle qui anticipe les cours sur les marchés à termes de matières premières. Ces deux méthodes sont utilisées simultanément, ce qui est une première. Le modèle présenté différencie plusieurs types de mouvements et plusieurs types d’investisseurs sur les marchés. C’est un modèle prudent. L’obtention de fortes performances est importante mais la diminution du risque et la limitation des pertes le sont également. Une simulation de la gestion d’un portefeuille pouvant être investi dans douze marchés à terme est faite. Ces marchés sont les suivants : le gaz naturel, le pétrole, le blé, le maïs, le soja, le bois, le jus d’orange concentré surgelé, le café, le cacao, le sucre, le coton et le cuivre. Cette simulation dans laquelle le portefeuille n’est pas « en levier » donne des résultats impressionnants. La simulation est faite du 3 janvier 2000 au 31 décembre 2013. Le capital initial est de $ 10 000 000 et à la fin de la simulation il est de $ 189 868 766. Le taux de rendement actuariel est de 23%. La seule rentabilité annuelle négative est celle de 2013 (-0.5%) et la meilleure est celle de 2010 (67%) La volatilité annualisée est de 17%. Le ratio d’information est exceptionnel : 0.85 ! La capacité au market-timing est de 47%. Ce pourcentage est ordinaire mais il recouvre le fait que la performance moyenne d’une position gagnante est de 17% tandis que celle d’une position perdante est de -6%. La performance d’une position gagnante compense, en moyenne, celle de trois positions perdantes. / Methods of Statistical Process Control (SPC) are used in the industrial sector to know if work pieces are conforms to specifications. Two methods are used: the Shewhart method and the Exponentially-weighted moving average method (EWMA). An adaptation of these methods to the financial markets is done to create a model which anticipates prices on commodities markets. Both methods are used simultaneously which is the first time. The developed model distinguishes several types of market movements and various types of investors. It is a safe model. Obtaining strong performances is important but reducing risk and limiting losses are too. A simulation of the management of a portfolio which may be invested of twelve commodities is done. The markets are: natural gas, oil, wheat, corn, soybeans, lumber, frozen concentrated orange juice, coffee, cocoa, sugar, cotton and copper. We decide to simulate a portfolio without “leverage” and results are impressive. The simulation is done from January 3rd 2000 to December 31th 2013. The initial capital of the portfolio is $ 10,000,000 and at the end of the simulation is $ 189,868,766. The rate of annual return is 23%. The only negative annual return is that of 2013 (-0.5%) and the best is that of 2010 (67%). The annualized volatility is 17%. The information ratio is exceptional: 0.85! The ability to market timing is 47%. This percentage is ordinary, but the average performance of winning positions is 17% while that of a losing position is -6%. The performance of a winning position, on average, corrects that of three losing positions.
339

Études des phenomenes de transposition didactique de la statistique dans le champ universitaire et ses environnements : une contribution à la pédagogie universitaire / The phenomena of didactic transposition of statistics in the academic fields : a contribution to the University Teaching

Jutand, Marthe-Aline 02 December 2015 (has links)
La spécificité de la statistique, en tant que science d’analyse et de décision,suscite l’intérêt de l’ensemble des domaines scientifiques et sociétaux. Elle endevient ainsi une discipline protéiforme s’appuyant sur des dimensions partagées,mais aussi sur des formulations spécifiques. Dans les deux situations étudiées,doctorat et expertise, le chercheur doit développer des capacités à expliciter lesétapes d’une démarche statistique et à communiquer de manière compréhensible àdes fins de diffusion et d’appropriation. L’analyse des thèses met en lumière desrégularités d’usage de concepts et de mots, mais aussi, de nombreuses spécificitésdisciplinaires. L’analyse de la situation d’expertise, quant à elle, souligne le travaildidactique mis en oeuvre par le chercheur afin de rendre possible le transfert deconnaissance à destination des politiques décisionnaires.Les différents éléments et analyses ayant constitué cette thèse ont pourobjet de participer à la réflexion sur l’enseignement de la statistique à l’université etsur les stratégies pédagogiques à développer. Notre analyse met en évidencel’importance de former les étudiants à la diffusion et la traduction de résultatsd’études statistiques. Tout ceci conduit à la question de la transformation desenseignements de la statistique à l’université afin de développer les temps et desméthodes d’apprentissage de diffusion, à visée d’explicitation, des savoirsstatistiques et des résultats auprès de publics variés. / Statistics, with its particularity being a science based on analysis anddecision, generates interests from all scientific and social domains. Thus, statistics isa many-sided discipline based on shared dimensions, but also on specificformulations.Researchers must develop specific skills to explain each step of a statisticalapproach in both situations studied: doctoral theses and expertise. Additionally,results need to be communicated clearly and precisely by a researcher in order toassure their comprehension and the appropriation of knowledge. The analysis ofdoctoral theses highlights a regularity in the use of statistical concepts and statisticallanguage, but also numerous specificities for academic disciplines. Moreover, theanalysis of expertise highlights that researchers set up didactic approaches toimprove the transfer of knowledge to decision-making politics.This thesis aims to take part in the reflection about i) the teaching ofstatistics at the university and ii) the pedagogical strategies that needs to bedeveloped by highlighting the teaching strategies proven to be useful for statisticaleducation. Our analysis clearly shows the importance of qualifying students in thedissemination and communication of results from statistical analyses. Takentogether, there is a clear need to develop new teaching strategies for statistics at theuniversity aiming at developing teaching methods facilitating explicitcommunication of statistical expertise and results addressing a wide range ofaudiences.
340

Modélisation de la fiabilité de composants d'un moteur aéronautique basée sur les données des dégradations en fonction de la maintenance programmée / Reliability modelling of aeronautical turboshaft engines components from damages data according to the scheduled maintenance

Billon, Aurélie 30 May 2012 (has links)
L’objectif de nos travaux est de mettre en place une méthode pour modéliser le comportement de la dégradation de moteurs aéronautiques à partir de données de retour d’expérience en vue de quantifier l’impact sur le niveau de sécurité des vols. Ces modèles tiennent compte d'un composant dont les mécanismes de défaillance sont en concurrence vis-à-vis d’un événement final (événement redouté rare) et de la politique de maintenance préventive. Nous souhaitons ainsi estimer la fiabilité d'un composant et étudier l'impact d'une nouvelle périodicité de maintenance sur cette fiabilité. Un algorithme d'optimisation des différentes périodicités de maintenances préventives appliquées au composant est également proposé. / The aim of our studies is to propose a statistical model of turboshaft engines ageing behaviour in order to improve the reliability level assessment. Field and repair data feedback are used to fit our model. This model takes into account one component whose failure mechanisms are in competition with respect to a final event and scheduled maintenance policy. We want to estimate reliability of engine component and, for instance, optimize the preventive maintenance policy.

Page generated in 0.0683 seconds