• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 255
  • 138
  • 33
  • 27
  • 13
  • 12
  • 9
  • 9
  • 4
  • 4
  • 4
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 516
  • 188
  • 97
  • 51
  • 47
  • 42
  • 38
  • 37
  • 36
  • 35
  • 34
  • 33
  • 30
  • 27
  • 24
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
181

False Discovery Rates, Higher Criticism and Related Methods in High-Dimensional Multiple Testing

Klaus, Bernd 16 January 2013 (has links) (PDF)
The technical advancements in genomics, functional magnetic-resonance and other areas of scientific research seen in the last two decades have led to a burst of interest in multiple testing procedures. A driving factor for innovations in the field of multiple testing has been the problem of large scale simultaneous testing. There, the goal is to uncover lower--dimensional signals from high--dimensional data. Mathematically speaking, this means that the dimension d is usually in the thousands while the sample size n is relatively small (max. 100 in general, often due to cost constraints) --- a characteristic commonly abbreviated as d >> n. In my thesis I look at several multiple testing problems and corresponding procedures from a false discovery rate (FDR) perspective, a methodology originally introduced in a seminal paper by Benjamini and Hochberg (2005). FDR analysis starts by fitting a two--component mixture model to the observed test statistics. This mixture consists of a null model density and an alternative component density from which the interesting cases are assumed to be drawn. In the thesis I proposed a new approach called log--FDR to the estimation of false discovery rates. Specifically, my new approach to truncated maximum likelihood estimation yields accurate null model estimates. This is complemented by constrained maximum likelihood estimation for the alternative density using log--concave density estimation. A recent competitor to the FDR is the method of \"Higher Criticism\". It has been strongly advocated in the context of variable selection in classification which is deeply linked to multiple comparisons. Hence, I also looked at variable selection in class prediction which can be viewed as a special signal identification problem. Both FDR methods and Higher Criticism can be highly useful for signal identification. This is discussed in the context of variable selection in linear discriminant analysis (LDA), a popular classification method. FDR methods are not only useful for multiple testing situations in the strict sense, they are also applicable to related problems. I looked at several kinds of applications of FDR in linear classification. I present and extend statistical techniques related to effect size estimation using false discovery rates and showed how to use these for variable selection. The resulting fdr--effect method proposed for effect size estimation is shown to work as well as competing approaches while being conceptually simple and computationally inexpensive. Additionally, I applied the fdr--effect method to variable selection by minimizing the misclassification rate and showed that it works very well and leads to compact and interpretable feature sets.
182

Modèles semi-paramétriques appliqués à la prévision des séries temporelles. Cas de la consommation d'électricité.

Lefieux, Vincent 12 October 2007 (has links) (PDF)
Une prévision correcte de la consommation d'électricité est fondamentale pour le bon fonctionnement du réseau électrique français, dont Réseau de Transport d'Electricité a la charge. Les prévisions utilisées quotidiennement par RTE sont issues d'un modèle alliant une régression paramétrique non linéaire et un modèle SARIMA.Dans l'idée d'obtenir un modèle de prévision adaptatif, des méthodes de prévision non-paramétriques ont déjà été testées sans succès véritable. On sait notamment que la qualité d'un prédicteur non-paramétrique résiste mal à un grand nombre de variables explicatives, ce qu'on appelle communément le fléau de la dimension.On a proposé récemment des méthodes semi-paramétriques d'estimation d'une régression qui améliorent l'approche non-paramétrique pure. L'une d'elles, basée sur la notion de ''directions révélatrices'' appellée MAVE (Moving Average -conditional- Variance Estimation), peut s'appliquer aux séries temporelles. Nous étudions empiriquement son efficacité pour prédire les valeurs futures d'une série temporelle autorégressive.Nous adaptons ensuite cette méthode, d'un point de vue pratique, pour prédire la consommation électrique. Nous proposons un modèle semi-paramétrique semi-linéaire, basé partiellement sur la méthode MAVE, qui permet de prendre en compte simultanément l'aspect autorégressif du problème, et l'introduction de variables exogènes. La procédure d'estimation proposée se révèle efficace en pratique.
183

Détection d'agrégats temporels et spatiaux

Demattei, Christophe 21 November 2006 (has links) (PDF)
L'objectif de ce travail est de proposer des solutions nouvelles dans le domaine de la détection de clusters d'évènements de santé. Ce type d'analyse est traditionnellement utilisé dans la surveillance de maladies dont l'étiologie est incertaine afin de localiser et mettre en évidence des agrégats ayant une densité anormalement élevée dans le temps et/ou dans l'espace. La détermination de ces clusters constitue généralement une étape préliminaire à la recherche de facteurs de risque.<br />Nous proposons une revue des méthodes existantes ainsi que notre contribution dans différentes directions. Deux approches sont proposées dans le cadre temporel permettant pour l'une d'éviter l'utilisation de simulations et pour l'autre de prendre en compte les données dont l'information temporelle est incomplète. Nous avons également mis au point une méthode de détection de clusters spatiaux de forme arbitraire permettant d'analyser des données dont on connaît la localisation géographique exacte. Cette approche a été appliquée sur des données particulières, celles obtenues par Imagerie par Résonance Magnétique fonctionnelle. Les perspectives d'analyse spatio-temporelle sont finalement évoquées.
184

Le syndrome Cardio-Facio-Cutané et les syndromes apparentés l'implication des gènes de la voie RAS-MAPK /

Nava, Caroline. Cavé, Hélène. January 2009 (has links) (PDF)
Reproduction de : Thèse d'exercice : Médecine. Génétique médicale : Paris 12 : 2008. / Titre provenant de l'écran-titre. Bibliogr. f. 70-76.
185

Stratégies de routage multi-chemin dans les réseaux sans fil multi-sauts

Doghri, Inès 30 May 2012 (has links) (PDF)
Un réseau sans fil multi-saut est un ensemble d'entités mobiles et/ou fixes formant un réseau dynamique temporaire avec ou sans l'aide de toute administration centralisée. Cette particularité rend le routage problématique en cas d'instabilité des éléments qui composent les communications non directes. Afin de palier ces problèmes, de nouvelles formes de routage sont utilisées comme le routage multi-chemin (MC). Le routage MC permet d'envoyer les données sur des chemins multiples et semble être une solution efficace pour ces réseaux. Le but de cette thèse est d'étudier les techniques de routage MC dans un contexte sans fil multi-saut en vue d'obtenir de meilleures performances. Nous avons choisi pour notre étude une extension MC du protocole OLSR, appelée MP-OLSR. Nous évaluons ses performances sous divers scénarios sous NS-2. Ces tests d'évaluation nous ont amenés à mettre en 'evidence deux problèmes dans MP-OLSR : la réactivité du protocole de routage MC suite à des ruptures de route et la stratégie de répartition des données sur les chemins multiples. Nous avons étudié la réactivité de tels mécanismes dans MP-OLSR. Nous avons proposé trois nouvelles techniques de réparation de pannes qui diminuent les temps de rétablissement d'une route et réduisent le taux de perte des flux transmis. Nous proposons aussi un mécanisme qui détecte la dégradation de la qualité des liens durant le transfert d'un trafic de données. Les informations déduites de ce mécanisme servent à adapter la proportion de trafic à affecter à chaque chemin selon les conditions réseaux. Cette nouvelle variante du protocole MP-OLSR est évaluée par simulation.
186

Les effets de la numérisation dans l'économie des médias

De' Grassi di Pianura, Mattia 03 June 2013 (has links) (PDF)
Cette dissertation concerne l'analyse des problématiques économiques introduites par la numérisation et par la parution des nouveaux réseaux et supports numériques dans l'économie des médias. Le passage du modèle analogique et physique au modèle numérique, en opérant une séparation du concept d'expression signifiante et du support qui permet sa circulation auprès d'un large public, impose un recadrage des procédés de création et production dans plusieurs domaines de l'industrie des médias. En utilisant le cas d'étude de l'industrie de l'édition des magazines, l'introduction de cette dissertation analyse les enjeux économiques plus urgents pour une marque éditoriale face à la numérisation, au niveau d'entreprise et du secteur industriel. Dans le premier chapitre, on va approfondir l'analyse en explorant la littérature existante dans le domaine des effets de la numérisation et de la régulation dans l'économie des médias. Dans le deuxième chapitre, nous analysons les dynamiques d'adoption d'une technologie numérique associée avec un réseau, dans contexte où les contenus media sont des biens complémentaires essentiels et en présence d'externalités positives associées avec le déploiement du réseau. La contribution originale du modèle que nous allons montrer est la possibilité d'évaluer différentes qualités de subsides au déploiement et différentes valeurs de l'innovation technologique. dans le troisième et dernier chapitre, nous développons un modèle pour analyser la tarification des produits soumis au droit d'auteur dans un marché biface avec réseaux de distribution multiples.
187

Palyginamųjų daugiklių metodo taikymo nelikvidžiose rinkose galimybių vertinimas. Baltijos šalių atvejis / The application possibilities of multiples valuation method in illiquid equity markets. The case of Baltic states

Vilkauskaitė, Gintarė 06 June 2013 (has links)
Darbe analizuojamos palyginamųjų daugiklių metodo taikymo galimybės Baltijos šalių listinguojamoms įmonėms. Darbo tikslas - įvertinti palyginamųjų daugiklių metodo taikymo galimybes nelikvidžiose rinkose Baltijos šalių listinguojamų įmonių pavyzdžiu. Darbą sudaro trys dalys, kurių pirmojoje pristatomi daugiklių metodo privalumai, trūkumai, praktinio pritaikymo etapai ir skirtingų metodų, naudojamų kiekviename praktinio pritaikymo etape, poveikio vertinimo rezultatams apžvalga. Antroje dalyje pateikiama ir pagrindžiama tyrimo metodologija, o trečioje - tyrimo rezultatai. Pagrindiniai tyrimo rezultatai rodo, kad palyginamųjų daugiklių metodas nelikvidžiose rinkose listinguojamų įmonių atveju duoda didesnes paklaidas nei įmonių, listinguojamų likvidesnėse kapitalo rinkose, atveju. Visgi, EV/IC, EV/NOA, EV/TA, EV/EBITDA, EV/EBIT ir P/B daugikliai gali būti taikomi vertinant Baltijos šalių listinguojamas įmones. Be to, nustatyta, kad 1) įmonės vertės daugikliai duoda mažesnes paklaidas nei nuosavybės vertės daugikliai; 2) su balansinėmis vetėmis susieti daugikliai duoda mažesnes paklaidas, nei su pelnu, pardavimais ar pinigų srautais susieti daugikliai; 3)tinkamiausias įmonių atrankos kriterijus yra ROIC; 4) daugiklių kombinavimas nėra prasmingas, kadangi padidina vertinimo tikslumą tik nežymiai ir tik kai kurių daugiklių atveju; 5) skirtingiems pramonės sektoriams egzistuoja skirtingi tinkamiausi daugikliai. / This paper analyzes the application possibilities of multiples valuation method in the Baltic states equity market. The aim of this paper is to assess the application possibilities of multiples valuation method in illiquid markets, with the example of Baltic listed companies. The work consists of three parts. The first part presents the advantages and disadvantages of the multiples method, also it presents method‘s practical applications stages and and the review of results of the previous research on this topic. The second part describes the research methodology. The third part presents the results of empyrical study. The main findings of this study is: 1) valuation erros, when multiples valuation method is applied in illiquid markets are higher, then those in liquid markets; 2) however, the EV / IC, EV / NOA, EV / TA, EV / EBITDA, EV / EBIT and P / B multiples are appropriate for valuation of companies listed in Baltic stock exchange; 3) entity value multiples outperform equity value multiples 4) book value multiples outperform accrual flow and cash flow multiples 3) the most appropriate criteria for selecting comperable companies is ROIC; 4) The combination of multiples is not meaningful as it increases the accuracy of valuation only slightly, and only for some of the multiples 5) different industries are associated with different best multiples.
188

Modélisation de la combustion turbulente diphasique par une approche eulérienne-lagrangienne avec prise en compte des phénomènes transitoires

Gomet, Laurent 04 December 2013 (has links) (PDF)
L'allumage d'ergols injectés dans une chambre de combustion, la propagation du noyau de flamme puis sa stabilisation sont autant de paramètres déterminants pour la conception d'un moteur fusée. Pour ce type d'application, il est nécessaire - du point de vue de la modélisation - de tenir compte du couplage existant entre les effets de compressibilité, les processus de mélange turbulent ainsi que de cinétique chimique, dans un environnement diphasique puisque les ergols sont injectés à l'état liquide. Un modèle Lagrangien a été implanté dans le code de calcul compressible N3S-Natur afin de disposer d'un outil numérique capable de simuler le transitoire d'allumage d'un moteur fusée. La physique représentative de chacun des processus physiques impliqués pendant la phase d'allumage a été incorporée puis validée sur des configurations académiques. Ce travail a permis de mettre en évidence l'importance de la description du mélange à petites échelles pour capturer correctement le développement de la flamme. Il a aussi mis en exergue la nécessité de prendre en compte le transitoire thermique des gouttes d'oxygène liquide afin de reproduire fidèlement sa stabilisation. Enfin, il a nécessité l'extension de la notion de fraction de mélange à des cas pratiques présentant plus de deux entrées afin d'être en mesure de simuler la propagation de l'allumage sur la plaque d'injection. Cette approche basée sur l'introduction d'un injecteur fictif est non seulement utile pour la simulation de l'allumage des moteurs-fusées mais peut aussi être employée dans tout autre système impliquant le mélange entre des courants de réactifs issus de deux entrées ou plus.
189

Architecture de communication pour les réseaux d'instrumentation sans fil

Albu, Roxana 11 July 2011 (has links) (PDF)
Aujourd'hui les réseaux de capteurs sont devenus des systèmes pouvant atteindre un très grand nombre de nœuds, avec une zone de couverture déterminée et déployés d'une manière plus ou moins dense dans un environnement hétérogène dont on mesure ainsi son état global. La problématique de cette thèse consiste à concevoir une architecture pour les objets communicants à faible consommation en utilisant des antennes " intelligentes " pour l'instrumentation et la mesure. Intégrant une approche pluridisciplinaire, cette architecture couvre les services offerts depuis les couches MAC jusqu'à celles de plus haut niveau. Basés sur une partie matérielle complètement reconfigurable (amplificateur de puissance et antennes à base de MEMS RF), les services des couches supérieures sont définis en partie sur circuits numériques pour la couche physique (bande de base) et la couche MAC, et de manière logicielle pour les protocoles de routages adaptés et les services innovants. En résumé, le travail consiste à concevoir un système autonome multi capteurs, d'acquisition et de traitement avec mémorisation, communicant à travers un réseau sans fil. Les principaux problèmes à résoudre seront : - Le contrôle de la topologie - La précision de la synchronisation - La consommation d'énergie.
190

Efficacité de détection en tomographie d'émission par positrons: une approche par intelligence artificielle

Michaud, Jean-Baptiste January 2014 (has links)
En Tomographie d'Émission par Positrons (TEP), la course à la résolution spatiale nécessite des détecteurs de plus en plus petits, produisant plus de diffusion Compton avec un impact négatif sur l’efficacité de détection du scanner. Plusieurs phénomènes physiques liés à cette diffusion Compton entachent tout traitement des coïncidences multiples d'une erreur difficile à borner et à compenser, tandis que le nombre élevé de combinaisons de détecteurs complexifie exponentiellement le problème. Cette thèse évalue si les réseaux de neurones constituent une alternative aux solutions existantes, problématiques parce que statistiquement incertaines ou complexes à mettre en œuvre. La thèse réalise une preuve de concept pour traiter les coïncidences triples et les inclure dans le processus de reconstruction, augmentant l'efficacité avec un minimum d'impact sur la qualité des images. L'atteinte des objectifs est validée via différents critères de performance comme le gain d'efficacité, la qualité de l'image et le taux de succès du calcul de la ligne de réponse (LOR), mesurés en priorité sur des données réelles. Des études paramétriques montrent le comportement général de la solution : un réseau entraîné avec une source générique démontre pour le taux d'identification de la LOR une bonne indépendance à la résolution en énergie ainsi qu'à la géométrie des détecteurs, du scanner et de la source, pourvu que l'on ait prétraité au maximum les données pour simplifier la tâche du réseau. Cette indépendance, qui n'existe en général pas dans les solutions existantes, laisse présager d'un meilleur potentiel de généralisation à d'autres scanners. Pour les données réelles du scanner LabPET[indice supérieur TM], la méthode atteint un gain d'efficacité aux alentours de 50%, présente une dégradation de résolution acceptable et réussit à recouvrer le contraste de manière similaire aux images de référence, en plus de fonctionner en temps réel. Enfin, plusieurs améliorations sont anticipées.

Page generated in 0.029 seconds