• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 161
  • 89
  • 12
  • 2
  • Tagged with
  • 259
  • 119
  • 50
  • 39
  • 36
  • 36
  • 30
  • 29
  • 29
  • 29
  • 27
  • 25
  • 24
  • 24
  • 23
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Définition d'une logique probabiliste tolérante à l'inconsistance : appliquée à la reconnaissance de scénarios et à la théorie du vote

Daniel, Lionel 05 February 2010 (has links) (PDF)
Les humains raisonnent souvent en présence d'informations contradictoires. Dans cette thèse, j'ébauche une axiomatisation du sens commun sous-jacent à ce raisonnement dit paraconsistant. L'implémentation de cette axiomatisation dans les ordinateurs autonomes sera essentielle si nous envisageons de leur déléguer des décisions critiques ; il faudra également vérifier formellement que leurs réactions soient sans risque en toute situation, même incertaine. Une situation incertaine est ici modélisée par une base de connaissances probabilistes éventuellement inconsistante ; c'est un multi-ensemble de contraintes éventuellement insatisfiable sur une distribution de probabilité de phrases d'un langage propositionnel, où un niveau de confiance peut être attribué à chaque contrainte. Le principal problème abordé est l'inférence de la distribution de probabilité qui représente au mieux le monde réel, d'après une base de connaissances donnée. Les réactions de l'ordinateur, préalablement programmées puis vérifiées, seront déterminées par cette distribution, modèle probabiliste du monde réel. J.B. Paris et al. ont énoncé un ensemble de sept principes, dit de sens commun, qui caractérise l'inférence dans les bases de connaissances probabilistes consistantes. Poursuivant leurs travaux de définition du sens commun, je suggère l'adhésion à de nouveaux principes régissant le raisonnement dans les bases inconsistantes. Ainsi, je définis les premiers outils théoriques fondés sur des principes pour raisonner de manière probabiliste en tolérant l'inconsistance. Cet ensemble d'outils comprend non seulement des mesures de dissimilarité, d'inconsistance, d'incohérence et de précision, mais aussi un processus d'inférence coïncidant avec celui de J.B. Paris dans le cas consistant. Ce processus d'inférence résout un problème de la théorie du vote, c'est-à-dire l'obtention d'un consensus parmi des opinions contradictoires à propos d'une distribution de probabilité telle que la répartition d'un investissement financier. Finalement, l'inconsistance n'est qu'une forme d'incertitude qui ne doit pas entraver notre raisonnement, ni celui des ordinateurs : peut-être qu'une plus grande confiance leur sera accordée s'ils fondent leurs décisions sur notre sens commun.
22

Evaluation cartographique et évolution diachronique par télédétection du risque incendie de forêt. Simulation de la propagation du feu dans le bassin versant du Paillon, Nice, Alpes-Maritimes.

Hessas, Nassima 15 December 2005 (has links) (PDF)
Les Alpes-Maritimes est le milieu le plus sensible aux risques incendies en raison de son climat, de son relief, de ses enjeux touristiques, urbanistiques et économiques. La démarche consiste à détecter les risques et mesurer leurs conséquences. Afin de connaître l'impact de ces feux, il est nécessaire de déterminer leur répartition spatiale et temporelle. De très larges étendues sont concernées et la télédétection est l'un des moyens d'appréhender le phénomène à une aussi grande échelle. Les statistiques annuelles réalisées regroupent trente années d'incendies, à l'échelle départementale ensuite communales sous - tendues par plusieurs questions : Quelles sont les causes et les fréquences des feux et leur ampleur? Les feux de saison sont- ils de même proportion ? Pourquoi 2003 a – t - il été une vraie catastrophe ? L'utilisation du SIG, pour l'évaluation cartographique, se révèle être à la fois un outil scientifique performant pour connaître et rendre compte de l'aléa et exprimer la vulnérabilité et pour déterminer des zonages que les aménageurs et décideurs intégreront dans leur démarche globale d'aménagements du territoire aux échelles appropriées. La multiplication des classifications et ACP sur une image satellitaire et l'AFC sur l'ensemble du bassin apportent une contribution importante à la compréhension de ce phénomène. Les incendies de forêts engendrent des modifications fondamentales. L'étude diachronique de l'évolution du Paillon, par le biais de 3 séries de photographies grâce à la télédétection et au SIG permet de cerner des dimensions spatio-temporelles très précises. L'étude de la simulation de la propagation du feu aide à la prise de décision.
23

Etude des structures statistiques associées aux lois de Von Mises

Dégerine, Serge 12 March 1975 (has links) (PDF)
Le travail que nous présentons ici concerne un domaine très particulier de la statistique : celui dans lequel les observations sont des directions
24

Notion de liberté en statistique mathématique

Soler, Jean-Louis 12 January 1970 (has links) (PDF)
.
25

Approximation uniforme par fonctions aléatoires

Manka, Sébastien January 2003 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
26

Étude de la combinaison de la technique quasi-Monte Carlo randomisé vectoriel avec l'échantillonnage exact

Sanvido, Charles January 2006 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
27

Prise en charge diagnostique et thérapeutique des patients suspects d'embolie pulmonaire : problématique particulière en cas de Broncho-Pneumopathie Chronique Obstructive / Management of patients with a suspicion of pulmonary embolism : particularities of Chronic Obstructive Pulmonary Diseases

Bertoletti, Laurent 05 July 2011 (has links)
La simplification des algorithmes diagnostiques a entrainé une augmentation de la suspicion d’une embolie pulmonaire (EP). Sa prévalence est passée de 50% à moins de 20%. L’évocation du diagnostic peut être gênée par la coexistence d’une Broncho Pneumopathie Chronique Obstructive (BPCO). La 1ère étape de prise en charge d’un patient suspect d’EP est l’évaluation de la probabilité clinique, par exemple par le score de Genève. Nous montrons qu’en revenant au résultat de ce score, le clinicien prédit le risque de décès et de ré-hospitalisation dans les 3 mois que le patient ait – ou n’ait pas- d’EP. Ces résultats devraient permettre d’aider à décider d’un traitement ambulatoire ou d’une hospitalisation. De plus, nous montrons que l’existence d’une BPCO est associée à une modification de la présentation clinique de la Maladie Veineuse Thrombo-Embolique (MVTE): alors que ratio dans la population sans BPCO est de 2 Thromboses Veineuses Profondes (TVP) pour une 1 EP, ce rapport s’inverse dans la population de patients souffrant de BPCO. Ce point est critique car nous montrons par ailleurs que les patients BPCO avec MVTE présentent une moins bonne évolution que les patients sans BPCO, avec une augmentation du nombre de décès et de complication hémorragique pendant les 3 mois de suivi. En se concentrant sur les patients avec BPCO, il apparait que ceux se présentant initialement avec une EP sont plus à risque de mourir et de saigner dans les 3 mois de suivi par rapport aux patients BPCO avec TVP. Il est donc indispensable de trouver un traitement protégeant efficacement les patients BPCO avec EP d’une récidive embolique, mais sans augmenter le risque hémorragique / The simplification of the management of patients with a suspicion of pulmonary embolism (PE) has led to an increase in PE suspicion, but also a decrease in PE prevalence from 50% to 20% of patients suspected of PE. The co-existence of Chronic Obstructive Pulmonary Disease (COPD) may mimic PE symptoms leading to a decrease of PE suspicion. The first step of the management of PE suspicion is the assessment of the clinical probability, for example with the Geneva Rule. We have shown that clinician may predict 3-month mortality and readmission rate if they return to the Geneva Rule results, even if PE has been confirmed or ruled out. It may help the clinician to propose an outpatient management or a hospitalization. Moreover, we have found that PE was the more frequent form of venous thromboembolism (VTE) presentation in COPD patients, although it is Deep Venous Thrombosis (DVT) in non-COPD patients. This point is crucial as COPD patients with VTE have a decreased survival with more frequent bleeding than non-COPD patients. When focusing on COPD patients, those presenting with PE were at higher risk of dying and bleeding than those presenting with DVT during the 3-month follow-up. A more efficient treatment but without an increase in the bleeding risk is needed
28

Conception de réseaux optiques en tenant compte de la tolérance aux fautes d’un ensemble quelconque de liens / Optical network design considering fault tolerance to any set of link failures

Jara, Nicolás 25 July 2018 (has links)
L'augmentation rapide de la demande en bande passante dans les réseaux de télécommunication d'aujourd'hui a provoqué une augmentation correspondante de l'utilisation de technologies basées dans les réseaux optiques de type WDM. Ceci étant, la recherche a identifié une limite forte dans la capacité de croissance de ces infrastructures, du point de la vitesse de transmission, limite qui sera atteinte bientôt. Cette situation conduit à des efforts de recherche pour faire évoluer les architectures courantes vers de nouvelles solutions capables d'absorber cette croissance dans la demande. Par exemple, les réseaux d'aujourd'hui sont opérés de façon statique. Ceci est inefficace dans l'utilisation des ressources, et la nécessité d'améliorer cet état de fait est reconnue par la recherche ainsi que par l'industrie. Plusieurs solutions ont été proposées pour passer à des modes de fonctionnement dynamiques, mais les diminutions des coûts qu'ont été obtenues n'ont pas encore convaincu les industriels. Cette thèse fait une nouvelle proposition de cette nature, qui inclut une nouvelle et très rapide méthodologie pour évaluer la probabilité de blocage dans ce type de système, qui est le cœur de notre procédure de conception. Le travail réalisé a conduit à la découverte de solutions pour l'ensemble des problèmes principaux d'une architecture de transmission optique. Il s'agit de décider chemins à utiliser par chaque utilisateur et la longueur d'onde (Wavelength Assignment Problem). Ensuite, il faut choisir le nombre total de longueurs d'onde qui sera nécessaire (Wavelength Dimensioning Problem). Enfin, il faut proposer les procédures à suivre en cas de défaillance d'un ou de plusieurs liens du réseau (Fault Tolerance Problem). La thèse propose une solution globale à cet ensemble de problèmes, et montre que les gains que l'on peut espérer dans l'opération de ces réseaux sont significativement plus importants qu'avec les autres propositions existantes. / The rapid increase in demand for bandwidth from existing networks has caused a growth in the use of technologies based on WDM optical networks. Nevertheless, this decade researchers have recognized a “Capacity Crunch” on optical networks, i.e. transmission capacity limit on optical fiber is close to be reached in the near future. This situation claims to evolve the current WDM optical networks architectures. For example, optical networks are operated statically. This operation is inefficient in the usage of network resources. To solve this problem Dynamic optical networks solve this inefficiences, but it has not been implemented since network cost savings are not enough to convince enterprises. The design of dynamic optical networks decomposes into different tasks, where the engineers must organize the way the main system's resources are used. All of these tasks, have to guarantee certain level of quality of service pre-established on the Service Level Agreement. Then, we propose a new fast and accurate analytical method to evaluate the blocking probability in these systems. This evaluation allows network designers to quickly solve higher order problems. More specifically, network operators face the challenge of solving: which wavelength is going to be used by each user (known as Wavelength Assignment), the number of wavelengths needed on each network link (called as Wavelength Dimensioning), the set of paths enabling each network user to transmit (known as Routing) and how to deal with link failures when the network is operating (called as Fault Tolerance capacity). This thesis proposes a joint solution to these problems, and it may provide sufficient network cost savings to foster telecommunications companies to migrate from the current static operation to a dynamic one.
29

Processus alpha-stables pour le traitement du signal / Alpha-stable processes for signal processing

Fontaine, Mathieu 12 June 2019 (has links)
En traitement du signal audio, le signal observé est souvent supposé être égal à la somme des signaux que nous souhaitons obtenir. Dans le cadre d'une modélisation probabiliste, il est alors primordial que les processus stochastiques préservent leur loi par sommation. Le processus le plus employé et vérifiant cette stabilité est le processus gaussien. Comparé aux autres processus α - stables vérifiant la même stabilité, les processus gaussiens ont la particularité d'admettre des outils statistiques facilement interprétables comme la moyenne et la covariance. L'existence de ces moments permet d'esquisser des méthodes statistiques en séparation des sources sonores (SSS) et plus généralement, en traitement du signal. La faiblesse de ces processus réside néanmoins dans l'incapacité à s'écarter trop loin de leurs moyennes. Cela limite la dynamique des signaux modélisables et peut provoquer des instabilités dans les méthodes d'inférence considérées. En dépit de non-existence d'une forme analytique des densités de probabilités, les processus α - stables jouissent de résultats non valables dans le cas gaussien. Par exemple, un vecteur α - stable non-gaussien admet une représentation spatiale unique. En résumé, le comportement d'une distribution multivariée α - stable est contrôlé par deux opérateurs. Une mesure dite «spectrale» informant sur l'énergie globale venant de chaque direction de l'espace et un vecteur localisant le centroïde de sa densité de probabilité. Ce mémoire de thèse introduit différents modèles α - stables d’un point de vue théorique et les développe dans plusieurs directions. Nous proposons notamment une extension de la théorie de filtrage α - stable monocanal au cas multicanal. En particulier, une nouvelle représentation spatiale pour les vecteurs α - stables est adoptée. Nous développons en outre un modèle de débruitage où le bruit et la parole découlent de distributions α - stables mais ayant un exposant caractéristique α différent. La valeur d' α permet de contrôler la stationnarité de chaque source. Grâce à ce modèle hybride, nous avons également déduit une explication rigoureuse sur des filtrages de Wiener heuristiques esquissés dans les années 80. Une autre partie de ce manuscrit décrit en outre comment la théorie α - stable permet de fournir une méthode pour la localisation de sources sonores. En pratique, elle nous permet d'en déduire si une source est active à un endroit précis de l'espace. / It is classic in signal processing to model the observed signal as the sum of desired signals. If we adopt a probabilistic model, it is preferable that law of the additive processes is stable by summation. The Gaussian process notoriously satisfies this condition. It admits useful statistical operators as the covariance and the mean. The existence of those moments allows to provide a statistical model for SSS. However, Gaussian process has difficulty to deviate from its mean. This drawback limits signal dynamics and may cause unstable inference methods. On the contrary, non-Gaussian α - stable processes are stable under addition, and permit the modeling of signals with considerable dynamics. For the last few decades, α -stable theory have raised mathematical challenges and have already been shown to be effective in filtering applications. This class of processes enjoys outstanding properties, not available in the Gaussian case. A major asset for signal processing is the unique spatial representation of a multivariate α - stable vector, controlled by a so-called spectral measure and a deterministic vector. The spectral measure provides information on the global energy coming from all space directions while the vector localizes the centroid of the probability density function. This thesis introduces several α -stables models, with the aim of extending them in several directions. First, we propose an extension of single-channel α - stable filtering theory to a multichannel one. In particular, a novel spatial representation for α - stable vectors is proposed. Secondly, we develop α - stable models for denoising where each component could admit a different α . This hybrid model provides a rigorous explanation of some heuristic Wiener filters outlined in the 1980s. We also describe how the α - stable theory yields a new method for audio source localization. We use the spectral measure resulting from the spatial representation of α - stable vectors. In practice, it leads to determine whether a source is active at a specific location. Our work consisted in investigating the α -stable theory for signal processing and developing several models for a wide range of applications. The models introduced in this thesis could also be extend to more signal processing tasks. We could use our mutivariate α - stable models to dereverberation or SSS. Moreover, the localization algorithm is implementable for room geometry estimation.
30

L’aversion extrême aux risques majeurs : une approche économique basée sur le modèle de l’utilité espérée dépendante des rangs / The extreme aversion to major risks : an economic approach based on rank-dependent expected utility model

Santos, Joël 03 September 2014 (has links)
La thèse vise à caractériser l’aversion des individus face aux risques majeurs. Cette caractérisation s’appuie sur la notion de consentements à payer (pour éviter ce type de risques) et mobilise les modèles d’utilité espérée (UE) et d’utilité espérée dépendante des rangs (UEDR) de Quiggin (1982). Ces deux modèles permettent un traitement identique des conséquences monétaires, mais diffèrent quant au traitement des probabilités. Dans le cadre des risques majeurs, cela se traduit sous UEDR par une surévaluation potentiellement très importante des très petites probabilités. S’appuyant sur une méthode d’approximation des consentements à payer bien adaptée au cadre des risques majeurs, on montre que les consentements à payer d’un individu UEDR peuvent être substantiellement plus élevés que ceux d’un individu UE. En particulier, l’ampleur de cette différence en termes de consentements à payer est strictement équivalente à l’ampleur de la surévaluation subjective des très petites probabilités objectives de perte. En plus de ce résultat théorique, la thèse mène une investigation expérimentale, au moyen de la méthode d’élicitation des Tradeoff (Deneffe et Wakker, 1996), qui confirme le résultat standard du modèle UEDR selon lequel les individus surpondèrent les très petites probabilités. L’expérimentation met aussi en évidence que cette surpondération est d’autant plus importante que la probabilité objective est petite. Enfin, à partir des résultats théoriques et expérimentaux de la thèse, on évalue le cas du coût subjectif d'un risque majeur, en particulier d'un accident nucléaire grave. Nos résultats montrent que ce coût se traduit par des consentements à payer qui sont bien plus élevés sous UEDR que sous UE. Ces différences en matière de consentements à payer qui existent entre ces deux modèles montrent sans ambiguïté l’impact de l’ampleur de la surpondération des très petites probabilités sur la caractérisation des comportements des individus vis-à-vis des risques majeurs. / The objective of this thesis is to characterize individuals’ aversion to major risks. This characterization relies on the notion of willingness-to-pay (to avoid this type of risks) and calls for the expected utility (EU) model and the rank-dependent expected utility (RDEU) model developed by Quiggin (1982). These models identically deal with monetary consequences but differ as regards to the treatment of probabilities. In the context of major risks, RDEU leads to a potentially high overvaluation of very low probabilities. Based on an approximation method of willingness-to-pay that is well-suited to the study of major risks, we show that the willingness-to-pay of an RDEU decision-maker may be substantially higher than the willingness-to-pay of an EU decision-maker. In particular, the extent of this difference in terms of willingness-to-pay is strictly equivalent to the extent of the subjective overvaluation of very small objective probabilities of loss. In addition to this theoretical result, this thesis leads an experimental investigation that uses the (gamble-)tradeoff method of elicitation (Deneffe & Wakker, 1996). The experiment confirms the standard result of the RDEU model according to which individuals overweight very small probabilities. This experiment also emphasizes on the fact that such overweighting is all the more so large as the objective probability is small. Using both theoretical and experimental results of this thesis we eventually investigate the case of the subjective cost of major risks, dealing with a serious nuclear accident in particular. Our results show that this cost translates into willingness-to-pay levels that are way higher under RDEU than under EU. Such differences between the two models as regards to willingness-to-pay unambiguously show the impact of the extent of overweighting of very small probabilities on the characterization of individual behaviors towards major risks.

Page generated in 0.0392 seconds