• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 157
  • 46
  • 9
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 218
  • 96
  • 50
  • 31
  • 26
  • 26
  • 25
  • 24
  • 22
  • 21
  • 20
  • 20
  • 20
  • 18
  • 17
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
201

Analyse d'Erreurs d'Estimateurs des Dérivées de Signaux Bruités et Applications

Liu, Da-Yan 17 October 2011 (has links) (PDF)
Ce mémoire concerne la construction et l'analyse d'estimateurs robustes pour le calcul numérique des dérivés de signaux bruités et des paramètres de signaux sinusoïdaux bruités. Ces estimateurs, originalement introduits par Fliess, Mboup et Sira Ramirez, sont actuellement étudiés au sein de l'équipe projet NON-A de l'INRIA Lille Nord Europe. Pour une classe d'entre eux, nous les obtenons à partir de la réécriture dans le domaine opérationnel de Laplace des équations différentielles linéaires des signaux analysés. Par des manipulations algébriques simples dans l'anneau R(s)[d/ds] des polynômes différentiels en d/ds à coefficients rationnels en la variable opérationnelle s, nous montrons que ces estimateurs sont non-asymptotiques et que les estimations numériques obtenues, même en présence de bruits, sont robustes pour un faible nombre d'échantillons des signaux. Nous montrons, de plus, que ces propriétés sont vérifiées pour une large classe de type de bruits. Ces estimateurs exprimés dans le domaine temporel s'écrivent en général via des fractions d'intégrales itérées des signaux analysés. Dans la première partie du mémoire, nous étudions des familles d'estimateurs de dérivées obtenus par ces méthodes algébriques. Nous montrons que pour une classe d'entre eux, il est possible de les formuler directement en tronquant une série orthogonale de polynômes de Jacobi. Cette considération nous permet alors d'étendre à IR le domaine de définition des paramètres de ces estimateurs. Nous analysons ensuite l'influence de ces paramètres étendus sur l'erreur de troncature, qui produit un retard d'estimation dans le cas causal, puis sur l'erreur due aux bruits, considérés comme des processus stochastiques, et enfin sur l'erreur numérique de discrétisation des intégrales. Ainsi, nous montrons comment réduire le retard d'estimation et l'effet du aux bruits. Une validation de cette approche est réalisée par la construction d'un observateur non asymptotique de variables d'état d'un système non linéaire. Dans la deuxième partie de ce mémoire, nous construisons par cette approche algébrique des estimateurs des paramètres d'un signal sinusoïdal bruité dont l'amplitude varie avec le temps. Nous montrons que les méthodes classiques de fonctions modulatrices sont un cas particulier de cette approche. Nous étudions ensuite l'influence des paramètres algébriques sur l'erreur d'estimation due au bruit et l'erreur numérique d'intégration. Des majorations de ces erreurs sont données pour une classe d'estimateurs. Finalement, une comparaison entre ces estimateurs et la méthode classique de détection synchrone est réalisée pour démontrer l'efficacité de notre approche sur ce type de signaux.
202

Quelques contributions à l'analyse numérique d'équations stochastiques

Kopec, Marie 25 June 2014 (has links) (PDF)
Ce travail présente quelques résultats concernant le comportement en temps fini et en temps long de méthodes numériques pour des équations stochastiques. On s'intéresse d'abord aux équations différentielles stochastiques de Langevin et de Langevin amorti. On montre un résultat concernant l'analyse d'erreur faible rétrograde de ses équations par des schémas numériques implicites. En particulier, on montre que l'erreur entre le générateur associé au schéma numérique et la solution d'une équation de Kolmogorov modifiée est d'ordre élevé par rapport au pas de discrétisation. On montre aussi que la dynamique associée au schéma numérique est exponentiellement mélangeante. Dans un deuxième temps, on étudie le comportement en temps long d'une discrétisation en temps et en espace d'une EDPS semi-linéaire avec un bruit blanc additif, qui possède une unique mesure invariante . On considère une discrétisation en temps par un schéma d'Euler et en espace par une méthode des éléments finis. On montre que la moyenne, par rapport aux lois invariantes (qui n'est pas forcément unique) associées à l'approximation, par des fonctions tests suffisamment régulières est proche de la quantité correspondante pour . Plus précisément, on étudie la vitesse de convergence par rapport aux différents paramètres de discrétisation. Enfin, on s'intéresse à une EDPS semi-linéaire avec un bruit blanc additif dont le terme non-linéaire est un polynôme. On étudie la convergence au sens faible d'une approximation en temps par un schéma de splitting implicite.
203

Choix de portefeuille de grande taille et mesures de risque pour preneurs de décision pessimistes

Noumon, Codjo Nérée Gildas Maxime 08 1900 (has links)
Cette thèse de doctorat consiste en trois chapitres qui traitent des sujets de choix de portefeuilles de grande taille, et de mesure de risque. Le premier chapitre traite du problème d’erreur d’estimation dans les portefeuilles de grande taille, et utilise le cadre d'analyse moyenne-variance. Le second chapitre explore l'importance du risque de devise pour les portefeuilles d'actifs domestiques, et étudie les liens entre la stabilité des poids de portefeuille de grande taille et le risque de devise. Pour finir, sous l'hypothèse que le preneur de décision est pessimiste, le troisième chapitre dérive la prime de risque, une mesure du pessimisme, et propose une méthodologie pour estimer les mesures dérivées. Le premier chapitre améliore le choix optimal de portefeuille dans le cadre du principe moyenne-variance de Markowitz (1952). Ceci est motivé par les résultats très décevants obtenus, lorsque la moyenne et la variance sont remplacées par leurs estimations empiriques. Ce problème est amplifié lorsque le nombre d’actifs est grand et que la matrice de covariance empirique est singulière ou presque singulière. Dans ce chapitre, nous examinons quatre techniques de régularisation pour stabiliser l’inverse de la matrice de covariance: le ridge, spectral cut-off, Landweber-Fridman et LARS Lasso. Ces méthodes font chacune intervenir un paramètre d’ajustement, qui doit être sélectionné. La contribution principale de cette partie, est de dériver une méthode basée uniquement sur les données pour sélectionner le paramètre de régularisation de manière optimale, i.e. pour minimiser la perte espérée d’utilité. Précisément, un critère de validation croisée qui prend une même forme pour les quatre méthodes de régularisation est dérivé. Les règles régularisées obtenues sont alors comparées à la règle utilisant directement les données et à la stratégie naïve 1/N, selon leur perte espérée d’utilité et leur ratio de Sharpe. Ces performances sont mesurée dans l’échantillon (in-sample) et hors-échantillon (out-of-sample) en considérant différentes tailles d’échantillon et nombre d’actifs. Des simulations et de l’illustration empirique menées, il ressort principalement que la régularisation de la matrice de covariance améliore de manière significative la règle de Markowitz basée sur les données, et donne de meilleurs résultats que le portefeuille naïf, surtout dans les cas le problème d’erreur d’estimation est très sévère. Dans le second chapitre, nous investiguons dans quelle mesure, les portefeuilles optimaux et stables d'actifs domestiques, peuvent réduire ou éliminer le risque de devise. Pour cela nous utilisons des rendements mensuelles de 48 industries américaines, au cours de la période 1976-2008. Pour résoudre les problèmes d'instabilité inhérents aux portefeuilles de grandes tailles, nous adoptons la méthode de régularisation spectral cut-off. Ceci aboutit à une famille de portefeuilles optimaux et stables, en permettant aux investisseurs de choisir différents pourcentages des composantes principales (ou dégrées de stabilité). Nos tests empiriques sont basés sur un modèle International d'évaluation d'actifs financiers (IAPM). Dans ce modèle, le risque de devise est décomposé en deux facteurs représentant les devises des pays industrialisés d'une part, et celles des pays émergents d'autres part. Nos résultats indiquent que le risque de devise est primé et varie à travers le temps pour les portefeuilles stables de risque minimum. De plus ces stratégies conduisent à une réduction significative de l'exposition au risque de change, tandis que la contribution de la prime risque de change reste en moyenne inchangée. Les poids de portefeuille optimaux sont une alternative aux poids de capitalisation boursière. Par conséquent ce chapitre complète la littérature selon laquelle la prime de risque est importante au niveau de l'industrie et au niveau national dans la plupart des pays. Dans le dernier chapitre, nous dérivons une mesure de la prime de risque pour des préférences dépendent du rang et proposons une mesure du degré de pessimisme, étant donné une fonction de distorsion. Les mesures introduites généralisent la mesure de prime de risque dérivée dans le cadre de la théorie de l'utilité espérée, qui est fréquemment violée aussi bien dans des situations expérimentales que dans des situations réelles. Dans la grande famille des préférences considérées, une attention particulière est accordée à la CVaR (valeur à risque conditionnelle). Cette dernière mesure de risque est de plus en plus utilisée pour la construction de portefeuilles et est préconisée pour compléter la VaR (valeur à risque) utilisée depuis 1996 par le comité de Bâle. De plus, nous fournissons le cadre statistique nécessaire pour faire de l’inférence sur les mesures proposées. Pour finir, les propriétés des estimateurs proposés sont évaluées à travers une étude Monte-Carlo, et une illustration empirique en utilisant les rendements journaliers du marché boursier américain sur de la période 2000-2011. / This thesis consists of three chapters on the topics of portfolio choice in a high-dimensional context, and risk measurement. The first chapter addresses the estimation error issue that arises when constructing large portfolios in the mean-variance framework. The second chapter investigates the relevance of currency risk for optimal domestic portfolios, evaluates their ability of to diversify away currency risk, and study the links between portfolio weights stability and currency risk. Finally, under the assumption that decision makers are pessimistic, the third chapter derives the risk premium, propose a measure of the degree of pessimism, and provide a statistical framework for their estimation. The first chapter improves the performance of the optimal portfolio weig-hts obtained under the mean-variance framework of Markowitz (1952). Indeed, these weights give unsatisfactory results, when the mean and variance are replaced by their sample counterparts (plug-in rules). This problem is amplified when the number of assets is large and the sample covariance is singular or nearly singular. The chapter investigates four regularization techniques to stabilizing the inverse of the covariance matrix: the ridge, spectral cut-off, Landweber-Fridman, and LARS Lasso. These four methods involve a tuning parameter that needs to be selected. The main contribution is to derive a data-based method for selecting the tuning parameter in an optimal way, i.e. in order to minimize the expected loss in utility of a mean-variance investor. The cross-validation type criterion derived is found to take a similar form for the four regularization methods. The resulting regularized rules are compared to the sample-based mean-variance portfolio and the naive 1/N strategy in terms of in-sample and out-of-sample Sharpe ratio and expected loss in utility. The main finding is that regularization to covariance matrix significantly improves the performance of the mean-variance problem and outperforms the naive portfolio, especially in ill-posed cases, as suggested by our simulations and empirical studies. In the second chapter, we investigate the extent to which optimal and stable portfolios of domestic assets can reduce or eliminate currency risk. This is done using monthly returns on 48 U.S. industries, from 1976 to 2008. To tackle the instabilities inherent to large portfolios, we use the spectral cut-off regularization described in Chapter 1. This gives rise to a family of stable global minimum portfolios that allows investors to select different percentages of principal components for portfolio construction. Our empirical tests are based on a conditional International Asset Pricing Model (IAPM), augmented with the size and book-to-market factors of Fama and French (1993). Using two trade-weighted currency indices of industrialized countries currencies and emerging markets currencies, we find that currency risk is priced and time-varying for global minimum portfolios. These strategies also lead to a significant reduction in the exposure to currency risk, while keeping the average premium contribution to total premium approximately the same. The global minimum weights considered are an alternative to market capitalization weights used in the U.S. market index. Therefore, our findings complement the well established results that currency risk is significantly priced and economically meaningful at the industry and country level in most countries. Finally, the third chapter derives a measure of the risk premium for rank-dependent preferences and proposes a measure of the degree of pessimism, given a distortion function. The introduced measures generalize the common risk measures derived in the expected utility theory framework, which is frequently violated in both experimental and real-life situations. These measures are derived in the neighborhood of a given random loss variable, using the notion of local utility function. A particular interest is devoted to the CVaR, which is now widely used for asset allocation and has been advocated to complement the Value-at-risk (VaR) proposed since 1996 by the Basel Committee on Banking Supervision. We provide the statistical framework needed to conduct inference on the derived measures. Finally, the proposed estimators
204

Approximations polynomiales rigoureuses et applications

Joldes, Mioara Maria 26 September 2011 (has links) (PDF)
Quand on veut évaluer ou manipuler une fonction mathématique f, il est fréquent de la remplacer par une approximation polynomiale p. On le fait, par exemple, pour implanter des fonctions élémentaires en machine, pour la quadrature ou la résolution d'équations différentielles ordinaires (ODE). De nombreuses méthodes numériques existent pour l'ensemble de ces questions et nous nous proposons de les aborder dans le cadre du calcul rigoureux, au sein duquel on exige des garanties sur la précision des résultats, tant pour l'erreur de méthode que l'erreur d'arrondi.Une approximation polynomiale rigoureuse (RPA) pour une fonction f définie sur un intervalle [a,b], est un couple (P, Delta) formé par un polynôme P et un intervalle Delta, tel que f(x)-P(x) appartienne à Delta pour tout x dans [a,b].Dans ce travail, nous analysons et introduisons plusieurs procédés de calcul de RPAs dans le cas de fonctions univariées. Nous analysons et raffinons une approche existante à base de développements de Taylor.Puis nous les remplaçons par des approximants plus fins, tels que les polynômes minimax, les séries tronquées de Chebyshev ou les interpolants de Chebyshev.Nous présentons aussi plusieurs applications: une relative à l'implantation de fonctions standard dans une bibliothèque mathématique (libm), une portant sur le calcul de développements tronqués en séries de Chebyshev de solutions d'ODE linéaires à coefficients polynômiaux et, enfin, un processus automatique d'évaluation de fonction à précision garantie sur une puce reconfigurable.
205

Contributions à la fusion de segmentations et à l’interprétation sémantique d’images

Khelifi, Lazhar 08 1900 (has links)
No description available.
206

Approximations polynomiales rigoureuses et applications / Rigorous Polynomial Approximations and Applications

Joldes, Mioara Maria 26 September 2011 (has links)
Quand on veut évaluer ou manipuler une fonction mathématique f, il est fréquent de la remplacer par une approximation polynomiale p. On le fait, par exemple, pour implanter des fonctions élémentaires en machine, pour la quadrature ou la résolution d'équations différentielles ordinaires (ODE). De nombreuses méthodes numériques existent pour l'ensemble de ces questions et nous nous proposons de les aborder dans le cadre du calcul rigoureux, au sein duquel on exige des garanties sur la précision des résultats, tant pour l'erreur de méthode que l'erreur d'arrondi.Une approximation polynomiale rigoureuse (RPA) pour une fonction f définie sur un intervalle [a,b], est un couple (P, Delta) formé par un polynôme P et un intervalle Delta, tel que f(x)-P(x) appartienne à Delta pour tout x dans [a,b].Dans ce travail, nous analysons et introduisons plusieurs procédés de calcul de RPAs dans le cas de fonctions univariées. Nous analysons et raffinons une approche existante à base de développements de Taylor.Puis nous les remplaçons par des approximants plus fins, tels que les polynômes minimax, les séries tronquées de Chebyshev ou les interpolants de Chebyshev.Nous présentons aussi plusieurs applications: une relative à l'implantation de fonctions standard dans une bibliothèque mathématique (libm), une portant sur le calcul de développements tronqués en séries de Chebyshev de solutions d'ODE linéaires à coefficients polynômiaux et, enfin, un processus automatique d'évaluation de fonction à précision garantie sur une puce reconfigurable. / For purposes of evaluation and manipulation, mathematical functions f are commonly replaced by approximation polynomials p. Examples include floating-point implementations of elementary functions, integration, ordinary differential equations (ODE) solving. For that, a wide range of numerical methods exists. We consider the application of such methods in the context of rigorous computing, where we need guarantees on the accuracy of the result, with respect to both the truncation and rounding errors.A rigorous polynomial approximation (RPA) for a function f defined over an interval [a,b] is a couple (P, Delta) where P is a polynomial and Delta is an interval such that f(x)-P(x) belongs to Delta, for all x in [a,b]. In this work we analyse and bring forth several ways of obtaining RPAs for univariate functions. Firstly, we analyse and refine an existing approach based on Taylor expansions. Secondly, we replace them with better approximations such as minimax approximations, Chebyshev truncated series or interpolation polynomials.Several applications are presented: one from standard functions implementation in mathematical libraries (libm), another regarding the computation of Chebyshev series expansions solutions of linear ODEs with polynomial coefficients, and finally an automatic process for function evaluation with guaranteed accuracy in reconfigurable hardware.
207

Indoor radio propagation modeling for system performance prediction / Modélisation de la propagation radio en intérieur pour la prédiction des performances des systèmes radios

Xie, Meiling 17 July 2013 (has links)
Cette thèse a pour but de proposer toutes les avancées possibles dans l’utilisation du modèle de propagation Multi-Resolution Frequency-Domain ParFlow (MR-FDPF). Etant un modèle de propagation radio déterministe, le modèle MR-FDPF possède un haut niveau de précision, mais souffre des limitations communes à tous les modèles déterministes. Par exemple, un canal radio réel n’est pas déterministe, mais un processus aléatoire à cause par exemple des personnes ou objets mobiles, et ne peut donc être décrit fidèlement par un modèle purement déterministe. Dans cette thèse, un modèle semi-déterministe est proposé, basé sur le modèle MR-FDPF, qui introduit une part stochastique pour tenir compte des aspects aléatoires du canal radio réaliste. La partie déterministe du modèle est composée du path loss (atténuation d’espace), et la partie stochastique venant du shadow fading (masquage) et du small scale fading (évanouissement). De même, de nombreux simulateurs de propagation radio ne proposent que la prédiction de la puissance moyenne. Mais pour une simulation précise de la propagation radio il convient de prédire également des informations de fading permettant dès lors une prédiction précise du taux d’erreur binaire (BER) potentiel. Dans cette thèse, l’information de fading est déduite des simulations MR-FDPF et par la suite des valeurs réalistes de BER sont données. Enfin, ces données réalistes de BER permettent d’évaluer l’impact de schémas de modulation adaptatifs. Des résultats sont présentés dans trois configurations : systèmes SISO (mono-antenne à l’émission et à la réception), systèmes à diversité de type MRC, et systèmes large bande de type OFDM. / This thesis aims at proposing all the possible enhancements for the Multi-Resolution Frequency-Domain ParFlow (MR-FDPF) model. As a deterministic radio propagation model, the MR-FDPF model possesses the property of a high level of accuracy, but it also suffers from some common limitations of deterministic models. For instance, realistic radio channels are not deterministic but a kind of random processes due to, e.g. moving people or moving objects, thus they can not be completely described by a purely deterministic model. In this thesis, a semi-deterministic model is proposed based on the deterministic MR-FDPF model which introduces a stochastic part to take into account the randomness of realistic radio channels. The deterministic part of the semi-deterministic model is the mean path loss, and the stochastic part comes from the shadow fading and the small scale fading. Besides, many radio propagation simulators provide only the mean power predictions. However, only mean power is not enough to fully describe the behavior of radio channels. It has been shown that fading has also an important impact on the radio system performance. Thus, a fine radio propagation simulator should also be able to provide the fading information, and then an accurate Bit Error Rate (BER) prediction can be achieved. In this thesis, the fading information is extracted based on the MR-FDPF model and then a realistic BER is predicted. Finally, the realistic prediction of the BER allows the implementation of the adaptive modulation scheme. This has been done in the thesis for three systems, the Single-Input Single-Output (SISO) systems, the Maximum Ratio Combining (MRC) diversity systems and the wideband Orthogonal Frequency-Division Multiplexing (OFDM) systems.
208

Free surface flow simulation in estuarine and coastal environments : numerical development and application on unstructured meshes / Simulation des écoulements à la surface libre dans des environnements côtiers et estuariens : développement numérique et application sur des maillages non-structurés

Filippini, Andrea Gilberto 14 December 2016 (has links)
Over the last decades, there has been considerable attention in the accurate mathematical modeling and numerical simulations of free surface wave propagation in near-shore environments. A physical correct description of the large scale phenomena, which take place in the shallow water region, must account for strong nonlinear and dispersive effects, along with the interaction with complex topographies. First, a study on the behavior in nonlinear regime of different Boussinesq-type models is proposed, showing the advantage of using fully-nonlinear models with respect to weakly-nonlinear and weakly dispersive models (commonly employed). Secondly, a new flexible strategy for solving the fully-nonlinear and weakly-dispersive Green-Naghdi equations is presented, which allows to enhance an existing shallow water code by simply adding an algebraic term to the momentum balance and is particularly adapted for the use of hybrid techniques for wave breaking. Moreover, the first discretization of the Green-Naghdi equations on unstructured meshes is proposed via hybrid finite volume/ finite element schemes. Finally, the models and the methods developed in the thesis are deployed to study the physical problem of bore formation in convergent alluvial estuary, providing the first characterization of natural estuaries in terms of bore inception. / Ces dernières décennies, une attention particulière a été portée sur la modélisation mathématique et la simulation numérique de la propagation de vagues en environnements côtiers. Une description physiquement correcte des phénomènes à grande échelle, qui apparaissent dans les régions d'eau peu profonde, doit prendre en compte de forts effets non-linéaires et dispersifs, ainsi que l'interaction avec des bathymétries complexes. Dans un premier temps, une étude du comportement en régime non linéaire de différents modèles de type Boussinesq est proposée, démontrant l'avantage d'utiliser des modèles fortement non-linéaires par rapport à des modèles faiblement non-linéaires et faiblement dispersifs (couramment utilisés). Ensuite, une nouvelle approche flexible pour résoudre les équations fortement non-linéaires et faiblement dispersives de Green-Naghdi est présentée. Cette stratégie permet d'améliorer un code "shallow water" existant par le simple ajout d'un terme algébrique dans l'équation du moment et est particulièrement adapté à l'utilisation de techniques hybrides pour le déferlement des vagues. De plus, la première discrétisation des équations de Green-Naghdi sur maillage non structuré est proposée via des schémas hybrides Volume Fini/Élément Fini. Finalement, les modèles et méthodes développés dans la thèse sont appliqués à l'étude du problème physique de la formation du mascaret dans des estuaires convergents et alluviaux. Cela a amené à la première caractérisation d'estuaire naturel en terme d'apparition de mascaret.
209

Détermination judiciaire des faits et erreurs judiciaires : perspective narrative sur le processus judiciaire criminel et la recherche de vérité

Vani, Juliette 12 1900 (has links)
Ce mémoire propose une conception narrative du système de justice criminel. Pour ce faire, l’auteure mobilise la théorie narrative suivant laquelle le procès contradictoire est appréhendé comme un concours entre différentes histoires. Le caractère général de cette théorie confère à l’auteure l’espace nécessaire pour analyser et expliquer différents aspects du traitement judiciaire des faits, que ce soit la preuve judiciaire, le processus de détermination judiciaire des faits, l’intervention judiciaire en appel ou encore le droit qui encadre chacun de ces aspects. La notion d’« histoire » favorise l’adoption d’une perspective qui sort du cadre restreint du procès dans lequel la notion de « preuve » est enfermée. La théorie narrative permet ainsi à l’auteure d’expliquer et d’organiser en un tout unifié divers aspects du processus judiciaire comme l’enquête, le dépôt des accusations, la théorie de la cause, le contre-interrogatoire ou encore la façon dont les faits sont d’abord choisis et assemblés par les parties avant d’être administrés et traités au procès sous forme de « preuve ». Appliquée au procès, cette théorie implique une approche holistique de la preuve suivant laquelle la détermination judiciaire des faits est une évaluation de la vraisemblance relative des histoires en compétition. Cela remet en question la vision traditionnelle (ou rationaliste) atomiste de la preuve où les faits sont déterminés suite à une décision sur la véracité ou la fausseté de chacun des éléments de preuve. Le nouvel éclairage qu’apporte cette vision narrative du procès et ses diverses implications mènent l’auteure à remettre en question le bien-fondé de la vision traditionnelle voulant que le procès mène à une détermination judiciaire des faits qui soit exacte. Au terme de son illustration de la valeur heuristique de la théorie narrative, l’auteure revisite sous la perspective narrative les récentes études en matière d’erreurs judiciaires. Elle en conclut que le droit commande au juge d’atteindre une vérité hybride sur les faits, à michemin entre, d’une part, ce qui est survenu dans la réalité et, d’autre part, ce qui permet de conférer un maximum de cohérence aux éléments de preuves effectivement présentés au procès. / This master’s thesis proposes a narrative conceptualization of the criminal justice system. The author employs the narrative theory framework that conceives the adversarial trial as a contest between different stories. This comprehensive theory offers a lens through which the author analyzes and explains multiple aspects of the judicial processing of facts including evidence at trial, fact-finding, appellate review and the law governing these aspects. The concept of “story” allows a broader perspective than the concept of “evidence” which is limited to the trial. This umbrella theory is therefore used to explain, organize and provide a united understanding of various aspects of the judicial system, such as the investigatory process, the laying of charges, the theory of a case, the cross-examinations, as well as how facts are chosen and organized before being presented and processed at trial as “evidence”. At trial, the global perspective of the narrative theory challenges the traditional (or rationalist) atomist approach to evidence, which explains fact-finding as a decision based on the truthfulness or the falseness of each individual piece of evidence adduced at trial. The narrative perspective, rather, suggests a holistic approach – fact-finding is a decision regarding the relative plausibility between two competing stories. Thus, these insights from the narrative theory call into question the traditional assumption that trials lead to accurate findings of fact. After her demonstration of the heuristic value of the narrative theory, the author applies the narrative framework to recent studies on miscarriages of justice. She concludes that the law enables triers of fact to reach only a hybrid truth, halfway between what happened in reality and an assessment of the consistency between the evidence adduced at trial.
210

Narrativité et plasticité du fait sonore dans une approche design : pour une recherche appliquée : le sonorama participatif des histoires extraordinaires de nos rues et de nos espaces / ln defense of an applied research : the participatory sonorama of the extraordinary staries of our streets and spaces

Desgrandchamp, Pauline 29 November 2017 (has links)
Cette thèse interroge, par la méthode et la conception design, les modalités permettant de construire des récits liés à l'imaginaire urbain. Ces derniers constituent des potentialités qui racontent au travers de la dimension sonore des faits mémoriels, histoires et vécus de groupes. Le « designer des sons de l'urbain » construit alors sa propre scénophonie urbaine, procédé permettant de raconter l'espace sonore, entre espaces du temps et temps de l'espace. Cette posture permet de rendre compte de la prégnance socio-culturelle du fait sonore dans la manière de raconter le monde. Il s'agit de déceler puis d'interroger les enjeux d'une société en pleine mutation à partir de l'utilisation d'enregistrements de terrain et de créations sonores de territoire, c'est-à-dire des narrations composées à partir de ces premières captures. Ce travail s'articule autour d'une étude théorique d'un corpus artistique (Tome 1) et d'une recherche-action menée dans le cadre d'un contrat Cifre au sein de la Direction de la Culture de la Ville de Strasbourg, pour le Shadok, fabrique du numérique, régie directe de l'Eurométropole en collaboration avec une association trandisciplinaire, Horizome et l'équipe d'accueil ACCRA de l'Université de Strasbourg (Tome 2). / This dissertation questions through a design approach the ways and means allowing the construction of stories related to the urban imaginary. The latter constitute possibilities of telling something through the sound dimensions of historical events, and both individual and collective experiences. The “designer of urban sounds” then builds their own urban scenophony, a method allowing the telling of the sound space — between the spaces of time and the times of space. Such a position allows to account for the socio-cultural weight of sound in the waythe world is told. This research is about detecting and then questioning what is at stakes in a changing society, using field recordings and “territory sound creations,” i.e. narratives built from the raw material of those field recordings. Two dimensions are involved in this work: a theoretical study of an artistic corpus (Tome I) and an action research born outof a city of Strasburg Cifre contract for the state-sponsored and controled Shadok,fabrique du numérique, in collaboration with a transdisciplinary association, Horizome,and the ACCRA team of the University of Strasburg (Tome II).

Page generated in 0.1328 seconds