• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 158
  • 46
  • 10
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 220
  • 96
  • 50
  • 31
  • 26
  • 26
  • 25
  • 24
  • 22
  • 21
  • 21
  • 20
  • 20
  • 18
  • 17
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
121

Enjeux politiques du rationalisme critique chez Karl Popper.

Abessolo Metogo, Christel-Donald 27 June 2013 (has links) (PDF)
L'intérêt de l'humanité pour la connaissance se joue sur deux fronts : celui de la réduction de l'ignorance, et celui de l'action tant individuelle que collective. Aussi la manière dont nous acquérons le savoir est-elle essentielle, parce qu'elle préjuge aussi bien de notre perception du monde que de notre conscience de nous-mêmes et de la société. Car si, avec la raison comme alliée, l'homme se découvre des potentialités illimitées, nous aurions pourtant tort de passe outre une stricte réalité, celle de notre ignorance infinie, celle, au fond, de notre incapacité à cerner, de façon sûre et certaine, quoi que ce soit de ce monde complexe et en évolution constante qui nous accueille. C'est pourquoi, pour Karl Popper, toute rationalité véritable doit être critique, c'est-à-dire pluraliste et débattante, seule façon de considérer objectivement l'écart qui nous sépare de la vérité et, par suite, d'agir avec prudence et discernement, dans l'intérêt de la science comme dans celui de la collectivité.
122

Modélisation et étude 3D des phénomènes adiabatiques dans les procédés de mise en forme à grande vitesse

Delalondre, Fabien 19 December 2008 (has links) (PDF)
Malgré des résultats prometteurs, les procédés de mise en forme à grande vitesse sont encore peu utilisés dans l'industrie du fait d'un manque de compréhension du phénomène de Bande de Cisaillement Adiabatique (BCA).Ce travail présente le développement d'outils numériques permettant la simulation adaptative et l'analyse de BCA dans des procédés 3D de mise en forme à grande vitesse. L'utilisation du modèle ALE-adaptatif séquentiel développé dans le logiciel Forge3 permet pour la première fois la simulation automatique de BCA 3D. L'étude des résultats numériques permet de proposer une description innovante du processus de formation de BCA. Les moyens de calcul requis s'avérant très importants, un nouveau code éléments finis hautement parallèle appelé Forge++ est développé. Ce dernier inclut de nouveaux algorithmes tels que le couplage thermomécanique implicite, la méthode de stabilisation RFB et un recouvrement par patch parallèle pour une meilleure simulation de BCA.
123

A robust statistical method for determining material properties and indentation size effect using instrumented indentation testing / Une méthode statistique robuste pour déterminer les propriétés des matériaux et de l'effet de taille d'indentation en utilisant le test d'indentation instrumentée

Xia, Yang 18 September 2014 (has links)
L'indentation instrumentée est un outil pratique et puissant pour sonder les propriétés mécaniques des matériaux à petite échelle. Cependant, plusieurs erreurs (rugosité de surface, effet de taille d’indentation, la détermination de premier point de contact, etc.) affectent l'essai d’indentation instrumentée (e.g. non reproductibilité de la courbe d’indentation) et conduisent à des imprécisions dans la détermination des propriétés mécaniques des matériaux analysés. Une approche originale est développée dans cette thèse pour la caractérisation précise des propriétés mécaniques des matériaux. Cette approche fondée sur une analyse statistique des courbes d’indentation avec la prise en compte d’erreur dans la détermination du premier point de contact et des effets de la rugosité de surface. L’approche est basée sur une minimisation de la distance (défini comme l'erreur de la profondeur de contact initiale) entre l’ensemble des courbes expérimentales et celles simulées par le modèle de Bernhard de manière à générer une courbe maitresse « unique » représentative du faisceau de courbes expérimentales. La méthode proposée permet de calculer à partir de cette courbe maitresse la macro-dureté et le module d’Young du matériau en tenant compte des erreurs dues à la rugosité de surface et à l'effet de taille en indentation pour les faibles profondeurs de pénétration. La robustesse de la méthode est prouvée par son application à différents groupes d’échantillons, i.e. panels de matériaux à propriétés mécaniques diverses, différents traitements de surface (polissage, sablage) et différentes pointes d’indentation permettant de générer différents états de contraintes locaux. Une liaison quantitative entre la rugosité de surface et l'écart type de l'erreur de la profondeur de contact initiale est établie grâce à une analyse multi- échelle de la rugosité de la surface. La méthode proposée permet de caractériser les propriétés mécaniques des matériaux sans avoir recours à la préparation de surface pouvant potentiellement altérer ses propriétés (e.g. génération de contraintes résiduelles, contamination de surface…). / Instrumented indentation is a practical and powerful tool for probing the mechanical properties of materials at small scales. However, several errors (surface roughness, indentation size effect, determination of first contact point, etc…) affect the instrumented indentation testing (e.g. the low reproducibility of the indentation curves) and lead to inaccuracies in the determination of mechanical properties of materials analyzed. An original approach is developed in this thesis for the accurate characterization of the mechanical properties of materials. This approach is established by a statistical analysis of the indentation curves with taking account of error in determining the first contact point and effects of the surface roughness. This approach is basing on a minimization of the distance (defined as the initial contact depth error) between the experimental indentation curves and the ones simulated with Bernhard’s model in order to generate a “unique” representative curve which enables to represent all the experimental curves. The proposed method permits to calculate the macro-hardness and the Young’s modulus of materials from this representative curve with the consideration of the errors due to the surface roughness and the indentation size effect for shallow penetration. The robustness of the method is proved by its application to different groups of specimens, i.e. different materials with various mechanical properties, different surface preparation methods (polishing, sandblasting) and different indenter tips to generate different states of local stresses. A quantitative link between the surface roughness and the standard deviation of initial contact depth error is established by a multi-scale surface roughness analyzing. The proposed method enables to characterize the mechanical properties of materials without resorting to the surface preparation which may potentially alter its properties (e.g. generation of residual stresses, surface contamination ...).
124

Traitement statistique du signal : applications en biologie et économie / Statistical signal processing : Applications in biology and economics

Hamie, Ali 28 January 2016 (has links)
Dans cette thèse, nous nous intéressons à développer des outils mathématiques, afin de traiter une gamme des signaux biologiques et économiques. En premier lieu, nous proposons la transformée Dynalet, considérée comme une alternative, pour des signaux de relaxation sans symétrie interne, à la transformée de Fourier et à la transformée ondelette. L'applicabilité de cette nouvelle approximation est illustrée sur des données réelles. Ensuite, nous corrigeons la ligne de base des signaux biologiques spectrométriques, à l'aide d'une régression expectile pénalisée, qui, sur les applications proposées, est plus performante qu'une régression quantile. Puis, afin d'éliminer le bruit blanc, nous adaptons aux signaux spectrométriques une nouvelle approche combinant ondelette, seuillage doux et composants PLS. Pour terminer, comme les signaux peuvent être considérés comme des données fonctionnelles, d'une part, nous développons une vraisemblance locale fonctionnelle dont le but est d'effectuer une classification supervisée des courbes, et, d'autre part, nous estimons l'opérateur de régression pour une réponse scalaire positive non nulle, par minimisation de l'erreur quadratique moyenne relative. De plus, les lois asymptotiques de notre estimateur sont établies et son efficacité est illustrée sur des données simulées et sur des données spectroscopiques et économiques. / In this thesis, we focus on developing mathematical tools to treat a range of biological and economic signals. First, we propose the Dynalet transform for non-symmetrical biological relaxation signals. This transform is considered as an alternative to the Fourier transform and the wavelet transform. The applicability of the new approximation approach is illustrated on real data. Then, for spectrometric biological signals, we correct the baseline using a penalized expectile regression. Thus, the proposed applications show that our proposed regression is more efficient than the quantile regression. Then to remove random noise, we adapt to spectrometric data a new denoising method that combine wavelets, soft thresholding rule and PLS components. Finally, note that the biological signals may be often regarded as functional data. On one hand, we develop a functional local likelihood aiming to perform a supervised classification of curves. On the other hand, we estimate the regression operator with positive responses, by minimizing the mean squared relative error. Moreover, The asymptotic distributions of our estimator are established and their efficiency is illustrated on a simulation study and on a spectroscopic and economic data set.
125

Vers une évaluation du projet école intégrée (enseignement en langue vernaculaire) dans l'enseignement primaire en Côte d'Ivoire : une analyse des performances scolaires d'élèves ivoiriens / Towards an assessment of the integrated school project (teaching in vernacular languages) in primary school in Côte d’Ivoire : an analysis of the performance of Ivorian pupils

Lolo Monney, Happy Rosalie 17 November 2012 (has links)
La côte d'Ivoire comme la plupart des pays de l'Afrique subsaharienne, est multilingue avec environ soixante (60) langues reparties en quatre grands groupes géographiques et culturels (Mandé, Gur, Kru, Kwa). La langue de scolarisation héritée de la colonisation n'est pas la langue de première socialisation des apprenants. Les connaissances scolaires sont inadaptées aux pratiques issues de la réalité socioculturelle des apprenants. Le faible pourcentage des réussites est attribué à une large part à l'incompétence en français des élèves. En 2000, dix (10) langues ivoiriennes (abidji, agni, baoulé, bété, guéré, koulango, mahou, senoufo, yacouba), sont introduites dans le système éducatif à travers le projet école intégrée (PEI). Le projet école intégrée est installé dans les zones rurales. Ses objectifs principaux sont d'une part, l'amélioration de la couverture scolaire qui est passé de 76% en (2001-02) à 74,3% en (2006-07), indiquant ainsi que près de 26% de la population d'âges scolarisables n'a pas accès à l'école. En milieu rural l'accès à l'école est réduit, (66% en milieu rural contre 83% en milieu urbain, in rapport d'état du système éducatif), et varie d'une région à une autre avec une déperdition de 35%. Le PEI se caractérise par un bilinguisme de transition, l'enseignement est entièrement en langue locale au cours préparatoire première année (CP1), le français est appris oralement. Au CP2 et au CE1 (cours élémentaire première année), l'enseignement est bilingue, les apprentissages en lecture/écriture se font à partir des deux langues et dans toutes les matières. / Côte d'Ivoire, like most sub-Saharan African countries is a multilingual country with about sixty (60) local languages split into four main geographical and cultural groups: the Mandé, the Gur, the Kru, and the Kwa). The language of socialisation inherited from the colonial period is not learners‘s first language. What pupils learn at school is not adapted to their socio-cultural realities. Lower rate of success at school is on one side mostly due to the learner's incompetence in French. In 2000 ten (10) Ivorian local languages ( Abidji, Agni, Baoulé, Bété, Guéré, Koulango, Mahou, Sénoufo, Yacouba,) were introduced into the educational system in the framework of the integrated school project (PEI in French). The integrated school project (I S P) exits in rural areas only. Its main objectives are on one hand to improve school needs cover, which fell from 76% (in 2001- 2002) to 74.3% in (2006-2007), thus indicating that nearly 26 % of kids who have reached the age to go to school do not have access to school. In rural areas, access to school is still low (66 % in rural areas against 83% in urban areas, says the national report on the educational system), and varies from one region to another with the loss of 35%. The integrated school project (I S P) is characterized by a bilingualism of transition. The teaching is entirely conducted in the local language of the region at CP1 (first grade), French is introduced only orally. At CP2 and CE1 (second and third grade) teaching takes palace in a bilingual classroom environment .Learning how to read and write is conducted in both languages; this in all the school subjects.
126

Étude théorique et expérimentale de la structure et de la réactivité de quelques complexes de coordination de zinc contenant des ligands base de Schiff / A combined experimental and theoretical study of the structure and reactivity of some Zn-Schiff base complexes

Lamine, Walid 14 September 2018 (has links)
Ce travail a essentiellement porté sur la description et la rationalisation de certaines propriétés des complexes du Zinc contenant des ligands de base de Schiff par le biais d’approches mixtes théorique et expérimentale. La première partie de ce travail concerne la synthèse et la caractérisation d’un nouveau complexe dinucléaire de Zn(II) à ligand base de Schiff tétra-azoté N4. Ce complexe s’auto-assemble en hélice à double brin avec un environnement tétraédrique rarement observé pour l’ion Zn2+ avec ce type de ligand. Ce complexe s’est avéré être thermodynamiquement instable en présence de traces d’eau, subissant ainsi une démétallation rapide. De ce fait, sa réactivité vis-à-vis de l’eau a été étudiée par des mesures spectroscopiques et des calculs DFT. Puis, le mécanisme réactionnel de démétallation a été élucidé pour la première fois et pourrait facilement être généralisé à l’hydrolyse des complexes Zn-sal(ph)en apparentés. Dans la seconde partie, le caractère acide de Lewis, principal facteur de la réactivité/coordination des complexes Zn-sal(ph)en a été étudié au moyen des descripteurs de la DFT-conceptuelle. Une analyse préliminaire a été réalisée sur un prototype modèle à savoir [ZnCl4]2-, et les résultats ont été généralisés aux complexes de Zn-sal(ph)en comportant différents types d’espaceurs diamine (flexible, semi-rigide, et rigide) afin de rationaliser l’acidité de Lewis de ces complexes avec la nature du pont diamine. L’inclusion des densités des états excités par le biais du descripteur dual dit « state specific dual descriptor» a permis de décrire avec succès la réactivité appropriée du complexe choisi. Enfin, la troisième partie de ce travail, est consacré à l’effet dit de « self-interaction » survenue dans la modélisation de la réaction de cyclo-addition du CO2 sur les époxydes catalysée par un complexe Zn-N4 base de Schiff en présence de NBu4X (X=I). Cette erreur menant à des profils énergétiques irréalistes au niveau DFT, a été identifiée et une nouvelle approche théorique a été proposée et développée afin de contourner cette erreur / In this work, we focus our interest on the description and rationalization of some properties of Zinc complexes of Schiff bases schemes through theoretical and experimental approaches. The first study deals with the syntheses and characterization of a novel Zn-N4-Schiff base L= ((±) -trans-N, N’-Bis(2-aminobenzylidene)-1,2-diaminocyclohexane) showing an unexpected self-assembled double-stranded helicate structure , in which zinc atoms are in distorted tetrahedral environments, revealing an M- (R, R) left-handed helicity in its asymmetric unit. This dimer is thermodynamically unstable in presence of water traces and undergoes a rapid demetallation process that is studied by both experimental and theoretical approaches. The reaction is monitored through DOSY NMR analysis, and the theoretical mechanism of the demetallation process is elucidated for the first time using DFT method and which should be easily generalized to the demetallation of N2O2 sal(ph)en Zn complexes. In the second part of this study, the Lewis acidic behavior, the main factor of the reactivity/coordination of Zn-sal(ph)en complexes, is studied using conceptual density functional theory descriptors. This Lewis acidic character is addressed in a first stage to a prototype complex, namely [ZnCl4]2- and the results have been generalized to Zn-sal(ph)en complexes with different diamine bridges through flexible to semi-rigid then to rigid ranges, in order to characterize and rationalize this Lewis acid effect in relation with the nature of the diamine bridge. The inclusion of the electronic excited state densities by the so-called state specific dual descriptor allows us to recover successfully the appropriate reactivity of these chosen complexes. Finally, in the third part, we consider the effect of the « self-interaction » occurring when modeling the cycloaddition of CO2 to epoxide reactions catalyzed via the binary system Zn-N4 Schiff base /NBu4X (X=I). This error leading to unrealistic energy profiles at the DFT level has been identified and a new theoretical approach is proposed and developed to correct this error
127

Use of GNSS signals and their augmentations for Civil Aviation navigation during Approaches with Vertical Guidance and Precision Approaches / Utilisation des signaux GNSS et de leurs augmentations pour l'Aviation Civile lors d'approches avec guidage vertical et d'approches de précision

Neri, Pierre 10 November 2011 (has links)
La navigation par satellite, Global Navigation Satellite System, a été reconnue comme une solution prometteuse afin de fournir des services de navigation aux utilisateurs de l'Aviation Civile. Ces dernières années, le GNSS est devenu l'un des moyens de navigation de référence, son principal avantage étant sa couverture mondiale. Cette tendance globale est visible à bord des avions civils puisqu'une majorité d'entre eux est désormais équipée de récepteurs GNSS. Cependant, les exigences de l'Aviation Civile sont suffisamment rigoureuses et contraignantes en termes de précision de continuité, de disponibilité et d'intégrité pour que les récepteurs GPS seuls ne puissent être utilisés comme unique moyen de navigation. Cette réalité a mené à la définition de plusieurs architectures visant à augmenter les constellations GNSS. Nous pouvons distinguer les SBAS (Satellite Based Augmentation Systems), les GBAS (Ground Based Augmentation Systems), et les ABAS (Aircraft Based Augmentation Systems). Cette thèse étudie le comportement de l'erreur de position en sortie d'architectures de récepteur qui ont été identifiées comme étant très prometteuses pour les applications liées à l'Aviation Civile. / Since many years, civil aviation has identified GNSS as an attractive mean to provide navigation services for every phase of flight due to its wide coverage area. However, to do so, GNSS has to meet relevant requirements in terms of accuracy, integrity, availability and continuity. To achieve this performance, augmentation systems have been developed to correct the GNSS signals and to monitor the quality of the received Signal-In-Space (SIS). We can distinguish GBAS (Ground Based Augmentation Systems), ABAS (Airborne Based Augmentation Systems) SBAS (Satellite Based Augmentation Systems). In this context, the aim of this study is to characterize and evaluate the GNSS position error of various positioning solutions which may fulfil applicable civil aviation requirements for GNSS approaches. In particular, this study focuses on two particular solutions which are: • Combined GPS/GALILEO receivers augmented by RAIM where RAIM is a type of ABAS augmentation. This solution is a candidate to provide a mean to conduct approaches with vertical guidance (APV I, APV II and LPV 200). • GPS L1 C/A receivers augmented by GBAS. This solution should allow to conduct precision approaches down to CAT II/III, thus providing an alternative to classical radio navigation solutions such as ILS. This study deals with the characterization of the statistics of the position error at the output of these GNSS receivers. It is organised as following. First a review of civil aviation requirements is presented. Then, the different GNSS signals structure and the associated signal processing selected are described. We only considered GPS and GALILEO constellations and concentrated on signals suitable for civil aviation receivers. The next section details the GNSS measurement models used to model the measurements made by civil aviation receivers using the previous GNSS signals. The following chapter presents the GPS/GALILEO and RAIM combination model developed as well as our conclusions on the statistics of the resulting position error. The last part depicts the GBAS NSE (Navigation System Error) model proposed in this report as well as the rationales for this model.
128

Architectures pour des circuits fiables de hautes performances / Architectures for reliable and high performance circuits

Bonnoit, Thierry 18 October 2012 (has links)
Les technologies nanométriques ont réduit la fiabilité des circuits électroniques, notamment en les rendant plus sensible aux phénomènes extérieurs. Cela peut provoquer une modification des composants de stockage, ou la perturbation de fonctions logiques. Ce problème est plus préoccupant pour les mémoires, plus sensibles aux perturbations extérieures. Les codes correcteurs d'erreurs constituent l'une des solutions les plus utilisées, mais les contraintes de fiabilité conduisent à utiliser des codes plus complexes, et qui ont une influence négative sur la bande passante du système. Nous proposons une méthode qui supprime la perte de temps due à ces codes lors de l'écriture des données en mémoire, et la limite aux seuls cas où une erreur est détectée lors de la lecture. Pour cela on procède à la décontamination du circuit après qu'une donnée erronée ait été propagée dans le circuit, ce qui nécessite de restaurer certains des états précédents de quelques composants de stockage par l'ajout de FIFO. Un algorithme identifiant leurs lieux d'implémentation a également été créé. Nous avons ensuite évalué l'impact de cette méthode dans le contexte plus large suivant : la restauration d'un état précédent de l'ensemble du circuit en vue de corriger une erreur transistoire susceptible de se produire n'importe où dans le circuit. / Nanometric technologies led to a decrease of electronic circuit reliability, especially against external phenomena. Those may change the state of storage components, or interfere with logical components. In fact, this issue is more critical for memories, as they are more sensitive to external radiations. The error correcting codes are one of the most used solutions. However, reliability constraints require codes that are more and more complex. These codes have a negative effect on the system bandwidth. We propose a generic methodology that removes the timing penalty of error correcting codes during memory's write operation. Moreover, it limits the speed penalty for read operation only in the rare case an error is detected. To proceed, the circuit is decontaminated after uncorrected data were propagated inside the circuit. This technique may require restoring some past states of few storage components by adding some FIFO. An algorithm that identifies these components was also created. Then we try to evaluate the impact of such a technique for the following issue: the global state restoration of a circuit to erase all kinds of soft errors, everywhere inside the circuit.
129

Malebranche e il metodo / Malebranche et la méthode / Malebranche and his method

Lovascio, Tania 11 July 2017 (has links)
De la Méthode, le VIème et dernier livre de la Recherche de la Vérité, a été consacré par Malebranche à l’exposition de sa méthode. Ce traité est toutefois demeuré en dehors des cercles d’intérêt des études malebranchistes. Le premier objectif de notre travail consiste donc à tenter de suppléer à ce manque en proposant une étude de la méthode qui mette en lumière ses aspects fondamentaux, dont, en premier lieu, le rapport qu’elle entretient avec la doctrine cartésienne des Regulae ad directionem ingenii. L’hypothèse a été soulevée que Clerselier ait pu transmettre à Malebranche le manuscrit cartésien, encore non publié à l’époque de la rédaction de la Recherche. Pour approfondir cette question, nous avons reconstruit et analysé toutes les correspondances avec les Regulae présentes dans l’œuvre. Ce dossier montre que l’hypothèse mentionnée ci-dessus est fondée : Malebranche s’inspire profondément du texte cartésien dans l’élaboration de sa méthode. Un autre aspect nous ayant semblé digne d’intérêt est le rapport entre la méthode et le problème de l’erreur, auquel Malebranche consacre les cinq premiers livres de la Recherche. L’incidence de la doctrine cartésienne de la IVème Méditation n’émerge pas sans révéler l’originalité de certaines thèses et traités du parcours de l’oratorien. Apparaît également le thème de la science universelle, ou la question de l’ordre, des questions essentielles exigeant une comparaison avec Descartes. Une comparaison qui reste toujours en toile de fond : il ne pourrait pas en être autrement puisque Descartes n’est pas seulement à l’origine de la vocation philosophique de Malebranche, mais aussi de la constitution de sa méthode. / Malebranche dedicates the sixth and final book of the Recherche de la Vérité, entitled De la Méthode, to presenting his method. This treatise has been left outside of the sphere of interest for studies on Malebranche. The primary goal of my work is to fill this gap and provide a study on the method by highlighting some of its key aspects. The first of these concerns its relationship with the Cartesian doctrine of Regulae ad directionem ingenii. Clerselier is assumed to have notified Malebranche of the Cartesian manuscript, which had not yet been published at the time of writing the Recherche. To examine this very question, I have reconstructed and analysed all correlations with the Regulae found within the work. This dossier demonstrates the validity of the above assumption: that his knowledge of this Cartesian text greatly inspired Malebranche as he developed his method. Another noteworthy aspect I have explored is the method’s relationship with the issue of error, which is addressed by Malebranche in the first five books of the Recherche. The influence of the Cartesian doctrine of the fourth Meditation does not emerge without revealing the originality of certain arguments and certain parts of Malebranche's development. There is also the topic of universal science and that of order – essential issues that naturally allude to the comparison with Descartes. This comparison always and inevitably remains in the background: Descartes is found not only at the origin of Malebranche’s philosophical calling, but also in the construction of his method.
130

La vraisemblance en matière pénale

Le Drevo, Delphine 30 June 2017 (has links)
Si la manifestation de la vérité apparaît comme l’un des objectifs centraux du procès pénal, confronté à l’obstacle du doute, le droit doit bien souvent se contenter de vraisemblance. Pressés par les nécessités d’agir et de décider, les acteurs de la justice pénale ne pourront pas toujours attendre d’être absolument certains de leur opinion. Afin d’éviter l’écueil de l’immobilisme - qui serait préjudiciable à l’intérêt de la société - ou celui de la précipitation – qui serait préjudiciable à l’intérêt de l’individu -, le droit pénal organise une réaction fondée sur une réalité vraisemblable. La vraisemblance contribue ainsi à la réalisation prudente et efficace du droit pénal. Il faut alors admettre que si la vraisemblance n’est pas une notion spécifiquement juridique, il n’en demeure pas moins que le droit lui reconnaît des effets. L’ambition de cette étude est de démontrer que la vraisemblance innerve l’ensemble de la matière pénale et permet d’y introduire les garanties suffisantes d’objectivité dont elle a besoin, car seule l’existence hautement probable d’une réalité infractionnelle permet de forger le seuil de vraisemblance à partir duquel ce standard va pouvoir produire des effets de droit. Il est alors question d’identifier ces effets de droit, d’en démontrer les ressorts et de déterminer les possibilités de surpassement du doute qu’offre cette notion / If the manifestation of truth appears as one of the central objectives of the criminal trial, confronted with the obstacle of doubt, the law must often be satisfied with verisimilitude. Pressed by the necessity to act and decide, the actors of the criminal justice system can not always wait to be absolutely certain of their opinion. In order to avoid the pitfall of immobilism - which would be prejudicial to the interests of society - or that of precipitation - which would be detrimental to the interest of the individual - the criminal law organizes a reaction based on a plausible reality. The likelihood thus contributes to the prudent and effective realization of criminal law. It must be recognized, then, that while verisimilitude is not a legal concept, the fact remains that the law recognizes its effects. The ambition of this study is to demonstrate that the likelihood serves as a basis for the whole of penal matters and allows the necessary guarantees of objectivity to be introduced, since only a certain degree of conviction allows for the threshold of Likelihood that this standard will produce legal effects. It is then a question of identifying these legal effects, of demonstrating the springs and of determining the possibilities of overcoming the doubt that this notion offers. Likelihood is indeed a formidable tool for overcoming doubt, to which the law assigns two predominant roles : an operative role in the first place, by authorizing the investigating and investigating authorities to act in spite of their doubts. A probative role then, to the extent that the existence of certain facts presents such a likelihood that they benefit from a presumption of truth

Page generated in 0.0257 seconds