• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 142
  • 32
  • 5
  • 4
  • 1
  • 1
  • Tagged with
  • 191
  • 98
  • 27
  • 25
  • 19
  • 17
  • 17
  • 17
  • 17
  • 17
  • 16
  • 16
  • 15
  • 14
  • 14
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
111

Processus cohérents et applications des phénomènes de lumière lente et rapide dans l'hélium métastable à température ambiante

Lauprêtre, Thomas 23 December 2012 (has links) (PDF)
L'interaction entre des champs électromagnétiques et des systèmes à plusieurs niveaux peut donner lieu à différents processus cohérents. La transparence électromagnétiquement induite (EIT) ou les oscillations cohérentes de populations (CPO) sont des phénomènes résonnants ayant pour conséquence d'annuler l'absorption du système pour un champ sonde. L'EIT se produit dans les systèmes à trois niveaux et met en jeu une cohérence entre niveaux non couplés optiquement, alors que les systèmes à deux niveaux suffisent pour faire apparaître le CPO qui ne met pas en jeu la dynamique des cohérences.Il est possible dans un milieu constitué d'atomes d'hélium métastable à température ambiante d'extraire un système à trois niveaux en Λ qui, lorsqu'il est excité par des polarisations circulaires, fait apparaître des fenêtres EIT de l'ordre de quelques dizaines de kHz de large. Lorsque ce système est excité par des polarisations linéaires et soumis à un champ magnétique de faible amplitude, c'est l'association des deux phénomènes de CPO et d'EIT qui détermine la réponse du système. Une fenêtre de transparence CPO de quelques dizaines de kHz de large a en particulier été observée.Ce type de phénomènes résonnants est associé à de grandes variations de l'indice de réfraction avec la fréquence du champ sonde, ayant pour conséquence de profondes modifications de la vitesse de groupe d'une impulsion se propageant dans le milieu. Notre système expérimental permet ainsi d'observer de la lumière lente, de la lumière rapide ainsi que des vitesses de groupe négatives. L'insertion de tels milieux dispersifs en cavité optique a été suggérée pour augmenter la précision de senseurs comme les gyroscopes lasers, mais leur bruit fondamental dépend de la durée de vie des photons dans la cavité. C'est pourquoi l'influence des milieux hautement dispersifs sur la durée de vie des photons dans une cavité est étudiée expérimentalement et théoriquement.
112

Modélisation de causalité et diagnostic des systèmes complexes de grande dimension.

Faghraoui, Ahmed 11 December 2013 (has links) (PDF)
Cette thèse s'inscrit dans le cadre du projet européen PAPYRUS (7th FWP (Seventh Framework Program) et concerne le développement de modèles et d'outils permettant l'analyse d'un procédé industriel en interaction avec les indicateurs des performances du système. Ainsi que la synthèse d'algorithmes "Plug & Play" de diagnostic de défauts. Plus précisément, le premier objectif de la thèse est de proposer des modèles et des critères qui permettent, pour un procédé complexe de grande dimension, de savoir si des objectifs, exprimés en termes de performances (coût, de sûreté de fonctionnement, etc.), sont atteignables. Dans le cadre de la modélisation de causalité du système, une méthode, basée sur le transfert entropie, est proposée afin d'identifier le modèle de causalité du système à partir des données. On s'intéressera aussi à l'influence de divers défauts sur cette atteignabilité. Les outils utilisés sont principalement basés sur l'analyse par approche graphique (graphe de causalité) conjointement avec des outils statistiques. Le second objectif concerne la mise en oeuvre d'algorithmes de diagnostic de défauts. Une procédure hiérarchique de diagnostic de défauts s'appuyant sur les modèles de causalité du système est mise en oeuvre. Cette étape a aussi pour objectif de permettre l'évaluation des performances du système. La cible est le procédé d'application du projet PAPYRUS (papeterie Stora Enso d'IMATRA en Finlande).
113

Les logiciels libres sous l'angle de la responsabilité civile

Lemyre, Pierre-Paul 12 1900 (has links)
Distribués sous des licences permissives qui assurent des droits d'utilisation, de modification et de redistribution aux licenciés, l'élaboration des logiciels libres est fondée sur un modèle de développement décentralisé. Ces caractéristiques posent de nombreux défis au milieu juridique, particulièrement en ce qui a trait à la responsabilité civile. Ainsi, les développeurs se demandent dans quelles circonstances leur responsabilité civile peut être engagée suite à la défaillance de leur logiciel libre. De la même façon, ils questionnent la possibilité d'appliquer cette responsabilité à un nombre important de développeurs dispersés aux quatre coins du globe. L'analyse présentée montre que le droit, tel qu'il existe actuellement, est en mesure de résoudre la majorité des problèmes relatifs à la détermination et l'application de la responsabilité civile en matière de logiciels libres. Les règles de la responsabilité civile représentent donc un risque potentiel pour les développeurs de logiciels libres, même s'ils sont relativement bien protégés par les contextes juridiques et factuels. / Distributed under permissive licenses that guarantee the users use, modification and redistribution rights, the development of free software is decentralized. Numerous legal challenges flow from this, particularly respecting civil liability matthers. In consequence, developers are concerned regarding the circumstances in which they could be liable based on the faillure of their free software. They are equally questionning the possibility that numerous developers scattered around the world could be jointly liable. The analysis show that the law, in its actual form, is able to answer the majority of the issues resulting from the establishment and the application of civil liability regarding free software. In this way, civil liability rules are representing a potential risk to free software developers, even if they are relatively weil protected by the legal and factual contexts. / "Mémoire présenté à la faculté des études supérieures en vue de l'obtention du grade de maîtrise en droit des technologies de l'information [LL.M]". Ce mémoire a été accepté à l'unanimité et classé parmi les 10% des mémoires de la discipline. Commentaires du jury : "Avec les félicitations du jury."
114

Les tests de causalité en variance entre deux séries chronologiques multivariées

Nkwimi-Tchahou, Herbert 12 1900 (has links)
Les modèles de séries chronologiques avec variances conditionnellement hétéroscédastiques sont devenus quasi incontournables afin de modéliser les séries chronologiques dans le contexte des données financières. Dans beaucoup d'applications, vérifier l'existence d'une relation entre deux séries chronologiques représente un enjeu important. Dans ce mémoire, nous généralisons dans plusieurs directions et dans un cadre multivarié, la procédure dévéloppée par Cheung et Ng (1996) conçue pour examiner la causalité en variance dans le cas de deux séries univariées. Reposant sur le travail de El Himdi et Roy (1997) et Duchesne (2004), nous proposons un test basé sur les matrices de corrélation croisée des résidus standardisés carrés et des produits croisés de ces résidus. Sous l'hypothèse nulle de l'absence de causalité en variance, nous établissons que les statistiques de test convergent en distribution vers des variables aléatoires khi-carrées. Dans une deuxième approche, nous définissons comme dans Ling et Li (1997) une transformation des résidus pour chaque série résiduelle vectorielle. Les statistiques de test sont construites à partir des corrélations croisées de ces résidus transformés. Dans les deux approches, des statistiques de test pour les délais individuels sont proposées ainsi que des tests de type portemanteau. Cette méthodologie est également utilisée pour déterminer la direction de la causalité en variance. Les résultats de simulation montrent que les tests proposés offrent des propriétés empiriques satisfaisantes. Une application avec des données réelles est également présentée afin d'illustrer les méthodes / Time series models with conditionnaly heteroskedastic variances have become almost inevitable to model financial time series. In many applications, to confirm the existence of a relationship between two time series is very important. In this Master thesis, we generalize in several directions and in a multivariate framework, the method developed by Cheung and Ng (1996) designed to examine causality in variance in the case of two univariate series. Based on the work of El Himdi and Roy (1997) and Duchesne (2004), we propose a test based on residual cross-correlation matrices of squared residuals and cross-products of these residuals. Under the null hypothesis of no causality in variance, we establish that the test statistics converge in distribution to chi-square random variables. In a second approach, we define as in Ling and Li (1997) a transformation of the residuals for each residual time series. The test statistics are built from the cross-correlations of these transformed residuals. In both approaches, test statistics at individual lags are presented and also portmanteau-type test statistics. That methodology is also used to determine the direction of causality in variance. The simulation results show that the proposed tests provide satisfactory empirical properties. An application with real data is also presented to illustrate the methods
115

Inférence exacte simulée et techniques d'estimation dans les modèles VAR et VARMA avec applications macroéconomiques

Jouini, Tarek January 2008 (has links)
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal
116

Dynamique lorentzienne et groupes de difféomorphismes du cercle

Monclair, Daniel 30 June 2014 (has links) (PDF)
Cette thèse comporte deux parties, axées sur des aspects différents de la géométrie lorentzienne. La première partie porte sur les groupes d'isométries de surfaces lorentziennes globalement hyperboliques spatialement compactes, particulièrement lorsque le groupe exhibe une dynamique non triviale (action non propre). Le groupe d'isométries agit naturellement sur le cercle par difféomorphismes, et les résultats principaux portent sur la classification de ces représentations. Sous une hypothèse sur le bord conforme, on obtient une conjugaison par homéomorphisme avec l'action projective d'un sous-groupe de PSL(2,R) ou de l'un de ses revêtements finis. La différentiabilité de la conjuguante est étudiée, avec des résultats qui garantissent une conjugaison dans le groupe de difféomorphismes du cercle dans certains cas. On donne également des contre-exemples à l'existence d'une conjugaison différentiable, y compris pour des groupes ayant une dynamique riche. Ces constructions s'appuient sur l'étude de flots hyperboliques en dimension trois. Sans l'hypothèse sur le bord conforme, on obtient une semi conjugaison et un isomorphisme de groupes. On construit également des exemples pour lesquels il n'existe pas de conjugaison topologique. La seconde partie de cette thèse étudie un espace-temps vu comme un système dynamique multi-valuée : à un point on associe sont futur causal. Cette approche, déjà présente dans les travaux de Fathi et Siconolfi, permet de concrétiser le lien entre fonctions de Lyapunov en systèmes dynamiques et fonctions temps. Le résultat principal est une version lorentzienne du Théorème de Conley : on peut définir l'ensemble récurrent par chaînes d'un espace-temps, et il existe une fonction continue croissante le long de toute courbe causale orientée vers le futur, strictement croissante si le point de départ de la courbe n'est pas dans l'ensemble récurrent par chaînes. Ces techniques s'adaptent aussi dans un espace-temps stablement causal, ce qui permet de donner une nouvelle preuve d'une partie du Théorème d'Hawking.
117

Structures causales et pensée formelle en science économique

Hénin, Pierre-Yves 31 March 1971 (has links) (PDF)
Après un chapitre préliminaire discutant du statut et des limites du principe de causalité, une première partie traite de divers problèmes épistémologiques d'une pensée formelle. Le chapitre II présente et discute de l'empirisme logique, épistémologie de référence très influente parmi les économistes anglo-saxons. Le chapitre III examine le rôle de la forme dans la connaissance, de Kant au formalisme contemporain, en remarquant en particulier l'apport de l'épistémologie génétique de Piaget. Le chapitre IV discute du statut des représentations, de la notion de modèle et des critères d'une représentation scientifique. On relève au passage des acquis de la théorie des modèles qui devraient retenir l'attention des économistes comme l'équivalence entre existence d'un modèle et consistance d'une théorie, ou la distinction entre modèle de [un objet] et modèle pour [une théorie]. La deuxième partie s'attache à développer la notion de structure causale. Traitant des définitions intentionnelles, le chapitre V distingue les définitions sémantiques (cause antécédent, production de l'effet, homogène ou exogène à l'effet, dépendance asymétrique) et des définitions opérationnelles reposant sur l'analogie expérimentale ou sur des critères formels, de Wold à Lazarsfeld. Abordant des définitions effectives, le chapitre VI présente et approfondit l'approche de Simon pour lequel la causalité introduit un ordre dans le calcul. Recourant au formalisme des digraphes, il établit que les sous-ensembles déterminés minimaux qui, chez Simon, définissent un niveau de causalité dans une structure s'interprète comme une composante fortement connexe du digraphe représentant cette structure, ce qui ouvre la voie à l'utilisation de nouveaux instruments pour caractériser la structure causale d'un grand modèle. On montre enfin comment cette représentation, indépendante de la définition chronologique introduite par Granger en 1969, peut s'appliquer à des structures diachroniques comme synchroniques.
118

L’ontologie de la causalité adoptée par David Hume : un new Hume debate de peu de conséquence pour le monde

Raymond-Robidoux, Jordan 12 1900 (has links)
No description available.
119

Vers la prévention et l'anticipation dans la pratique médicale : réflexions sur l'épistémologie des biomarqueurs dans le cas de la maladie d'Alzheimer / Towards prevention and anticipation in medical practice : reflections on the epistemology of biomarkers in the case of Alzheimer’s disease

Hache, Jean 19 January 2018 (has links)
Cette thèse développe une réflexion épistémologique autour de la notion de biomarqueurs dans le cas de la maladie d’Alzheimer. Elle est centrée sur le transfert des connaissances du domaine de la biologie à celui de la pratique médicale et clinique, avec une attention particulière aux techniques de diagnostic précoce et aux Big Data. La maladie d’Alzheimer présente une temporalité particulière, son apparition étant insidieuse et sa phase asymptomatique longue. Elle se différencie des cancers en ne se prêtant pas à l’analyse génomique de cellules spécifiques, et permet ainsi d’aborder différemment le statut épistémique des biomarqueurs. Le biomarqueur (que ce soit une molécule, un réseau d’interactions, voire un algorithme), est porteur d’information sans pour autant établir un lien de causalité directe avec la maladie. C’est essentiellement un indice et non la représentation de la condition réelle d’un sujet ; c’est ensuite un objet entouré d’incertitude ; c’est enfin un objet dont la maîtrise n’est pas totale, un objet qui n’est jamais complètement donné. Enfin, les relations entre le biomarqueur et le milieu extérieur font partie intégrante de son fonctionnement. Les biomarqueurs sont essentiels dans la transformation des pratiques médicales vers l’anticipation et le suivi de l’évolution de la condition d’un sujet. En mettant en évidence des éléments transformant des facteurs de risque en une pathologie, les biomarqueurs invitent chacun à se surveiller et permettent un accompagnement des personnes dans une situation où elles n’ont encore aucun signe clinique d’une maladie évolutive. / This dissertation develops epistemological reflections on the notion of biomarkers in the case of Alzheimer’s disease. It focuses on the challenge posed by the transfer of knowledge from the field of biology to medical and clinical practices, with a special attention to the techniques of early diagnosis and especially the role of Big Data. Alzheimer's disease presents a particular temporality, its appearance being insidious with a long asymptomatic phase. It differs from cancer by not being amenable to genomic analysis of specific cells, and thus allows a different approach to the epistemic status of biomarkers. The biomarker whether it be a molecule, network of interactions, or even an algorithm, sheds light on the disease in the absence of any direct causal links between the biomarker and the disease. It is primarily an indicator rather than the representation of a body condition. As a consequence, it is always surrounded by uncertainty and never fully mastered, nor fully given. The biomarker is an object whose relations with the environment are an integral part of its functioning. Biomarkers are essential in transforming medical practices towards anticipating and monitoring the evolution of a subject's health condition. By highlighting elements that transform risk factors into a pathology, biomarkers invite everyone to monitor themselves and make it possible to support people well ahead of the appearance of clinical signs of an evolving disease.
120

L'éthique cartésienne de la pensée / The cartesian ethics of the thought

Lallemand, Jean-Daniel 28 January 2012 (has links)
L'œuvre de Descartes est une œuvre de pensée, qu'il a voulue et qu'il a bâtie avec méthode, rigueur et constance tout au long de sa vie. À travers cette œuvre, ce n'est pas tant la vérité des choses que l'on découvre, que la manière dont on peut construire sa pensée et son propre système de certitudes. Et la manière que nous propose Descartes et qu'il a lui-même mise en œuvre repose sur le souci de la cohérence. Penser avec vérité le monde est alors le moyen le plus sûr de penser de manière cohérente. L'étude a pour objet de mettre en lumière les règles qui constituent, de fait, ce que l'on peut appeler la maxime cartésienne de la pensée. Pour ce faire, on commence par décrire ce qu'est, pour Descartes, d'une part la pensée, et d'autre part ce monde qu'il s'agit justement de penser. On est ainsi conduit à examiner et à critiquer en particulier la place que tient l'existence de Dieu dans le dispositif cartésien qui vise à garantir la cohérence de sa propre pensée. Malgré l'application qu'il fit de sa maxime, Descartes n'évita pourtant pas une erreur qui allait fragiliser son système de certitudes : il s'agit de sa conception de la matière comme pure étendue. Le "roman de la nature" qu'il imagina alors sur cette base erronée a beau être très cohérent, il ne représente malheureusement pas la réalité du monde. C'est en introduisant l'intersubjectivité dans l'éthique de la pensée, c'est-à-dire en acceptant de frotter son propre système de certitudes à celui d'un Autre, dont on reconnaît l'existence et la valeur, que l'on peut sans doute éviter ce type de dérive. On constate alors que l'idée de l'Homme, qui est à la fois l'ego cartésien et cet Autre, remplace avec profit l'idée de Dieu dans la perspective d'une garantie de la vérité. / Descartes' work is a work of thought, which he wanted and built with method, strictness and constancy his whole life through. Thanks to this work, we do not discover as much the truth of the things as the way we can build our own thought and system of convictions. And the method Descartes is suggesting and applying in the mean time is aimed at coherence. To think truly the world is consequently the most reliable way to think with coherence.The subject of the study is to highlight the rules that indeed make up what we may call the Cartesian maxim of the thought. With this aim in view, we start with the description of what is for Descartes the thought on one hand, and on the other hand, this world which is precisely to be thought. We are then led to examining and criticizing the role of God's existence in the Descartes' system, which aims to guarantee the coherence of his own thought. However, in spite of the application of his maxim, Descartes did not avoid an error which was to weaken his system of convictions, that is to say his conception of the matter as pure expanse. Even if the "novel of nature" he then imagined on this erroneous basis is coherent, it unfortunately does not represent the reality of the world. By introducing inter-subjectivity in the ethics of the thought, i.e. by accepting to rub our own system of convictions to the one of the "Other", whose existence and value we recognise, we no doubt can avoid this kind of drift. So we establish that the idea of Man, who is both the Cartesian ego and this Other one, takes with great benefit the place of the idea of God, in the prospect of guaranteeing the truth.

Page generated in 0.032 seconds