• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 5
  • 4
  • 1
  • Tagged with
  • 10
  • 8
  • 4
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Fiabilité et sûreté des systèmes informatiques critiques / Reliability and Safety of Critical Device Software Systems

Singh, Neeraj Kumar 15 November 2011 (has links)
Les systèmes informatiques envahissent notre vie quotidienne et sont devenus des éléments essentiels de chacun de nos instants de vie. La technologie de l'information est un secteur d'activités offrant des opportunités considérables pour l'innovation et cet aspect paraît sans limite. Cependant, des systèmes à logiciel intégré ont donné des résultats décevants. Selon les constats, ils étaient non fiables, parfois dangereux et ne fournissaient pas les résultats attendus. La faiblesse des pratiques de développement constitue la principale raison des échecs de ces systèmes. Ceci est dû à la complexité des logiciels modernes et au manque de connaissances adéquates et propres. Le développement logiciel fournit un cadre contribuant à simplifier la conception de systèmes complexes, afin d'en obtenir une meilleure compréhension et d'assurer une très grande qualité à un coût moindre. Dans les domaines de l'automatique, de la surveillance médicale, de l'avionique..., les systèmes embarqués hautement critiques sont candidats aux erreurs pouvant conduire à des conséquences graves en cas d'échecs. La thèse vise à résoudre ce problème, en fournissant un ensemble de techniques, d'outils et un cadre pour développer des systèmes hautement critiques, en utilisant des techniques formelles à partir de l'analyse des exigences jusqu'à la production automatique de code source, en considérant plusieurs niveaux intermédiaires. Elle est structurée en deux parties: d'une part des techniques et des outils et d'autre part des études de cas. La partie concernant des techniques et des outils présente une structure intégrant un animateur de modèles en temps-réel, un cadre de correction de modèles et le concept de charte de raffinement, un cadre de modélisation en vue de la certification, un modèle du coeur pour la modélisation en boucle fermée et des outils de générations automatiques de code. Ces cadres et outils sont utilisés pour développer les systèmes critiques à partir de l'analyse des exigences jusqu'à la production du code, en vérifiant et en validant les étapes intermédiaires en vue de fournir un modèle formel correct satisfaisant les propriétés souhaitées attendues au niveau le plus concret. L'introduction de nouveaux outils concourt à améliorer la vérification des propriétés souhaitées qui ne sont pas apparentes aux étapes initiales du développement du système. Nous évaluons les propositions faites au travers de cas d'études du domaine médical et du domaine des transports. De plus, le travail de cette thèse a étudié la représentation formelle des protocoles médicaux, afin d'améliorer les protocoles existants. Nous avons complètement formalisé un protocole réel d'interprétation des ECG, en vue d'analyser si la formalisation était conforme à certaines propriétés relevant du protocole. Le processus de vérification formelle a mis en évidence des anomalies dans les protocoles existants. Nous avons aussi découvert une structure hiérarchique pour une interprétation efficace permettant de découvrir un ensemble de conditions qui peuvent être utiles pour diagnostiquer des maladies particulières à un stade précoce. L'objectif principal du formalisme développé est de tester la correction et la consistance du protocole médical / Software systems are pervasive in all walks of our life and have become an essential part of our daily life. Information technology is one major area, which provides powerful and adaptable opportunities for innovation, and it seems boundless. However, systems developed using computer-based logic have produced disappointing results. According to stakeholders, they are unreliable, at times dangerous, and fail to provide the desired outcomes. Most significant reasons of system failures are the poor development practices for system development. This is due to the complex nature of modern software and lack of adequate and proper understanding. Software development provides a framework for simplifying the complex system to get a better understanding and to develop the higher fidelity quality systems at lower cost. Highly embedded critical systems, in areas such as automation, medical surveillance, avionics, etc., are susceptible to errors, which can lead to grave consequences in case of failures. This thesis intends to contribute to further the use of formal techniques for the development computing systems with high integrity. Specifically, it addresses that formal methods are not well integrated into established critical systems development processes by defining a new development life-cycle, and a set of associated techniques and tools to develop highly critical systems using formal techniques from requirements analysis to automatic source code generation using several intermediate layers with rigorous safety assessment approach. The approach has been realised using the Event-B formalism. This thesis has mainly two parts: techniques and tools and case studies. The techniques and tools section consists of development life-cycle methodology, a framework for real-time animator, refinement chart, a set of automatic code generation tools and formal logic based heart model for close loop modeling. New development methodology, and a set of associated techniques and tools are used for developing the critical systems from requirements analysis to code implementation, where verification and validation tasks are used as intermediate layers for providing a correct formal model with desired system behavior at the concrete level. Introducing new tools help to verify desired properties, which are hidden at the early stage of the system development. We also critically evaluate the proposed development methodology and developed techniques and tools through case studies in the medical and automotive domains. In addition, the thesis work tries to address the formal representation of medical protocols, which is useful for improving the existing medical protocols. We have fully formalised a real-world medical protocol (ECG interpretation) to analyse whether the formalisation complies with certain medically relevant protocol properties. The formal verification process has discovered a number of anomalies in the existing protocols. We have also discovered a hierarchical structure for the ECG interpretation efficiently that helps to find a set of conditions that can be very helpful to diagnose particular disease at the early stage. The main objective of the developed formalism is to test correctness and consistency of the medical protocol
2

Reconnaissance d'objets utilisant des histogrammes multidimensionnels de champs réceptifs

Schiele, Bernt 16 July 1997 (has links) (PDF)
Au cours des dernières années, l'intérêt pour des algorithmes de reconnaissance fondés sur l'apparence à considérablement augmenté. Ces algorithmes utilisent directement des informations d'images. A partir des images d'objets ces approches construisent des "modèles fondés sur l'apparence", car chaque image représentée correspond à une apparence particulière d'un objet. La fiabilité, la vitesse et le taux de reconnaissance élevé de ces techniques en constituent les intérêts majeurs. Le succès de ces méthodes est considérable pour la reconnaissance de visages, dans le contexte de l'interface homme-machine et pour l'accès à des bases d'images par leurs contenus. Cette thèse propose une technique ou les objets sont représentés par des statistiques sur des opérateurs locaux et robustes. On veut montrer qu'une telle représentation fondée sur l'apparence est fiable et extrêmement discriminante pour la reconnaissance d'objets. La motivation initiale de cette étude était la reconnaissance rapide d'objets par la méthode des histogrammes de couleurs. Cette méthode utilise les statistiques de couleurs comme modèle d'objets. La première partie de la thèse généralise cette approche en modélisant des objets par les statistiques de leurs caractéristiques locales. La technique généralisée - que l'on appelle "histogrammes multidimensionnels de champs" réceptifs - permet de discriminer un grand nombre d'objets. Les faiblesses de cette approche sont liées aux "défis des modèles fondés sur l'apparence". Ces défis concernent la reconnaissance en présence d'occultation partielle, la reconnaissance d'objets 3D à partir des images 2D et la classification d'objets comme généralisation en dehors de la base d'objets. La deuxième partie de la thèse examine chacun de ces défis et propose une extension appropriée de notre technique. L'intérêt principal de cette thèse est le développement d'un modèle de représentation d'objets qui utilise les statistiques de vecteurs de champs réceptifs. Plusieurs algorithmes de l'identification et aussi de la classification d'objets sont proposés. En particulier, un algorithme probabiliste est defini : il ne dépend pas de la correspondance entre les images de test et les objets de la base de données. Des expériences obtiennent des taux de reconnaissance élevés en utilisant le modèle de représentation proposé. dans un état de l'art on décrit brièvement des techniques qui ont étés sources d'inspiration : des techniques de histogrammes de couleurs, des algorithmes de reconnaissance fondée sur des descripteurs locaux et des approches de la représentation et reconnaissance statistique d'objet. Afin de généraliser la technique de la comparaison d'histogrammes de couleurs, des descripteurs locaux sont discutés. Différentes techniques de comparaison d'histogrammes sont proposées et leur robustesse par rapport au bruit et au changement de l'intensité d'éclairage est analysée. Dans des expérimentations de l'identification d'une centaine d'objets les différents degrés de liberté de la reconnaissance d'objets sont considérés : changements d'échelle et de la rotation d'image, variations du point de vue et occultation partielle. Un algorithme probabiliste est proposé, qui ne dépend pas de la correspondance entre les images de test et les objets de la base de données. Des expériences obtiennent des taux de reconnaissance élevés en utilisant seulement une petite partie visible d'objet. Enfin une extension de cet algorithme fondée sur une table de hachage dynamique est proposée pour la reconnaissance de plusieurs objets dans les scènes complexes. Deux algorithmes actifs de reconnaissance d'objets sont proposés. Un algorithme calcule des régions d'intérêt pour le contrôle de fixation d'une caméra en 2D. Le deuxième algorithme propose la planification de points de vue pour la reconnaissance des objets 3D à partir des apparence d'objets en 2D. Un dernier chapître propose le concept des classes visuelles définis par des similarites d'objets comme cadre général pour la classification d'objets. Une technique selon le maximum de vraisemblance est proposé pour la reconnaissance des classes visuelles et appliquée pour obtenir des images visuellement similaire d'une base d'images.
3

L’action civile de l’associé en droit pénal des sociétés / Partner civil proceedings from a business criminal law angle

Martinelle, Mathieu 11 December 2017 (has links)
La victime en col blanc est mésestimée, tant par l’opinion publique que par le droit. Si les infractions en matière économique, financière et boursière heurtent, les personnes lésées par ces agissements bénéficient peu de l’empathie traditionnellement accordée aux victimes pénales. Parmi elles, il en est cependant une qui mérite une attention particulière : l’associé. Alors qu’une personne sur trois dispose en France de cette qualité, l’associé est susceptible d’être une victime du fait de son engagement. Acteur social majeur, il peut subir les effets d’une infraction au droit pénal des sociétés. Lorsqu’il est la victime d’une telle infraction, l’associé a vocation à exercer une action civile. Action en réparation appartenant à tous ceux ayant subi un dommage directement causé par l’infraction, celle-ci est toutefois réservée aux seuls associés titulaires du bien juridique protégé par l’incrimination chef des poursuites. Alors que le droit d’agir en action civile de l’associé est ainsi limité, le bien-fondé de la demande en réparation de son préjudice est également soumis à des conditions interprétées à l’aune de théories singulières. Le brouillard dans lequel se situe aujourd’hui l’associé victime d’une infraction au droit pénal des sociétés est dense. Il nous revient de l’en sortir en proposant des évolutions conformes au droit et répondant à la situation réelle de cette victime pénale jusque-là oubliée. / White-collar victims are usually left on the sidelines, both by the public opinion and the law. While economic and financial offences, without mentioning those related to stock market, are conscience-shocking, the victims of those offences are not of much concern. Yet, one of them is worth paying attention to, i.e. the partner. Being a partner, which is the case for one-in-three French people, may involve a side-effect, that is being victim of his or her own commitment. As a major actor of both business and social life, the partner may be harmed by a business crime. When victim, the partner may bring the civil proceedings, which are actions for compensation belonging to those directly harmed by the criminal offence. Nonetheless, this action is restricted to the partner bearer of the protected legal interest. As for the right of action, the validity of damage claims is limited by conditions interpreted in the light of peculiar theories. The partner, victim of business crimes, is thus lost in a heavy mist, from which he or she must be shown the way out by proposing legal changes addressing the real situation of the up-to-now forgotten victim.
4

L'inopérance des moyens dans le contentieux administratif français / The ineffectiveness of pleas in the french administrative judicial procedure

Poulet, Florian 24 November 2014 (has links)
La notion d’inopérance des moyens a acquis, en particulier depuis ces dernières années, une place majeure dans le contentieux administratif français. Le juge l’utilise fréquemment dans ses décisions et les membres de la doctrine ne manquent pas de l’employer dans leurs travaux. Pourtant, aucune étude d’ampleur, consacrée spécifiquement à la notion et appréhendant l’ensemble de ses aspects, n’a, jusqu’à présent, été entreprise. Ceci explique qu’elle soit, aujourd’hui, mal connue et apparaisse, au premier abord, difficile à cerner. Les manifestations de ce caractère insaisissable sont multiples : ainsi, par exemple, l’inopérance se voit souvent confondue avec l’irrecevabilité ; de même, les raisons pour lesquelles le juge constate, dans telle ou telle espèce, l’inopérance du moyen invoqué, sont mal identifiées ; de même encore,lorsqu’ils ne sont pas tout simplement niés, les effets procéduraux de l’inopérance sont largement sous-estimés. À partir d’un examen approfondi de la jurisprudence et des pratiques adoptées par la juridiction administrative, l’étude a eu pour objet de procéder à une clarification de la notion d’inopérance des moyens. Il s’est agi, d’abord, d’en délimiter les contours et d’en déterminer le contenu, en proposant une définition de l’inopérance. Il s’est agi, ensuite, de présenter, de façon raisonnée, les facteurs susceptibles d’entraîner le caractère inopérant des moyens, en proposant une systématisation des causes de l’inopérance. Il s’est agi, enfin, d’expliciter les éléments du régime juridique de l’inopérance et la façon dont le juge les met en oeuvre, en proposant une analyse détaillée de ses conséquences. / The notion itself of the ineffectiveness of pleas has acquired, especially in recent years, a major place in the French administrative judicial procedure. The judge often refers to it in his/her decisions and the members of the legal doctrine use it in their own work. However, no significant study, devoted entirely to this concept and focusing on all its aspects, has so farbeen undertaken. This is why today this notion is little known and appears at first difficult to apprehend. Manifestations of this elusive aspect are numerous : for instance, theineffectiveness of pleas is often mistaken with the inadmissibility of pleas ; in the same way,the reasons why a judge declares, in a given case, that a plea is ineffective are poorly identified; similarly, when they are not just denied, the procedural effects of ineffective pleas are seriously underestimated. From an in-depth examination of case law and practices adopted by administrative courts, the purpose of this thesis is to clarify the notion of the ineffectiveness of pleas. First, in order to set the contours and determine the content of this concept, we will propose a definition of the ineffectiveness of pleas. Then, to describe and present, in a reasoned manner, the factors that might cause a plea to be declared ineffective, we will propose a systematization of the causes of ineffectiveness of pleas. Finally, to make explicitthe elements of the legal regime of ineffectiveness of pleas and how the judge implements them, we will provide a detailed analysis of its consequences.
5

Context-aware ranking : from search to dialogue

Zhu, Yutao 03 1900 (has links)
Les systèmes de recherche d'information (RI) ou moteurs de recherche ont été largement utilisés pour trouver rapidement les informations pour les utilisateurs. Le classement est la fonction centrale de la RI, qui vise à ordonner les documents candidats dans une liste classée en fonction de leur pertinence par rapport à une requête de l'utilisateur. Alors que IR n'a considéré qu'une seule requête au début, les systèmes plus récents prennent en compte les informations de contexte. Par exemple, dans une session de recherche, le contexte de recherche tel que le requêtes et interactions précédentes avec l'utilisateur, est largement utilisé pour comprendre l'intention de la recherche de l'utilisateur et pour aider au classement des documents. En plus de la recherche ad-hoc traditionnelle, la RI a été étendue aux systèmes de dialogue (c'est-à-dire, le dialogue basé sur la recherche, par exemple, XiaoIce), où on suppose avoir un grand référentiel de dialogues et le but est de trouver la réponse pertinente à l'énoncé courant d'un utilisateur. Encore une fois, le contexte du dialogue est un élément clé pour déterminer la pertinence d'une réponse. L'utilisation des informations contextuelles a fait l'objet de nombreuses études, allant de l'extraction de mots-clés importants du contexte pour étendre la requête ou l'énoncé courant de dialogue, à la construction d'une représentation neuronale du contexte qui sera utilisée avec la requête ou l'énoncé de dialogue pour la recherche. Nous remarquons deux d'importantes insuffisances dans la littérature existante. (1) Pour apprendre à utiliser les informations contextuelles, on doit extraire des échantillons positifs et négatifs pour l'entraînement. On a généralement supposé qu'un échantillon positif est formé lorsqu'un utilisateur interagit avec (clique sur) un document dans un contexte, et un un échantillon négatif est formé lorsqu'aucune interaction n'est observée. En réalité, les interactions des utilisateurs sont éparses et bruitées, ce qui rend l'hypothèse ci-dessus irréaliste. Il est donc important de construire des exemples d'entraînement d'une manière plus appropriée. (2) Dans les systèmes de dialogue, en particulier les systèmes de bavardage (chitchat), on cherche à trouver ou générer les réponses sans faire référence à des connaissances externes, ce qui peut facilement provoquer des réponses non pertinentes ou des hallucinations. Une solution consiste à fonder le dialogue sur des documents ou graphe de connaissances externes, où les documents ou les graphes de connaissances peuvent être considérés comme de nouveaux types de contexte. Le dialogue fondé sur les documents et les connaissances a été largement étudié, mais les approches restent simplistes dans la mesure où le contenu du document ou les connaissances sont généralement concaténés à l'énoncé courant. En réalité, seules certaines parties du document ou du graphe de connaissances sont pertinentes, ce qui justifie un modèle spécifique pour leur sélection. Dans cette thèse, nous étudions le problème du classement de textes en tenant compte du contexte dans le cadre de RI ad-hoc et de dialogue basé sur la recherche. Nous nous concentrons sur les deux problèmes mentionnés ci-dessus. Spécifiquement, nous proposons des approches pour apprendre un modèle de classement pour la RI ad-hoc basée sur des exemples d'entraîenemt sélectionnés à partir d'interactions utilisateur bruitées (c'est-à-dire des logs de requêtes) et des approches à exploiter des connaissances externes pour la recherche de réponse pour le dialogue. La thèse est basée sur cinq articles publiés. Les deux premiers articles portent sur le classement contextuel des documents. Ils traitent le problème ovservé dans les études existantes, qui considèrent tous les clics dans les logs de recherche comme des échantillons positifs, et prélever des documents non cliqués comme échantillons négatifs. Dans ces deux articles, nous proposons d'abord une stratégie d'augmentation de données non supervisée pour simuler les variations potentielles du comportement de l'utilisateur pour tenir compte de la sparcité des comportements des utilisateurs. Ensuite, nous appliquons l'apprentissage contrastif pour identifier ces variations et à générer une représentation plus robuste du comportement de l'utilisateur. D'un autre côté, comprendre l'intention de recherche dans une session de recherche peut représentent différents niveaux de difficulté - certaines intentions sont faciles à comprendre tandis que d'autres sont plus difficiles et nuancées. Mélanger directement ces sessions dans le même batch d'entraînement perturbera l'optimisation du modèle. Par conséquent, nous proposons un cadre d'apprentissage par curriculum avec des examples allant de plus faciles à plus difficiles. Les deux méthodes proposées obtiennent de meilleurs résultats que les méthodes existantes sur deux jeux de données de logs de requêtes réels. Les trois derniers articles se concentrent sur les systèmes de dialogue fondé les documents/connaissances. Nous proposons d'abord un mécanisme de sélection de contenu pour le dialogue fondé sur des documents. Les expérimentations confirment que la sélection de contenu de document pertinent en fonction du contexte du dialogue peut réduire le bruit dans le document et ainsi améliorer la qualité du dialogue. Deuxièmement, nous explorons une nouvelle tâche de dialogue qui vise à générer des dialogues selon une description narrative. Nous avons collecté un nouveau jeu de données dans le domaine du cinéma pour nos expérimentations. Les connaissances sont définies par une narration qui décrit une partie du scénario du film (similaire aux dialogues). Le but est de créer des dialogues correspondant à la narration. À cette fin, nous concevons un nouveau modèle qui tient l'état de la couverture de la narration le long des dialogues et déterminer la partie non couverte pour le prochain tour. Troisièmement, nous explorons un modèle de dialogue proactif qui peut diriger de manière proactive le dialogue dans une direction pour couvrir les sujets requis. Nous concevons un module de prédiction explicite des connaissances pour sélectionner les connaissances pertinentes à utiliser. Pour entraîner le processus de sélection, nous générons des signaux de supervision par une méthode heuristique. Les trois articles examinent comment divers types de connaissances peuvent être intégrés dans le dialogue. Le contexte est un élément important dans la RI ad-hoc et le dialogue, mais nous soutenons que le contexte doit être compris au sens large. Dans cette thèse, nous incluons à la fois les interactions précédentes avec l'utilisateur, le document et les connaissances dans le contexte. Cette série d'études est un pas dans la direction de l'intégration d'informations contextuelles diverses dans la RI et le dialogue. / Information retrieval (IR) or search systems have been widely used to quickly find desired information for users. Ranking is the central function of IR, which aims at ordering the candidate documents in a ranked list according to their relevance to a user query. While IR only considered a single query in the early stages, more recent systems take into account the context information. For example, in a search session, the search context, such as the previous queries and interactions with the user, is widely used to understand the user's search intent and to help document ranking. In addition to the traditional ad-hoc search, IR has been extended to dialogue systems (i.e., retrieval-based dialogue, e.g., XiaoIce), where one assumes a large repository of previous dialogues and the goal is to retrieve the most relevant response to a user's current utterance. Again, the dialogue context is a key element for determining the relevance of a response. The utilization of context information has been investigated in many studies, which range from extracting important keywords from the context to expand the query or current utterance, to building a neural context representation used with the query or current utterance for search. We notice two important insufficiencies in the existing literature. (1) To learn to use context information, one has to extract positive and negative samples for training. It has been generally assumed that a positive sample is formed when a user interacts with a document in a context, and a negative sample is formed when no interaction is observed. In reality, user interactions are scarce and noisy, making the above assumption unrealistic. It is thus important to build more appropriate training examples. (2) In dialogue systems, especially chitchat systems, responses are typically retrieved or generated without referring to external knowledge. This may easily lead to hallucinations. A solution is to ground dialogue on external documents or knowledge graphs, where the grounding document or knowledge can be seen as new types of context. Document- and knowledge-grounded dialogue have been extensively studied, but the approaches remain simplistic in that the document content or knowledge is typically concatenated to the current utterance. In reality, only parts of the grounding document or knowledge are relevant, which warrant a specific model for their selection. In this thesis, we study the problem of context-aware ranking for ad-hoc document ranking and retrieval-based dialogue. We focus on the two problems mentioned above. Specifically, we propose approaches to learning a ranking model for ad-hoc retrieval based on training examples selected from noisy user interactions (i.e., query logs), and approaches to exploit external knowledge for response retrieval in retrieval-based dialogue. The thesis is based on five published articles. The first two articles are about context-aware document ranking. They deal with the problem in the existing studies that consider all clicks in the search logs as positive samples, and sample unclicked documents as negative samples. In the first paper, we propose an unsupervised data augmentation strategy to simulate potential variations of user behavior sequences to take into account the scarcity of user behaviors. Then, we apply contrastive learning to identify these variations and generate a more robust representation for user behavior sequences. On the other hand, understanding the search intent of search sessions may represent different levels of difficulty -- some are easy to understand while others are more difficult. Directly mixing these search sessions in the same training batch will disturb the model optimization. Therefore, in the second paper, we propose a curriculum learning framework to learn the training samples in an easy-to-hard manner. Both proposed methods achieve better performance than the existing methods on two real search log datasets. The latter three articles focus on knowledge-grounded retrieval-based dialogue systems. We first propose a content selection mechanism for document-grounded dialogue and demonstrate that selecting relevant document content based on dialogue context can effectively reduce the noise in the document and increase dialogue quality. Second, we explore a new task of dialogue, which is required to generate dialogue according to a narrative description. We collect a new dataset in the movie domain to support our study. The knowledge is defined as a narrative that describes a part of a movie script (similar to dialogues). The goal is to create dialogues corresponding to the narrative. To this end, we design a new model that can track the coverage of the narrative along the dialogues and determine the uncovered part for the next turn. Third, we explore a proactive dialogue model that can proactively lead the dialogue to cover the required topics. We design an explicit knowledge prediction module to select relevant pieces of knowledge to use. To train the selection process, we generate weak-supervision signals using a heuristic method. All of the three papers investigate how various types of knowledge can be integrated into dialogue. Context is an important element in ad-hoc search and dialogue, but we argue that context should be understood in a broad sense. In this thesis, we include both previous interactions and the grounding document and knowledge as part of the context. This series of studies is one step in the direction of incorporating broad context information into search and dialogue.
6

Evaluation des dérivés climatiques sur degrés-jours

Hamisultane, Hélène 14 December 2007 (has links) (PDF)
L'introduction sur le marché financier du premier dérivé climatique portant sur les degrés-jours en 1997 aux Etats-Unis, a donné lieu à un nombre important de travaux sur la valorisation des instruments climatiques et sur la modélisation de la température moyenne journalière. Cependant, aucune étude conjointe de l'ensemble des approches d'évaluation et des représentations de la température suggérées dans la littérature n'avait été menée jusqu'à présent sur le plan empirique. Nous nous sommes donc proposés dans la présente thèse de calculer les prix des contrats à terme et des options d'achat climatiques à partir des méthodes en l'absence d'arbitrage, actuarielle et fondée sur la consommation. Nous nous sommes particulièrement intéressés au calcul des prix des contrats sur les degrés-jours des villes de Chicago, de Cincinnati et de New York pour lesquelles nous avions constaté des transactions fréquentes sur le Chicago Mercantile Exchange. L'analyse conjointe des cours estimés des contrats à terme climatiques à partir des différentes méthodologies d'évaluation a montré que le calibrage des modèles d'évaluation était nécessaire pour obtenir des prévisions de prix proches des cotations et plus particulièrement de la réalisation réelle de l'indice des degrés-jours à l'échéance.
7

Quantum nonlocality, cryptography and complexity

Broadbent, Anne Lise January 2008 (has links)
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal.
8

Contribution au développement de la partie électromécanique d’un compresseur pour climatisation de véhicule électrique / contribution to the devellopement of the elctromecanical part of an electrical compressor for cooling the electric vehicule

Khanchoul, Mohamed 13 December 2012 (has links)
Cette thèse s'inscrit dans le cadre du projet Compacité qui vise à développer un compresseur électrique pour véhicules électriques à l’aide d’une démarche mécatronique. Dans cette thématique, le rôle du LGEP est de développer la partie électromécanique du compresseur. Cette thèse est constituée de deux parties, la première concerne la conception d’un moteur pour le compresseur et la deuxième a trait à la commande sans capteur mécanique de ce moteur. La première partie de la thèse est d'abord consacrée au dimensionnement d'une machine électrique pour un compresseur électrique. Le cahier des charges impose une machine compacte (97mm de diamètre et une profondeur inférieure à 50mm) et ayant une puissance massique élevée (6kW pour une masse de 1.8kg). Au préalable, un modèle analytique a été développé pour effectuer un dimensionnement rapide. Par la suite, la méthode des éléments finis a été appliquée à différents modèles physiques (magnétique, thermique, mécanique (résistance des matériaux et vibration)) pour une étude approfondie de la structure choisie. A l'issue de ces études, un prototype et un banc expérimental ont été réalisés. Dans un second temps, des algorithmes de commande avec ou sans capteur mécanique ont été étudiés pour le pilotage du moteur. La particularité de cette deuxième partie de thèse est la réalisation d'une commande peu gourmande en temps de calcul et implantable dans des microcontrôleurs de faibles performances. A l'issue de cette partie, une nouvelle loi de commande appelée commande passive échantillonnée ainsi qu'un observateur adaptatif étendu (observateur fondé sur l'estimation des fem) ont été développés et testés sur un banc expérimental. / This thesis is part of the project Compacite which aims to develop an electric compressor for electrical vehicles using a mechatronic approach. In this way, the LGEP contribution is to develop the electromechanical part of the compressor.The document is divided in two parts: the first one is related to the design of the motor and the second part is dedicated to the sensorless control.In the first part, the electromagnetic design is proposed to comply with the industrial constraints according to the compressor operation. The specifications require a compact motor (external diameter equal to 97 mm and an active depth less than 50 mm) and a good power/mass ratio (6 kW for a weight of 1.8 kg). At first the design is based on an analytical model in order to obtain a fast sizing. Thereafter the finite element method is used for multiphysical studies (magnetic, thermal and mechanical (in terms of strength of materials and vibration)). A prototype is built and characterized on a test bench. In the second part, some algorithmic control laws have been developed with sensor and sensorless control. In this part a particular control law (sampled data passivity based control) with a low algorithmic cost has been developed for driven the motor and has been validated on the test bench. At the end an observer based on the estimation of the electromotive force is used for sensorless control and validated on the test bench.
9

Quantum nonlocality, cryptography and complexity

Broadbent, Anne Lise January 2008 (has links)
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal
10

Contribution au développement de la partie électromécanique d'un compresseur pour climatisation de véhicule électrique

Khanchoul, Mohamed 13 December 2012 (has links) (PDF)
Cette thèse s'inscrit dans le cadre du projet Compacité qui vise à développer un compresseur électrique pour véhicules électriques à l'aide d'une démarche mécatronique. Dans cette thématique, le rôle du LGEP est de développer la partie électromécanique du compresseur. Cette thèse est constituée de deux parties, la première concerne la conception d'un moteur pour le compresseur et la deuxième a trait à la commande sans capteur mécanique de ce moteur. La première partie de la thèse est d'abord consacrée au dimensionnement d'une machine électrique pour un compresseur électrique. Le cahier des charges impose une machine compacte (97mm de diamètre et une profondeur inférieure à 50mm) et ayant une puissance massique élevée (6kW pour une masse de 1.8kg). Au préalable, un modèle analytique a été développé pour effectuer un dimensionnement rapide. Par la suite, la méthode des éléments finis a été appliquée à différents modèles physiques (magnétique, thermique, mécanique (résistance des matériaux et vibration)) pour une étude approfondie de la structure choisie. A l'issue de ces études, un prototype et un banc expérimental ont été réalisés. Dans un second temps, des algorithmes de commande avec ou sans capteur mécanique ont été étudiés pour le pilotage du moteur. La particularité de cette deuxième partie de thèse est la réalisation d'une commande peu gourmande en temps de calcul et implantable dans des microcontrôleurs de faibles performances. A l'issue de cette partie, une nouvelle loi de commande appelée commande passive échantillonnée ainsi qu'un observateur adaptatif étendu (observateur fondé sur l'estimation des fem) ont été développés et testés sur un banc expérimental.

Page generated in 0.0326 seconds