• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 316
  • 90
  • 22
  • 2
  • Tagged with
  • 437
  • 198
  • 105
  • 71
  • 65
  • 54
  • 52
  • 48
  • 44
  • 41
  • 38
  • 37
  • 37
  • 37
  • 36
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
181

Étude économique sur le transport par train routier au Québec

Gagné, Maude 24 February 2021 (has links)
Le transport par train routier est de plus en plus présent sur les autoroutes canadiennes. Cette option de camionnage permet de transporter une plus grande charge de marchandises à l’aide d’un seul tracteur. Des multinationales utilisent ce type de transport pour leurs opérations quotidiennes et la popularité de cette stratégie est en croissance. De plus, la législation concernant le train routier se simplifie depuis quelques années. La majorité des recherches actuelles portent sur la mécanique du train routier, mais peu d’études sur la rentabilité de ces opérations sont disponibles dans la littérature scientifique. Ce présent mémoire propose une étude économique du train routier. En partenariat avec une entreprise québécoise implantée depuis 20 ans, l’étude économique vise à comparer les opérations en train routier à celle du camionnage régulier avec des remorques de cinquante-trois pieds. L’entreprise souhaite identifier les différences de coûts entre les deux types d’opérations afin d’implanter une stratégie d’affaires à long terme et durable. À l’aide de données réelles et d’observations de flux de marchandises, l’étude économique est basée sur différents scénarios vécus par l’entreprise. De plus, la sensibilité des différents paramètres est étudiée afin de mieux comprendre le comportement des coûts de l’entreprise. Les résultats ont démontré que le train routier permet dans certains cas une économie à la fois monétaire et temporelle pour l’entreprise. En analysant les demandes de transports et en calculant les coûts associés au camionnage traditionnel ainsi qu’au train routier, l’entreprise peut réduire ses frais opérationnels en choisissant le type de transport le plus rentable selon sa situation. / Road train transport is now often on Canadian highways. This variation of trucking allows a larger load of goods to be hauled with just one tractor. Multinationals use this type of transportation for their daily operations and use of this operational strategy is growing. Road trains regulation is less restrictive than it was before. The majority of current research is on the mechanics of the road train but few studies are available on the profitability of these operations. This report proposes an economic study of the road train. In partnership with a Quebec company established for 20 years, the economic study compares road train operations with that of regular trucking. The company wants to define the cost differences between the two types of operations in order to implement a long-term and sustainable business strategy. Using real data and observation of the flow of goods, the economic study is based on different scenarios experienced by the company. In addition, the sensitivity of the various parameters is studied to better understand the cost behavior of the company. Results showed that road train can in some cases save both money and time for the company. By analyzing transportation demands and calculating the costs associated with traditional trucking as well as road train, the company can reduce operational costs by choosing the most cost effective type of transportation according to its demand.
182

Analyse coût-bénéfice en équilibre partiel : une étude exploratoire du projet de train à haute vitesse entre Québec et Windsor

Lalancette, Simon 20 April 2018 (has links)
Le développement des réseaux de transport requiert d’importants investissements financiers et une étroite collaboration entre les acteurs publics et privés. La viabilité économique de ces projets est souvent explorée à l’aide d’analyses coût-bénéfice. Dans ce mémoire, nous appliquons une nouvelle méthodologie, appelée MOLINO-II, au projet de train à haute vitesse (THV) reliant la ville de Québec à Windsor (Ontario). Par rapport aux approches financières et économiques traditionnelles, cette approche développée notamment par de Palma et collab. (2010) permet de mieux appréhender les comportements stratégiques de l’ensemble des acteurs (opérateurs de trains et des modes de transport concurrents, propriétaires d’infrastructures, gouvernements et utilisateurs) à l’aide d’un système d’équations comportementales et d’équilibres. Ici, nous nous concentrons sur la modélisation du réseau de transport entre les principales villes du réseau (Québec, Montréal, Ottawa, Toronto, Windsor) en considérant le réseau terrestre (train, voiture et autocar) et aérien (avions de ligne). Seul l’aspect « demande » ou « utilisateur » du modèle est exploré. Nous laissons la modélisation de l’offre de transports pour de futures recherches. Ce travail n’est donc qu’une première étape vers l’élaboration d’un modèle plus complet, qui permettrait de convertir notre analyse en un outil d’aide à la décision.
183

Analyse des problèmes incitatifs au sein des coopératives financières : modélisation et tests empiriques

Kaba, Léa 17 April 2018 (has links)
La présente étude a pour objectif d'analyser les problèmes incitatifs à l'intérieur des coopératives financières. Dans la première partie de l'étude, un modèle du comportement de la coopérative financière basé sur la relation principal-agent est présenté. Ce modèle inclut simultanément les dimensions d'aléa moral et d'antisélection. Il analyse la relation contractuelle entre un superviseur qui agit au nom des membres-propriétaires et un gestionnaire dont les intérêts ne sont pas toujours alignés avec ces derniers. Le contrat spécifie les règles de conduite optimales que doit respecter le gestionnaire, en vue de réduire les pertes d'efficience. Dans la deuxième partie de l'étude, des tests empiriques sont effectués. Deux hypothèses sont développées: l'hypothèse principale de coûts d'agence, dans laquelle nous testons l'impact de la variable des dépenses sur le levier financier et sur la probabilité de faillite de la coopérative. L'hypothèse secondaire nous permet de tester la présence d'une relation simultanée entre le levier financier et la probabilité de faillite, ainsi que l'influence d'autres facteurs sur ces deux variables. Les résultats obtenus suggèrent que les coûts d'agence semblent non présents au sein des coopératives financières qui composent notre échantillon. Par ailleurs, la relation simultanée entre le levier financier et la probabilité de faillite semble confirmée, et certaines variables de contrôle auraient une influence conforme aux anticipations faites.
184

Three essays on the financial economics of capital projects / 3 essays on the financial economics of capital projects

Tandja Mbianda, Charli 11 July 2018 (has links)
Cette thèse est composée de trois chapitres abordant des questions théoriques et empiriques concernant le financement des projets d’investissement. Dans le premier chapitre, La réputation des conseillers financiers et le coût de la dette : preuves empirique sur des prêts de financement de projets, nous formulons un modèle théorique du rôle et de l’impact des conseillers financiers sur les prêts de projets d’investissement à grande échelle. À l’aide de données détaillées sur les prêts de financement de projets (Projectware), nous testons des hypothèses concurrentes sur la valeur du conseiller financier pour les promoteurs de projets, et nous examinons les effets sur les caractéristiques de prêt de l’utilisation de conseillers communs vs individuels. Nous trouvons que les promoteurs embauchent des conseillers financiers pour augmenter leur niveau d’endettement plutôt que pour réduire l’information asymétrique entre eux et les prêteurs. Dans le deuxième chapitre, Les banques à la fois conseiller et arrangeur : coût de la dette de prêts de financement de projet, nous étudions la résolution du problème de fiabilité des conseillers financiers. Ce chapitre examine, à l’aide des données sur les prêts de financement de projets (Projectware), si la participation de conseiller financier dans le syndicat prêteur aide à résoudre leur problème de fiabilité. En utilisant les données Projectware sur le financement de projets entre 2001 et 2015, nous testons trois hypothèses concurrentes. Dans l’ensemble, nos résultats montrent que les projets impliquant des banques jouant le double rôle de conseiller financier et d’arrangeur ont des spreads de crédit plus élevés avec une maturité plus longue de la dette. Dans le troisième chapitre, Évaluation des options réelles dans un monde de Gollier/Weitzman : l’effet de l’incertitude des taux d’actualisation à long terme, nous dérivons d’abord un modèle d’options réelles de type Ingersoll-Ross sous Gollier/Weitzman. Puis, nous appliquons le modèle au cas d’un projet d’investissement dans un champ pétrolifère. Nous montrons comment la valeur de l’option réelle à long terme et le moment d’investissement optimal sont affectés, et aussi que les résultats sont cohérents avec les preuves récentes sur la prise de décision d’entreprise en cas de préférences incomplètes ou d’ambiguïté. Nous constatons que, par rapport au DDR, les modèles standards utilisant des taux d’intérêt constants ou de retour à la moyenne sous-évaluent les projets et leurs options réelles d’attente ou d’abandon. / This thesis is comprised of three Chapters addressing theoretical and empirical issues concerning the financing of capital projects. In the first Chapter, Financial advisor reputation and the cost of debt: evidence from project finance loans, we formulate a theoretical model of the role and impact of financial advisors on large-scale investment project loans, and estimate it using a detailed dataset of project finance loans (Projectware). We test competing hypotheses on the value to project sponsors of financial advisors, and we examine the effects on loan characteristics of using common vs. individual advisors. We find that sponsors hire financial advisors to increase their debt levels rather on reducing asymmetric information between them and prospective lenders. In the second Chapter, Banks as both Advisor and Arranger: cost of debt evidence from project finance loans, we study the resolution of the problem of financial advisor reliability. This chapter examines, using data on project finance loans (Projectware), whether financial advisor involvement in the lending syndicate helps to solve their reliability problem. Using Projectware data on project finance (PF loans between 2001 and 2015, we test three competing hypotheses. Overall, our findings show that projects involving banks playing the dual role of FA and MLA have higher loan spreads with longer debt maturity than those without such banks playing the dual role. In the third Chapter, Real option valuation in a Gollier/Weitzman world: the effect of long-run discount rate uncertainty, we first derive an Ingersoll-Ross-type real option model under Gollier/ Weitzman long-run discount rate uncertainty, and then apply the model to the case of an oil field investment project. We show how long-run real option value and optimal investment timing are affected, and also that the results are consistent with recent evidence on corporate decision-making under incomplete preferences or ambiguity. We find that, compared with DDR, standard models using constant or mean-reverting interest rates undervalue projects and their real options to wait or to abandon.
185

Hydrolienne à Ailes Oscillantes : conception et modélisation physique et économique de la technologie

Plourde Campagna, Marc-André 19 April 2018 (has links)
Tableau d’honneur de la Faculté des études supérieures et postdoctorales, 2013-2014. / Cette maîtrise s’inscrit dans un projet multidisciplinaire de développement d’une hydrolienne à ailes oscillantes de seconde génération (HAO-2) au Laboratoire de Mécanique des Fluides Numérique (LMFN) de l’Université Laval. Cette hydrolienne complètement submergée est composée de quatre ailes assemblées sur une base par gravité. Ce mémoire comporte deux volets. Le premier porte sur la conception des circuits de couplage pilonnement-tangage et d’extraction d’énergie de la HAO. Les solutions proposées et une vision de la HAO-2 seront présentées en détail. Un banc d’essai expérimental est conçu pour reproduire le circuit de couplage et simuler le mouvement et les efforts sur une aile. Il permet de démontrer la faisabilité du système élaboré et de déterminer son efficacité. Différents actionneurs de tangage ainsi que différents joints d’étanchéité sont analysés. Seulement les composantes offrant les meilleures performances sont présentées dans ce mémoire. Pour le couplage, un rendement maximal de 80% est mesuré. La modélisation des circuits hydrauliques nécessaire au second volet du projet a été calibrée sur les données expérimentales, notamment le frottement dans les joints d’étanchéité. Le second volet vise à modéliser sur le plan économique un parc HAO à différentes échelles et selon différentes conditions d’opération. Le programme dimensionne l’hydrolienne en fonction des conditions d’opération, puis en estime son coût de fabrication et l’énergie produite annuellement. Il calcule aussi le coût d’installation des turbines, le coût du réseau électrique et de son installation et finalement les dépenses en opération et maintenance (O&M). Le modèle tient également compte de la valeur de l’argent dans le temps en utilisant la valeur présente équivalente. Deux critères de performance sont utilisés pour les comparaisons, le coût de production (CP) et le coût de l’énergie (CE). Par ces critères, plusieurs analyses de sensibilité sont réalisées sur les paramètres importants du modèle. Sans aucun doute, le coût de fabrication et les frais d’O&M dominent largement le coût de l’énergie d’une HAO. Un site d’exploitation en particulier est étudié, près de l’Isle-aux-Coudres, sur lequel un CE de 20 ¢/kWh est obtenu pour un parc de 80 HAO de 1.25MW chacune. / This master’s thesis is part of a multidisciplinary project to develop a second generation of tidal oscillating wings turbine (HAO-2) at Laboratoire de Mécanique des Fluides Numérique (LMFN) from Laval University. This tidal turbine completely submerged is composed of four wings assembled on gravity-based structure. This work has two parts. The first one focuses on the hydraulic circuit design of the pitch-heave coupling and the energy extraction system. Proposed solutions and a vision of the HAO-2 will be presented in detail. An experimental apparatus is designed to reproduce the coupling circuit and simulate the motion and forces on a wing. It allows to demonstrate the developed system feasibility and determine its efficiency. Various actuators and seals are analyzed. Only components with the best performances are presented in this paper. For the coupling system, a maximum efficiency of 80% is measured. Hydraulic modeling necessary for the second phase of the project has also been calibrated on experimental data, especially, friction in seals. The second part treats the economic modeling of a tidal turbine farm at different scales and in different operating conditions. The program designs the turbine depending on the operating conditions, and then, it estimates the construction cost and it calculates the annual energy extracted. It also calculates the installation cost, the electricity infrastructure and their installation cost and finally the operation and maintenance cost (O&M) throughout the farm life time. The model also takes into account the value of money over time by using the net present value. For the cases comparison, the production cost (CP) and the energy cost (CE) are used. Several sensitivity analyses are carried out on the important parameters of the model. As would be expected, the construction cost and the O&M cost are key factors governing the energy cost of HAO. A particular site is studied, near the Isle-aux-Coudres, which a energy cost about 20 ¢/kWh is obtained for a farm with 80 HAO of 1.25MW each.
186

Contribution à la prise des décisions stratégiques dans le contrôle de la trypanosomiase humaine africaine Contribution to strategic decision making in human African trypanosomiasis control

Lutumba, Pascal PL 29 November 2005 (has links)
RESUME La Trypanosomiase Humain Africaine (THA) demeure un problème de santé publique pour plusieurs pays en Afrique subsaharienne. Le contrôle de la THA est basé essentiellement sur la stratégie de dépistage actif suivi du traitement des personnes infectées. Le dépistage actif est réalisé par des unités mobiles spécialisées, bien que les services de santé fixes jouent un rôle important en détectant « passivement » des cas. Le dépistage reposait jadis sur la palpation ganglionnaire mais, depuis le développement du test d’agglutination sur carte (CATT), trois possibilités se sont offertes aux programmes de contrôle à savoir: i) continuer avec la palpation ganglionnaire ii) combiner la palpation ganglionnaire avec le CATT iii) recourir au CATT seul. Certains programmes comme celui de la République Démocratique du Congo (RDC) ont opté pour la combinaison en parallèle de la palpation ganglionnaire avec le CATT. Toute personne ayant une hypertrophie ganglionnaire cervicale et/ou un CATT positif est considéré comme suspecte de la THA. Elle sera soumise aux tests parasitologiques de confirmation à cause de la toxicité des médicaments anti-THA. Les tests parasitologiques classiques sont l’examen du suc ganglionnaire (PG), l’examen du sang à l’état frais (SF), la goutte épaisse colorée (GE). La sensibilité de cette séquence a été estimée insuffisante par plusieurs auteurs et serait à la base d’une grande perte de l’efficacité de la stratégie dépistage-traitement. D’autres techniques de concentration ont été développées comme la mini-Anion Exchange Concentration Technique (mAECT), la Centrifugation en Tube Capillaire (CTC) et le Quantitative Buffy Coat (QBC), mais ces techniques de concentration ne sont pas utilisées en routine. En RDC, une interruption des activités de contrôle en 1990 a eu comme conséquence une réémergence importante de la maladie du sommeil. Depuis 1998 les activités de contrôle ont été refinancées de manière structurée. Ce travail vise deux buts à savoir le plaidoyer pour la continuité des activités de contrôle et la rationalisation des stratégies de contrôle. Nous avons évalué l’évolution de la maladie du sommeil en rapport avec le financement, son impact sur les ménages ainsi que la communauté. L’exercice de rationalisation a porté sur les outils de dépistage et de confirmation. Nous avons d’abord évalué la validité des tests, leur faisabilité ainsi que les coûts et ensuite nous avons effectué une analyse décisionnelle formelle pour comparer les algorithmes de dépistage et pour les tests de confirmation. Pendant la période de refinancement structurel de la lutte contre la THA en RDC (1998-2003), le budget alloué aux activités a été doublé lorsqu’on le compare à la période précédente (1993-1997). Le nombre des personnes examinées a aussi doublé mais par contre le nombre des nouveaux cas de THA est passé d’un pic de 26 000 cas en 1998 à 11 000 en 2003. Le coût par personne examinée a été de 1,5 US$ et celui d’un cas détecté et sauvé à 300 US$. Pendant cette période, les activités ont été financées par l’aide extérieure à plus de 95%. Cette subvention pourrait laisser supposer que l’impact de la THA au niveau des ménages et des communautés est réduit mais lorsque nous avons abordé cet aspect, il s’est avéré que le coût de la THA au niveau des ménages équivaut à un mois de leur revenu et que la THA fait perdre 2145 DALYs dans la communauté. L’intervention par la stratégie de dépistage-traitement a permis de sauver 1408 DALYs à un coût de 17 US$ par DALYs sauvé. Ce coût classe l’intervention comme « good value for money ». Le recours au CATT seul s’est avéré comme la stratégie la plus efficiente pour le dépistage actif. Le gain marginal lorsque l’on ajoute la palpation ganglionnaire en parallèle est minime et n’est pas compensé par le coût élevé lié à un nombre important des suspects soumis aux tests parasitologiques. Les techniques de concentration ont une bonne sensibilité et leur faisabilité est acceptable. Leur ajout à l’arbre classique améliore la sensibilité de 29 % pour la CTC et de 42% pour la mAECT. Le coût de la CTC a été de 0,76 € et celui de la mAECT de 2,82 €. Le SF a été estimé très peu sensible. L’algorithme PG- GE-CTC-mAECT a été le plus efficient avec 277 € par vie sauvée et un ratio de coût-efficacité marginal de 125 € par unité de vie supplémentaire sauvée. L’algorithme PG-GE-CATT titration avec traitement des personnes avec une parasitologie négative mais un CATT positif à un seuil de 1/8 devient compétitif lorsque la prévalence de la THA est élevée. Il est donc possible dans le contexte actuel de réduire la prévalence de la THA mais à condition que les activités ne soient pas interrompues. Le recours à un algorithme recourant au CATT dans le dépistage actif et à la séquence PG-GE-CTC-mAECT est le plus efficient et une efficacité de 80%. La faisabilité et l’efficacité peut être différent d’un endroit à l’autre à cause de la focalisation de la THA. Il est donc nécessaire de réévaluer cet algorithme dans un autre foyer de THA en étude pilote avant de décider d’un changement de politique. Le recours à cet algorithme implique un financement supplémentaire et une volonté politique. SUMMARY Human African Trypanosomiasis (HAT) remains a major public health problem affecting several countries in sub-Saharan Africa. HAT control is essentially based on active case finding conducted by specialized mobile teams. In the past the population screening was based on neck gland palpation, but since the development of the Card Agglutination Test for Trypanosomiasis (CATT) three control options are available to the control program: i) neck gland palpation ii) CATT iii) neck gland palpation and CATT done in parallel . Certain programs such as the one in DRC opted for the latter, combining CATT and neck gland palpation. All persons having hypertrophy of the neck gland and/or a positive CATT test are considered to be a HAT suspect. Confirmation tests are necessary because the screening algorithms are not 100 % specific and HAT drugs are very toxic. The classic parasitological confirmation tests are lymph node puncture (LNP), fresh blood examination (FBE) and thick blood film (TBF). The sensitivity of this combination is considered insufficient by several authors and causes important losses of efficacy of the screening-treatment strategy. More sensitive concentration methods were developed such as the mini Anion Exchange Concentration Techniques (mAECT), Capillary Tube Centrifugation (CTC) and the Quantitative Buffy Coat (QBC), but they are not used on a routine basis. Main reasons put forward are low feasibility, high cost and long time of execution. In the Democratic Republic of Congo, HAT control activities were suddenly interrupted in 1990 and this led to an important re-emergence or the epidemic. Since 1998 onwards, control activities were financed again in a structured way. This works aims to be both a plea for the continuation of HAT control as well as a contribution to the rationalization of the control strategies. We analyzed the evolution of sleeping sickness in the light of its financing, and we studied its impact on the household and the community. We aimed at a rationalization of the use of the screening and confirmation tools. We first evaluated the validity of the tests, their feasibility and the cost and we did a formal decision analysis to compare screening and confirmation algorithms. The budget allocated to control activities was doubled during the period when structural aid funding was again granted (1998-2003) compared with the period before (1993-1997). The number of persons examined per year doubled as well but the number of cases found peaked at 26 000 in 1998 and dropped to 11 000 in the period afterwards. The cost per person examined was 1.5 US$ and per case detected and saved was 300 US$. The activities were financed for 95 % by external donors during this period. This subvention could give the impression that the impact of HAT on the household and the household was limited but when we took a closer look at this aspect we found that the cost at household level amounted to one month of income and that HAT caused the loss of 2145 DALYs in the community. The intervention consisting of active case finding and treatment allowed to save 1408 DALY’s at a cost of 17 US$ per DALY, putting the intervention in the class of “good value for money”. The use of CATT alone as screening test emerged as the most efficient strategy for active case finding. The marginal gain when neck gland palpation is added is minor and is not compensated by the high cost of doing the parasitological confirmation test on a high number of suspected cases. The concentration methods have a good sensitivity and acceptable feasibility. Adding them to the classical tree improves its sensitivity with 29 % for CTC and with 42 % for mAECT. The cost of CTC was 0.76 US$ and of mAECT was 2.82 US$. Sensitivity of fresh blood examination was poor. The algorithm LNP-TBF-CTC-mAECT was the most efficient costing 277 Euro per life saved and a marginal cost effectiveness ratio of 125 Euro per supplementary life saved. The algorithm LNP-TBF-CATT titration with treatment of persons with a negative parasitology but a CATT positive at a dilution of 1/8 and more becomes competitive when HAT prevalence is high. We conclude that it is possible in the current RDC context to reduce HAT prevalence on condition that control activities are not interrupted. Using an algorithm that includes CATT in active case finding and the combination LNP-TBF-CTC-mAECT is the most efficient with an efficacy of 80 %. Feasibility and efficacy may differ from one place to another because HAT is very focalized, so it is necessary to test this novel algorithm in another HAT focus on a pilot basis, before deciding on a policy change. Implementation of this algorithm will require additional financial resources and political commitment.
187

Optimisation fiabiliste de la conception et de la maintenance des stuctures

Aoues, Younes 15 January 2008 (has links) (PDF)
L'optimisation vise à trouver le meilleur compromis entre les différentes exigences contradictoires, telles que les performances, le coût et la durabilité. Toutefois, la conception des structures doit être placée dans un contexte incertain. Traditionnellement, les incertitudes sont considérées par l'application des coefficients partiels de sécurité. Cependant, l'utilisation de ces coefficients ne garantit pas une conception optimale pour le niveau de fiabilité souhaité. L'optimisation fiabiliste est développée pour établir le meilleur compromis entre la réduction des coûts et l'assurance de la fiabilité, par la considération des incertitudes. Dans ce mémoire, une nouvelle approche de l'optimisation fiabiliste est proposée afin de tenir compte de l'interaction des différents modes de défaillance et de l'évolution de la fiabilité en fonction de l'âge de la structure. La meilleure solution est recherché par la minimisation de la fonction du coût total contenant les coûts de maintenance.
188

Estimer, mesurer et corriger les artefacts de compression pour la télévision numérique

Crété-Roffet, Frédérique 29 November 2007 (has links) (PDF)
La compression, nécessaire à la transmission des images numériques diffusées sur les télévisions, est responsable de dégradations appelées artefacts. Pour obtenir des images de meilleure qualité, la correction des artefacts doit être efficace, robuste au large panel dimages diffusées, et simple pour que ces images soient traitées en temps réel avant leur diffusion. Pour obtenir ce compromis, notre étude se divise en 3 axes : l'estimation, la mesure et la correction.<br />En estimant quels sont les artefacts les plus gênants et les risques encourus à les corriger, nous définissons la problématique de ce travail : comment corriger les effets de bloc et de ringing qui sont des artefacts de compression sans risquer de faire apparaître un artefact de correction tel que le flou ?<br />Les métriques objectives, validées par des tests subjectifs, permettent de mesurer ces artefacts. L'étude de l'état de l'art, associée à la modélisation de notre manière de percevoir ces artefacts, nous permet d'aboutir au développement du BLE (Block Level Estimator) et du BluM (Blur Metric), métriques objectives destinées à estimer respectivement leffet de bloc et le flou sur une image. <br />La correction de l'effet de bloc et de l'effet de ringing peut ensuite être guidée et validée par ces métriques. Nous proposons des modules permettant d'améliorer, de rendre plus robustes et d'implémenter facilement les corrections existantes. Puis, pour résoudre la problématique, nous intégrons ces modules dans une solution générale appelée SQDSE (Studio Quality Digital Source Enhancement) destinée à supprimer les effets de bloc et de ringing. La structure du SQDSE et sa validation par des tests visuels et par les résultats du BLE et du BluM montrent que le compromis entre l'efficacité, la robustesse et la simplicité est atteint.
189

Analyses médico-économiques de la prise en charge de la maladie coronarienne stable : méta-analyse en réseau et modélisation

Caruba, Thibaut 27 September 2013 (has links) (PDF)
La maladie coronaire stable est une maladie chronique pour laquelle de nombreuses stratégies thérapeutiques sont disponibles, dont le traitement par médicaments seuls et les traitements invasifs par angioplastie avec stent ou par pontage aortocoronaire. Face aux résultats de plusieurs méta-analyses mettant en évidence un taux de mortalité comparable entre ces traitements, nous avons décidé d'effectuer un travail de recherche comparant leurs coûts. Dans la première partie de mon travail, nous avons comparé, après une période de un an et une autre de 3 ans de suivi des patients, les données cliniques et économiques publiées pour 5 traitements de l'angor stable : les médicaments seuls, le pontage aortocoronaire, l'angioplastie sans stent, l'angioplastie avec stent nu et l'angioplastie avec stent actif. La mortalité et le taux d'IDM étaient nos critères de jugement clinique. Les coûts directs, liés au traitement effectué et liés à la prise en charge des éventuelles complications, ont été uniformisés via la parité de pouvoir d'achat et exprimés en US $ 2008. Il s'agissait de notre critère de jugement économique. Un total de 19 études cliniques a été retenu dans notre méta-analyse en réseau. Nos résultats mettent en évidence une absence de différence significative sur le critère clinique. En revanche, nous avons observé une différence concernant le coût moyen de chaque traitement après un an et 3 ans de suivi. Le traitement le moins onéreux était le traitement par médicaments seuls, après un an et 3 ans de suivi, avec respectivement un coût moyen par patient de 3 069 US $ et 13 854 US $. Le coût moyen le plus élevé a toujours été obtenu avec le traitement par pontage aortocoronaire : 27 003 US $ après un an et 28 670 US $ après 3 ans de suivi. Cependant, nos conclusions sont limitées d'une part, par la variabilité des méthodes économiques utilisées dans les études sélectionnées dans notre méta-analyse et, d'autre part, par l'évolution des traitements dans le temps. Dans la seconde partie de mon travail de recherche, nous avons calculé le coût de prise en charge d'un patient angoreux stable traité par l'une des 4 stratégies thérapeutiques suivantes : médicaments seuls, pontage aortocoronaire, angioplastie avec stent nu et angioplastie avec stent actif. Pour se faire, nous avons défini d'une part 6 situations cliniques correspondant aux possibles états cliniques du patient un an après l'instauration du traitement étudié et, d'autre part, déterminé les quantités de soins consommés pour chacune de ces situations cliniques. La perspective retenue était celle de l'Assurance Maladie. Les coûts calculés étaient liés aux hospitalisations, aux soins ambulatoires et aux moyens de transport utilisés pour accéder à l'hôpital. La stratégie médicamenteuse était la moins onéreuse avec un coût moyen annuel de 1 518 € ; ce coût prenant en compte les probabilités de survenue des 6 états cliniques. Le traitement par pontage aortocoronaire était le plus onéreux des 4 traitements étudiés, avec un coût moyen annuel de 15 237 €. La perspective de mes travaux est de modéliser la prise en charge d'un patient angoreux stable en envisageant un second traitement si le premier traitement effectué conduit à une situation d'échec thérapeutique. Les arbres que nous avons construits nous permettront ensuite d'effectuer une analyse coût-efficacité de deux stratégies thérapeutiques avec une durée totale de suivi des patients de 2 ans. Enfin, si nos travaux mettent en avant l'intérêt économique du traitement par médicaments, nous soulignons que ces résultats sont obtenus après avoir suivi les patients sur une courte durée (études à un an et à 3 ans), alors que l'angor stable est une maladie chronique où les stratégies thérapeutiques peuvent se succéder en cas d'échec à l'un des traitements...
190

Managing Consistency for Big Data Applications on Clouds: Tradeoffs and Self Adaptiveness

Chihoub, Houssem-Eddine 10 December 2013 (has links) (PDF)
A l'ère de Big Data, les applications de traitement intensif de données gèrent des volumes de données extrêmement grands. De plus, ils requièrent des temps de traitement très rapides. Une grande partie de ces applications sont déployées sur des clouds, afin de bénéficier des avantages de ces infrastructures. Dans ce contexte, la réplication est un moyen essentiel dans le cloud afin de surmonter les défis de Big Data. Cependant, la réplication introduit le problème important de la cohérence des données. La gestion de la cohérence est primordiale. Les modèles à cohérence forte induisent des coûts importants en terme de performance et ont des difficultés à passer à l'échelle à cause des besoins de synchronisation. A l'inverse, les modèles à cohérence faible (la cohérence à terme, par exemple) fournissent de meilleures performances ainsi qu'une meilleure disponibilité de données. Toutefois, ces derniers modèles peuvent tolérer, sous certaines conditions, trop d'incohérence temporaire. Dans le cadre du travail de cette thèse, nous abordons les problèmes liés aux compromis suscités par la gestion de la cohérence dans les systèmes de Big Data. Premièrement, nous proposons un modèle de cohérence auto-adaptative qui augmente et diminue de manière automatique le niveau de cohérence. Ceci permet de fournir de meilleures performances tout en satisfaisant les besoins des applications. En deuxième lieu, nous abordons les enjeux financiers liés à la gestion de cohérence dans le cloud. Par conséquent, nous proposons une gestion de la cohérence efficace en termes de coût. La troisième contribution consiste à étudier les effets de gestion de cohérence sur la consommation d'énergie des systèmes de stockage distribués. Cette étude nous mène à analyser les gains potentiels des reconfigurations adaptatives des systèmes de stockage en matière de réduction de la consommation. Afin de compléter notre travail au niveau système, nous abordons la gestion de cohérence au niveau de l'application. Nous introduisons une approche pour la modélisation du comportement de l'application lors de ses accès aux données. Le modèle proposé facilite la compréhension des besoins en cohérence. De plus, ce modèle est utilisé afin de gérer la cohérence de manière spécifique à l'application lors de l'exécution. Des évaluations approfondies sur les plates-formes Grid'5000 et Amazon EC2 démontrent l'efficacité des approches proposées.

Page generated in 0.0235 seconds