• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 158
  • 104
  • 39
  • 18
  • 14
  • 5
  • 4
  • 3
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 379
  • 61
  • 45
  • 41
  • 40
  • 33
  • 32
  • 28
  • 28
  • 25
  • 24
  • 20
  • 20
  • 19
  • 19
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
111

APPLICATION DES SYSTEMES MM5-CHIMERE ET MM5-FLEXPART A LA MODELISATION DE L'OZONE ET DES PM10 SUR LA REGION NORD-PAS-DE-CALAIS

Terrenoire, Etienne 26 June 2009 (has links) (PDF)
La pollution de l'air est un sujet de préoccupation majeur au XXIème siècle affectant la santé et notre environnement. Deux types de pollution atmosphérique retiennent plus particulièrement l'attention des physicochimistes à l'heure actuelle : la pollution à l'ozone dite photochimique et la pollution particulaire (PM10, PM2.5). La région Nord-Pas-De-Calais (NPDC) est une des régions françaises ayant la plus forte densité de population (324 hab./km2 en 2006). Elle est également le lieu de passage d'un trafic routier transfrontalier particulièrement intense. Enfin, elle présente une forte activité industrielle (pétrochimie, sidérurgie, métallurgie) au niveau de la zone côtière de Dunkerque. Les émissions issues des secteurs du transport mais aussi industriel et tertiaire sont une source importante de composés primaires (NOx, COV et particules) précurseurs de la pollution à l'ozone et particulaire.Au cours du travail de thèse les chaînes de modélisation MM5-CHIMERE et MM5-FLEXPART ont été installées et utilisées sur plusieurs périodes d'études à l'échelle de la région NPDC. Le système MM5-CHIMERE a été utilisé sur la période juin-juillet 2006 propice au développement d'épisodes de pollution photochimique. Diverses applications ont été réalisées : étude de la relation entre concentration en polluant et conditions météorologiques, impact de l'intégration du cadastre d'émission régional, impact de la résolution de la grille et des données dynamiques, origine locale/régionale des niveaux de pollution observés en région NPDC. Puis, le système MM5-FLEXPART a été utilisé afin de déterminer l'origine de deux évènements intenses de pollution particulaire observés en mars et décembre 2007 au niveau de Dunkerque. Enfin, les performances dynamiques et chimiques du système ont été évaluées au niveau de la zone spécifique industrielle de Dunkerque sur deux périodes en avril et mai 2006. Au cours de ces périodes, les données dynamiques ont été collectées lors d'une campagne de mesures réalisée sur Dunkerque par le Laboratoire de Physico-Chimie de l'Atmosphère (LPCA) de l'Université du Littoral - Côte d'Opale. Les résultats concernant la performance et les applications des systèmes ainsi que les perspectives à court terme seront présentés et discutés.
112

Simulation directe du bruit de bord de fuite d'un profil par une méthode multi domaines

Le Garrec, Thomas 03 November 2008 (has links) (PDF)
L'analyse des mécanismes de génération de bruit pour des tronçons d'aile placés dans des écoulements à grand nombre de Reynolds s'inscrit dans le cadre de la réduction du bruit de cellule des avions. Afin d'améliorer la compréhension des phénomènes mis en jeu, nous proposons de développer un code aéroacoustique permettant d'obtenir directement le bruit d'un profil. Nous détaillons en particulier le développement de méthodes numériques minimisant les erreurs de dispersion et de dissipation afin de préserver la nature des ondes acoustiques. Une stratégie de calcul multi échelles multi pas de temps permet la réalisation de raffinements locaux en maillage structuré et ainsi la réduction du coût de calcul. Ce code est mis en oeuvre pour simuler le bruit rayonné par un profil NACA0012 en 2D à faible nombre de Reynolds et étudier l'influence de l'angle d'attaque. Parmi les mécanismes de génération de bruit, le mécanisme de bruit tonal peut se rencontrer dans des configurations avec des nombres de Reynolds modérés. Une discussion sur l'existence de ce mécanisme par un profil NACA0012 à Reynolds 200 000 est proposée. Nous menons aussi une étude numérique 3D de l'influence du confinement expérimental, créé par les parois d'une soufflerie, sur les champs aérodynamique et acoustique autour d'un profil NACA0018 à Reynolds 160 000. Enfin, le bruit de bord de fuite d'un profil NACA0012 tronqué à grand nombre de Reynolds (2.32 millions) est calculé par simulation des grandes échelles. Une première comparaison des résultats est effectuée avec la base de données expérimentale EXAVAC. Les principaux mécanismes de génération sonore sont bien reproduits par notre approche multi domaine.
113

Méthode des éléments spectraux pour la propagation d'ondes sismiques en milieu géologique fluide-solide avec pas de temps locaux et couches absorbantes parfaitement adaptées C-PML

Madec, Ronan 10 December 2009 (has links) (PDF)
Dans l'industrie pétrolière, de nombreuses campagnes sismiques visant à trouver de nouveaux champs pétroliers sont effectuées en mer. Afin de reproduire numériquement les résultats de ces campagnes d'acquisitions sismiques marine, les méthodes de différences finies ou d'éléments finis sont le plus souvent utilisées. Dans cette thèse, nous travaillons avec la méthode des éléments spectraux (Komatitsch et Tromp, 2002), qui est une méthode d'éléments finis explicite à haut degré d'interpolation polynomiale. Pour de l'acquisition sismique marine, la propagation d'ondes s'effectue dans des modèles composés de deux parties : une partie fluide (la couche d'eau épaisse homogène représentant l'océan) et une partie solide (les roches composant le fond des océans). La partie fluide étant moins intéressante que la partie solide où peuvent se trouver les réservoirs d'hydrocarbures, nous voulons une méthode numérique où la propagation d'ondes dans le fluide est la moins coûteuse possible en temps calcul. Un moyen de gagner ce temps est d'utiliser une méthode intégrant des pas de temps locaux (Diaz et Joly, 2005) où la partie fluide est traitée à l'aide d'un pas de temps plus grand que dans la partie solide. Pour cela, il faut s'assurer que l'augmentation du pas de temps sans modifier le maillage ne change pas la condition de stabilité CFL dans le fluide. Cette condition est calculée à partir de la vitesse maximale de propagation des ondes dans le domaine, et des pas de temps et d'espace. Or, les modèles utilisés présentent généralement un fort contraste des vitesses à l'interface fluide-solide en faveur du solide. C'est donc le pas de temps de ce dernier qui gouverne la condition CFL. Donc augmenter le pas de temps seulement dans le fluide ne changera pas la condition CFL et la simulation numérique pourra s'effectuer sans risquer l'explosion de la solution pour cause d'instabilité du schéma numérique. Mon travail a consisté à intégrer un tel procédé dans la méthode des éléments spectraux du code SPECFEM à 2D. Comme on a des pas de temps différents de part et d'autre de l'interface fluide-solide, les données à échanger entre les deux milieux ne sont pas coordonnées car à des temps différents. Pour palier à cette difficulté, on impose la conservation de l'énergie à notre système pour la construction des conditions de raccord. Cette manoeuvre implique néanmoins la résolution d'un système linéaire l'interface mais son coût est négligeable comparé aux calculs économisés dans la partie fluide. Afin de se rapprocher plus encore de la réalité des modèles pétroliers, j'ai travaillé sur l'implémentation de couches absorbantes de type CPML (convolutional perfectly match layer, voir Komatitsch et Martin 2007 ) qui permettent de simuler un milieu infini en absorbant toutes les ondes y pénétrant et donc évitent des réflexions parasites des bords du domaine. Ces conditions ont été implémentées pour des modèles fluide-solide à 2D.
114

Simulation dynamique et applications robotiques

Joukhadar, Ammar 02 June 1997 (has links) (PDF)
Nous décrivons, dans cette thèse, des modèles et des algorithmes conçus pour produire des simulations dynamiques efficaces et consistantes, dans le contexte de la Robotique d'intervention (c'est-à-dire, pour les tâches robotiques qui impliquent des contraintes fortes sur la nature de l'interaction entre des objets qui ne sont pas forcément rigides). Ces modèles et ces algorithmes ont été intégrés et implantés dans le système Robot_Phy qui peut être potentiellement reconfiguré pour traiter une grande variété de tâches d'intervention, comme la manipulation dextre d'un objet par une main robotique, la manipulation d'un objet non rigide, la téléprogrammation du mouvement d'un véhicule tout-terrain, ou encore des tâches chirurgicales assistées par robot (par exemple, le positionnement d'un ligament artificiel dans la chirurgie du genou). L'approche utilise une nouvelle technique de modélisation physique pour produire des simulations dynamiques qui sont à la fois efficaces et consistantes avec les lois de la physique. Les avantages par rapport aux travaux antérieurs dans le domaine de la robotique et de la synthèse d'image sont: le développement d'une structure unique pour traiter simultanément le mouvement, les déformations, et les interactions; et l'incorporation d'algorithmes et de modèles appropriés pour obtenir un temps d'exécution efficace en assurant un comportement consistant avec les lois de la physique. Les contributions principales de ce système sont: l'intégration de la notion du système masse/ressort avec la dynamique d'objets rigides, la discrétisation adaptative basée sur la notion de matrice d'inertie et de centre d'inertie, le pas de temps adaptatif basé sur la notion de l'énergie mécanique pour optimiser le temps de calcul et éviter la divergence numérique, la détection rapide du contact entre polyèdres déformables, et l'identification des paramètres physiques en utilisant les algorithmes génétiques.
115

Voluntary Euthanasia and Physician Assisted Suicide : A Critical Ethical Comparative Analysis

Opara, Ignatius Chidiebere January 2005 (has links)
<p>The two most controversial ends of life decisions are those in which physicians help patients take their lives and when the physician deliberately and directly intervenes to end the patients’ life upon his request. These are often referred to as voluntary euthanasia and physician assisted suicide. Voluntary euthanasia and physician assisted suicide have continued to be controversial public issues. This controversy has agitated the minds of great thinkers including ethicians, physicians, psychologists, moralists, philosophers even the patient himself. Hence the physician, patient, the public and policy makers have recently had to face several difficult questions.</p><p>Is it morally right to end the life of the patients? Is there any moral difference at all between Voluntary euthanasia and physician assisted suicide? Should a terminally ill patient be allowed to take his life and should the medical profession have the option of helping the patient die. Should voluntary euthanasia and physician assisted suicide be legalised at all? And what actually will be the legal and moral implications if they are allowed.</p><p>In a bid to find a lasting solution to these moral problems and questions has led to two different strong positions viz opponents and proponents of voluntary euthanasia and physician assisted suicide. The centre of my argument in this work is not to develop new general arguments for or against voluntary euthanasia and physician assisted suicide but to make a critical ethical comparative analysis of voluntary euthanasia and physician assisted suicide. This is the focus of my work. The sole aim of this work is neither to solely condemn nor to support voluntary euthanasia and physician assisted suicide but to critically analyze the two since we live in a world of pluralism.</p>
116

Voluntary Euthanasia and Physician Assisted Suicide : A Critical Ethical Comparative Analysis

Opara, Ignatius Chidiebere January 2005 (has links)
The two most controversial ends of life decisions are those in which physicians help patients take their lives and when the physician deliberately and directly intervenes to end the patients’ life upon his request. These are often referred to as voluntary euthanasia and physician assisted suicide. Voluntary euthanasia and physician assisted suicide have continued to be controversial public issues. This controversy has agitated the minds of great thinkers including ethicians, physicians, psychologists, moralists, philosophers even the patient himself. Hence the physician, patient, the public and policy makers have recently had to face several difficult questions. Is it morally right to end the life of the patients? Is there any moral difference at all between Voluntary euthanasia and physician assisted suicide? Should a terminally ill patient be allowed to take his life and should the medical profession have the option of helping the patient die. Should voluntary euthanasia and physician assisted suicide be legalised at all? And what actually will be the legal and moral implications if they are allowed. In a bid to find a lasting solution to these moral problems and questions has led to two different strong positions viz opponents and proponents of voluntary euthanasia and physician assisted suicide. The centre of my argument in this work is not to develop new general arguments for or against voluntary euthanasia and physician assisted suicide but to make a critical ethical comparative analysis of voluntary euthanasia and physician assisted suicide. This is the focus of my work. The sole aim of this work is neither to solely condemn nor to support voluntary euthanasia and physician assisted suicide but to critically analyze the two since we live in a world of pluralism.
117

Application of Knowledge Management on Performance Appraisal and Management System

Chang, Cheng-Chung 20 June 2002 (has links)
Application of Knowledge Management on Performance Appraisal and Management System Abstract The goal of competitive strategy is to create competitive advantages and gain the maximum value. On the other hand, competitive advantage lies in differentiation which originates from exclusive ¡§core competence and resource¡¨. In fact, what so called ¡§core competence and resource¡¨ tightly relates to ¡§knowledge¡¨ because to compare with other resource, knowledge has the characteristics of being ¡§scarce¡¨, ¡§difficult to imitate¡¨ ¡§unable to copy¡¨, and ¡§granted with exclusive rights¡¨ (Hsu Shihchun, 2000) and these are the essential elements for a company to remain its competitive advantages. Thus, Knowledge Management (KM) determines powerfully the survival of a company. In terms of business management, the ultimate goal of Performance Management System is to enhance organization efficiency which is built on the integration and improvement of business operation. It is also an important system aiming for improving or strengthening the system of ¡§core competence and resource¡¨ building. This coincides with the nature of knowledge management and benefits each other. Management activities such as production, marketing, R&D, accounting, purchasing, and human resource tie with ¡§the import , capture , retrieval , access , use , sharing , creation of knowledge¡¨ and this evidently indicates the popularity and long existence of KM activities. This study attempted to use KM Process as the base to construct a case study model with theoretical and practical application through the application demand of Knowledge Technology (KT). Before constructing the model, this study first reviewed the previous literature and understood the definition of KM and Performance Appraisal and Management. With the help of diagnosis tool, Six Box Model (Weisbord, 1976), we improved the study model of Knowledge Based Performance Appraisal and Management System (KBPAMS). Meanwhile, we adopted dimensional elements to compile an ideal ¡§Study Form for KBPAMS.¡¨ We also selected certain companies as the cases to examine the existing system and conducted one by one in-depth interviews with employees of chosen companies. Due to the limitations on study time and human resources, random sampling as well as convenience sampling were excluded; purposive sampling was chosen to understand the actual demand and opinions of workers. Next, Flow Chart and handling description were two methods of presentation to construct a simple ¡§KBPAMS¡¨ case study model as the reference for future establishment of information system. In the end, we used the improvement of the ¡§KBPAMS¡¨ case study model. To analyze the six dimensional elements of the ¡§KBPAMS¡¨ and studied it by open-system-view. Four suggestions were offered for conclusion as follows: 1.Returning to the humanity; 2.Integrating business culture and creating business characteristics; 3.long-term Investing on KBPAMS; 4.Gaining full-support from the top-manager. Keywords¡G Knowledge Management (KM), Knowledge Technology (KT), Performance Appraisal and Management, Performance Appraisal System (PAS)
118

Découverte des relations dans les réseaux sociaux

Raad, Elie 22 December 2011 (has links) (PDF)
Les réseaux sociaux occupent une place de plus en plus importante dans notre vie quotidienne et représentent une part considérable des activités sur le web. Ce succès s'explique par la diversité des services/fonctionnalités de chaque site (partage des données souvent multimédias, tagging, blogging, suggestion de contacts, etc.) incitant les utilisateurs à s'inscrire sur différents sites et ainsi à créer plusieurs réseaux sociaux pour diverses raisons (professionnelle, privée, etc.). Cependant, les outils et les sites existants proposent des fonctionnalités limitées pour identifier et organiser les types de relations ne permettant pas de, entre autres, garantir la confidentialité des utilisateurs et fournir un partage plus fin des données. Particulièrement, aucun site actuel ne propose une solution permettant d'identifier automatiquement les types de relations en tenant compte de toutes les données personnelles et/ou celles publiées. Dans cette étude, nous proposons une nouvelle approche permettant d'identifier les types de relations à travers un ou plusieurs réseaux sociaux. Notre approche est basée sur un framework orientéutilisateur qui utilise plusieurs attributs du profil utilisateur (nom, age, adresse, photos, etc.). Pour cela, nous utilisons des règles qui s'appliquent à deux niveaux de granularité : 1) au sein d'un même réseau social pour déterminer les relations sociales (collègues, parents, amis, etc.) en exploitant principalement les caractéristiques des photos et leurs métadonnées, et, 2) à travers différents réseaux sociaux pour déterminer les utilisateurs co-référents (même personne sur plusieurs réseaux sociaux) en étant capable de considérer tous les attributs du profil auxquels des poids sont associés selon le profil de l'utilisateur et le contenu du réseau social. À chaque niveau de granularité, nous appliquons des règles de base et des règles dérivées pour identifier différents types de relations. Nous mettons en avant deux méthodologies distinctes pour générer les règles de base. Pour les relations sociales, les règles de base sont créées à partir d'un jeu de données de photos créées en utilisant le crowdsourcing. Pour les relations de co-référents, en utilisant tous les attributs, les règles de base sont générées à partir des paires de profils ayant des identifiants de mêmes valeurs. Quant aux règles dérivées, nous utilisons une technique de fouille de données qui prend en compte le contexte de chaque utilisateur en identifiant les règles de base fréquemment utilisées. Nous présentons notre prototype, intitulé RelTypeFinder, que nous avons implémenté afin de valider notre approche. Ce prototype permet de découvrir différents types de relations, générer des jeux de données synthétiques, collecter des données du web, et de générer les règles d'extraction. Nous décrivons les expériementations que nous avons menées sur des jeux de données réelles et syntéthiques. Les résultats montrent l'efficacité de notre approche à découvrir les types de relations.
119

Perception de la qualité du vin par les consommateurs

Medel Maraboli, Marcela 04 November 2011 (has links) (PDF)
Depuis quelques années la consommation de vins tend plutôt à décroitre rendant la production mondiale de vins excédentaire. Par conséquent, les entreprises viticoles souhaitent diversifier leur production vers des vins plus qualitatifs et donc plus onéreux. Ainsi, il est important de comprendre comment est perçue la qualité du vin par les consommateurs. Ce travail propose un questionnaire de mesure de la perception de la complexité du vin et démontre l'existence d'un lien fort entre la perception de cette complexité et la qualité du vin. Ainsi les vins perçus comme les plus qualitatifs sont, d'un point de vue sensoriel, des vins concentrés avec de nombreux aromes persistants en bouche. Cette perception sensorielle de la qualité est de plus corrélée avec la qualité affichée par le marché. Toutefois, il existe des disparités de perception de cette qualité selon l'origine des consommateurs. Dans ces travaux, les consommateurs français ont su associer des différences sensorielles entre les vins aux différentes catégories de prix du marché, alors que ce ne fut pas le cas des consommateurs anglais. De plus, il a été démontré, grâce à l'adaptation de la méthode de la Dominance Temporelle des Sensations aux consommateurs de vin, que les profils temporels des vins les plus qualitatifs comportaient plusieurs sensations perçues quasiment simultanément, plutôt que des séquences de sensations. Ainsi, la complexité sensorielle d'un vin serait l'intégration de plusieurs sensations dans une même unité de temps, plutôt qu'une suite de signaux sensoriels simples. Finalement, un effet lié à une exposition répétée à court et long terme a été confirmé: les préférences des consommateurs exposés à des vins de qualité supérieure évoluent bien vers les vins les plus qualitatifs.
120

Diagnostic et Pronostic de défaillances dans des composants d'un moteur d'avion

Diez Lledo, Edouard 04 July 2008 (has links) (PDF)
Le diagnostic de défaillances dans le domaine de l'aéronautique est un problème critique à cause des enjeux économiques mais surtout de sûreté des passagers. Dans l'avion les moteurs et ses équipements, régulateurs, périphériques, ... sont les systèmes les plus importants car l'ensemble fournit la puissance nécessaire pour soutenir l'appareil en vol. Une étude préliminaire basée sur les données de maintenance des équipements montre deux systèmes critiques : les vérins du système hydraulique et le système d'huile. Dans les systèmes périphériques du moteur nous trouvons le système hydraulique qui a comme objectif adapter la géométrie du moteur aux nécessités particulières de puissance dans chaque phase de vol. Le système hydraulique est composé d'un certain nombre de vérins inclus dans le circuit du carburant, qui est le fluide qui les actionne. Le vérin VSV (Variable stator Valve), avec sa boucle de régulation, est l'objet de notre étude. Cet actionneur modifie la géométrie de la turbine haute pression pour réussir à avoir une puissance optimale notamment dans le décollage et l'atterrissage. Ces actionneurs sont installés dans la plupart de turbines CFM56-7 fournies par l'entreprise motoriste Hispano-Suiza du Groupe Safran. En ce qui concerne le système d'huile, la lubrification correcte des parties mécaniques mobiles du moteur de l'avion devient critique à cause des vitesses de rotation des éléments mobiles du moteur. Le diagnostic du système décrit est donc le but premier. En complément, là où la maintenance est une partie importante de la vie du système, le pronostic de défaillances et la surveillance du vieillissement est un sujet de plus en plus important. C'est le cas des moteurs aéronautiques dont la maintenance périodique est fondamentale pour la sûreté de fonctionnement du système. En conséquence, le deuxième objectif de cette étude est de coordonner la détection des défaillances avec le pronostic pour réaliser une maintenance adaptative des moteurs. Dans une première partie, on expose les concepts et outils théoriques, basés sur l'analyse de données et la modélisation du système. Ensuite les applications ont été développées en grandeur réelle sur le moteur choisi par l'entreprise, dans le cadre du projet européen TATEM.

Page generated in 0.042 seconds