• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 295
  • 81
  • 18
  • 3
  • Tagged with
  • 409
  • 100
  • 94
  • 89
  • 82
  • 50
  • 49
  • 49
  • 45
  • 38
  • 36
  • 35
  • 31
  • 31
  • 30
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
321

Modélisation des écoulements à surface libre de fluides non-newtoniens / Free surface modeling of non-newtonian fluid flows

Schaer, Nicolas 27 September 2018 (has links)
L’objectif de cette thèse est de développer un modèle numérique 3D afin d’étudier le phénomène de laves torrentielles ; écoulements visqueux fortement chargés en matière solide, surgissant en montagne lors d’orages violents. Aujourd’hui, la prévision des zones de vulnérabilité s’appuie sur des outils de calcul 0D, 1D ou 2D. Or ces outils ne peuvent représenter pleinement le comportement à surface libre des écoulements du fait de nombreuses approximations et hypothèses. Ainsi cette thèse met en œuvre un code numérique 3D pour étudier ces écoulements. Ce travail aboutit à la construction d’un modèle 3D à partir de données réelles de terrain. Plusieurs scénarios ont été étudiés et comparés à des résultats issus d’un modèle 2D. Les résultats mettent en évidence les apports non négligeables de la modélisation 3D : zones d’étalement et de dépôt, phénomènes d’encombrement, modélisation fine des écoulements dans les zones chenalisées. Préalablement, le modèle 3D a été validé en comparant les résultats numériques à des données expérimentales issues de la littérature, pour des typologies d’écoulement représentatives de celles observées sur des sites grandeur nature. / The objective of this thesis is to develop a 3D numerical model to assess debris flow. These viscous flows, heavily loaded with solid matter, form when heavy rain occurs in mountains. Today, forecasts of potentially impacted areas are based on 0D, 1D and 2D numerical tools. However, these tools cannot fully represent the free surface behaviour of debris flows due to the approximations and assumptions on which they are based. Thus, this work utilises a 3D numerical code to study this phenomenon. A specific model is built with real field data. Several flow scenarios are studied and compared with a 2D numerical model. The results highlight the significant benefits of a 3D approach by providing information on the fine representation of flow dynamics over the catchment area. The model also predicts the impact of debris flow (overflowing on a road bridge) and the zones of deposition and spreading. It highlights possible congestion phenomena and reproduces flows in the channels by fully accounting for parietal friction, capabilities not provided by 2D models. Prior to this application, the 3D model was evaluated with five sets of experimental data to validate its ability to represent viscoplastic flows. Different types of flows are studied and are representative of those observed on real sites when debris flow occur.
322

Contrôle intégré du pilotage d’atelier et de la qualité des produits : application à la société ACTA mobilier / Integrated control of workshop and product quality : application to ACTA furniture company

Noyel, Mélanie 10 November 2015 (has links)
Cette thèse CIFRE s’inscrit dans le cadre d’une collaboration entre Acta-Mobilier, fabricant de façades laquées haut de gamme, et le Centre de Recherche en Automatique Nancy. L’idée est de tirer parti du concept de Système Contrôlé par le Produit dans un environnement industriel perturbé par de nombreuses boucles de production et par un taux de reprises (non-qualités) non négligeable engendrant des pertes de pièces, le non-respect des délais, des charges de travail instables, etc… le lien impossible entre le produit et un identifiant infotronique rendant en plus la traçabilité difficile. Les travaux sur l’ordonnancement et son optimisation sont freinés par ces perturbations sur la chaîne de production qui rendent les plannings intenables. Le traitement prioritaire des pièces défectueuses permet d’assurer un taux de service qui reste remarquable au regard du pourcentage de pièces à réparer. Mais cela engendre aussi des pertes de pièces qui empêchent la livraison complète de la commande. La problématique scientifique s’articule autour du pilotage des flux dans un contexte de production perturbé par les reprises et de la maîtrise de la qualité en évaluant son impact sur l’engorgement. L’enjeu de maîtrise de la qualité a été abordé à l’aide de réseaux de neurones capables de prévoir l’apparition du défaut auquel ils sont dédiés en fonction des paramètres de production et environnementaux. Cette anticipation permet de proposer une alternative de programme à utiliser ou à reporter la planification de la tâche. L’adaptation du modèle de prévision aux dérives du modèle physique au comportement considéré comme nerveux est réalisée « en-ligne » à l’aide de cartes de contrôle qui permettent de détecter la dérive et sa date de début. Malgré cette simplification des flux, le pilotage reste complexe en raison des boucles normales de production et des non qualités résiduelles. Il existe différents états de saturation du système pour lesquels la règle de pilotage la plus adaptée n’est pas toujours la même. Cette analyse est présentée sous forme de cartographie en deux dimensions dont chacun des axes présente un indicateur clé du taux de non-qualité et/ou de la perturbation des flux. Même si, contrairement aux algorithmes, la règle de pilotage la mieux adaptée ne sera pas toujours mise en évidence, cette cartographie présente d’autres avantages tels que la simplification du pilotage, la possibilité pour tous les utilisateurs d’avoir l’information importante sur l’état de l’atelier en un coup d’oeil, ou encore la nécessité d’homogénéisation sur la globalité de l’unité de production. Dans ce contexte, le container intelligent offre des perspectives intéressantes avec la volonté de tracer un groupe de produits ayant la même gamme de fabrication plutôt que des produits un à un, de partager des informations telles que sa date de livraison, son degré d’urgence, de connaître quels chemins ils doivent emprunter dans l’atelier et quelles sont les alternatives possibles ou encore de communiquer avec les machines et les autres systèmes dont celui de prévision de la qualité et retenir des informations au fil de la fabrication des produits. Le système proposé est donc interactif ou le conteneur est au coeur de la décision. Il signale sa présence au système d’ordonnancement seulement si les conditions qualité sont réunies, permettant ainsi de simplifier son travail autorisant alors un simple algorithme traditionnel de programmation linéaire à réaliser cette tâche particulièrement compliquée au premier abord. C’est en revanche à la charge de l’ordonnanceur de s’assurer de la règle de pilotage à utiliser et de demander les informations correspondantes aux lots disponibles. La contribution de cette thèse est donc une méthodologie de simplification de problèmes complexes par une répartition des tâches entre différents sous-systèmes acteurs appliquée au cas d’une entreprise de fabrication de façades de cuisine laquées haut de gamme / Centre de Recherche en Automatique de Nancy. The idea is to take advantage of Product Driven System in an industrial environment disturbed by many loops and a rework rate (non quality) causing significant loss of products, non-compliance deadlines, unstable workloads, etc ... impossible link between the product and identifying infotronic lead to more difficult traceability. Work on scheduling and optimization are hampered by these disturbances on the production line that make them untenable schedules. Priority processing on defective products ensures a service rate that remains outstanding compared to the percentage of products to repair. But it also leads to loss of products that prevent the full delivery of the order. The scientific problem revolves around the control of flow in a production context disturbed by the loops and the quality level by assessing its impact on congestion. The quality-control issue has been addressed by using neural networks that can predict the occurrence of the defect to which they are dedicated from production and environmental parameters. This anticipation allows us to offer a program alternative to use or to plan to postpone the task. The adaptation of the forecasting model to the drift of the physical model with a behavior regarded as nervous is made "on line" using control charts that detect drift and its start date. Despite this simplification of flows, the flow control remains complex due to normal production loops and residual nonqualities. There are different system saturation states for which the most suitable control rule is not always the same. This analysis is presented in a two-dimensional mapping which each axis has a key indicator on non-quality rate and / or disruption of flows. Although, unlike algorithms, the most suitable control rule will not always be highlighted, this mapping has other advantages such as the simplification of the control, the ability for all users to have important information about the workshop state, or the need for homogenization of the global state of the production unit. In this context, the intelligent container offers interesting perspectives with the will to trace a group of products with the same rooting sheet rather than products one by one, to share information such as its delivery date, the urgency degree, to know what paths they should take and what are the possible alternatives or to communicate with other machines and systems including the quality forecasting system and retain information over the manufacture of the products. The proposed system is so interactive where container is at the heart of the decision. It reported his presence to scheduling system only if the quality system requirements are met, and simplify this work while allowing a traditional linear algorithm to achieve this task seen as particularly complicated at first. It is however the responsibility of the scheduler to ensure the pilot rule to use and request the relevant information available to the lots. The contribution of this thesis is a methodology to simplify complex problems by a division of work between different subsystems actors applied to the case of a manufacturer of high-finished lacquered panels
323

Développement de méthodes spatio-temporelles pour la prévision à court terme de la production photovoltaïque / Development of spatio-temporal methods for short term forecasting of photovoltaïc production

Agoua, Xwégnon 20 December 2017 (has links)
L’évolution du contexte énergétique mondial et la lutte contre le changement climatique ont conduit à l’accroissement des capacités de production d’énergie renouvelable. Les énergies renouvelables sont caractérisées par une forte variabilité due à leur dépendance aux conditions météorologiques. La maîtrise de cette variabilité constitue un enjeu important pour les opérateurs du système électrique, mais aussi pour l’atteinte des objectifs européens de réduction des émissions de gaz à effet de serre, d’amélioration de l’efficacité énergétique et de l’augmentation de la part des énergies renouvelables. Dans le cas du photovoltaïque(PV), la maîtrise de la variabilité de la production passe par la mise en place d’outils qui permettent de prévoir la production future des centrales. Ces prévisions contribuent entre autres à l’augmentation du niveau de pénétration du PV,à l’intégration optimale dans le réseau électrique, à l’amélioration de la gestion des centrales PV et à la participation aux marchés de l’électricité. L’objectif de cette thèse est de contribuer à l’amélioration de la prédictibilité à court-terme (moins de 6 heures) de la production PV. Dans un premier temps, nous analysons la variabilité spatio-temporelle de la production PV et proposons une méthode de réduction de la non-stationnarité des séries de production. Nous proposons ensuite un modèle spatio-temporel de prévision déterministe qui exploite les corrélations spatio-temporelles entre les centrales réparties sur une région. Les centrales sont utilisées comme un réseau de capteurs qui permettent d’anticiper les sources de variabilité. Nous proposons aussi une méthode automatique de sélection des variables qui permet de résoudre les problèmes de dimension et de parcimonie du modèle spatio-temporel. Un modèle spatio-temporel probabiliste a aussi été développé aux fins de produire des prévisions performantes non seulement du niveau moyen de la production future mais de toute sa distribution. Enfin nous proposons, un modèle qui exploite les observations d’images satellites pour améliorer la prévision court-terme de la production et une comparaison de l’apport de différentes sources de données sur les performances de prévision. / The evolution of the global energy context and the challenges of climate change have led to anincrease in the production capacity of renewable energy. Renewable energies are characterized byhigh variability due to their dependence on meteorological conditions. Controlling this variabilityis an important challenge for the operators of the electricity systems, but also for achieving the Europeanobjectives of reducing greenhouse gas emissions, improving energy efficiency and increasing the share of renewable energies in EU energy consumption. In the case of photovoltaics (PV), the control of the variability of the production requires to predict with minimum errors the future production of the power stations. These forecasts contribute to increasing the level of PV penetration and optimal integration in the power grid, improving PV plant management and participating in electricity markets. The objective of this thesis is to contribute to the improvement of the short-term predictability (less than 6 hours) of PV production. First, we analyze the spatio-temporal variability of PV production and propose a method to reduce the nonstationarity of the production series. We then propose a deterministic prediction model that exploits the spatio-temporal correlations between the power plants of a spatial grid. The power stationsare used as a network of sensors to anticipate sources of variability. We also propose an automaticmethod for selecting variables to solve the dimensionality and sparsity problems of the space-time model. A probabilistic spatio-temporal model has also been developed to produce efficient forecasts not only of the average level of future production but of its entire distribution. Finally, we propose a model that exploits observations of satellite images to improve short-term forecasting of PV production.
324

Methodology to estimate building energy consumption using artificial intelligence / Méthodologie pour estimer la consommation d’énergie dans les bâtiments en utilisant des techniques d’intelligence artificielle

Paudel, Subodh 22 September 2016 (has links)
Les normes de construction pour des bâtiments de plus en plus économes en énergie (BBC) nécessitent une attention particulière. Ces normes reposent sur l’amélioration des performances thermiques de l’enveloppe du bâtiment associé à un effet capacitif des murs augmentant la constante de temps du bâtiment. La prévision de la demande en énergie de bâtiments BBC est plutôt complexe. Ce travail aborde cette question par la mise en œuvre d’intelligence artificielle(IA). Deux approches de mise en œuvre ont été proposées : « all data » et « relevant data ». L’approche « all data » utilise la totalité de la base de données. L’approche « relevant data » consiste à extraire de la base de données un jeu de données représentant le mieux possible les prévisions météorologiques en incluant les phénomènes inertiels. Pour cette extraction, quatre modes de sélection ont été étudiés : le degré jour (HDD), une modification du degré jour (mHDD) et des techniques de reconnaissance de chemin : distance de Fréchet (FD) et déformation temporelle dynamique (DTW). Quatre techniques IA sont mises en œuvre : réseau de neurones (ANN), machine à support de vecteurs (SVM), arbre de décision (DT) et technique de forêt aléatoire (RF). Dans un premier temps, six bâtiments ont été numériquement simulés (de consommation entre 86 kWh/m².an à 25 kWh/m².an) : l’approche « relevant data » reposant sur le couple (DTW, SVM) donne les prévisions avec le moins d’erreur. L’approche « relevant data » (DTW, SVM) sur les mesures du bâtiment de l’Ecole des Mines de Nantes reste performante. / High-energy efficiency building standards (as Low energy building LEB) to improve building consumption have drawn significant attention. Building standards is basically focused on improving thermal performance of envelope and high heat capacity thus creating a higher thermal inertia. However, LEB concept introduces alarge time constant as well as large heat capacity resulting in a slower rate of heat transfer between interior of building and outdoor environment. Therefore, it is challenging to estimate and predict thermal energy demand for such LEBs. This work focuses on artificial intelligence (AI) models to predict energy consumptionof LEBs. We consider two kinds of AI modeling approaches: “all data” and “relevant data”. The “all data” uses all available data and “relevant data” uses a small representative day dataset and addresses the complexity of building non-linear dynamics by introducing past day climatic impacts behavior. This extraction is based on either simple physical understanding: Heating Degree Day (HDD), modified HDD or pattern recognition methods: Frechet Distance and Dynamic Time Warping (DTW). Four AI techniques have been considered: Artificial Neural Network (ANN), Support Vector Machine (SVM), Boosted Ensemble Decision Tree (BEDT) and Random forest (RF). In a first part, numerical simulations for six buildings (heat demand in the range [25 – 85 kWh/m².yr]) have been performed. The approach “relevant data” with (DTW, SVM) shows the best results. Real data of the building “Ecole des Mines de Nantes” proves the approach is still relevant.
325

Evaluation de la fiabilité d'un générateur à rayons X pour application médicale / Reliability assessment of an X-rays generator in medical application

Sow, Amadou Tidiane 13 June 2014 (has links)
Les systèmes d’imagerie médicale, principalement les systèmes à rayons X, sont devenus incontournables dans le diagnostic et le traitement des maladies complexes. Le générateur à rayons X fait partie des sous-systèmes critiques d’un système à rayons X. La technologie des générateurs à rayons X se complexifie et les contraintes vues par les composants augmentent. L’évaluation de la fiabilité du générateur à rayons X est par conséquent nécessaire afin d’optimiser la durée de vie de ce dernier. Dans ces travaux de thèse, une méthodologie d’évaluation de la fiabilité d’un générateur à rayons X est proposée. La méthodologie repose sur l’évaluation de la fiabilité allant du composant au système. Des essais de vieillissement sont d’abord réalisés au niveau des composants critiques du générateur afin d’identifier les mécanismes de défaillance et de construire les courbes de durée de vie permettant d’effectuer une prévision de fiabilité. Les paramètres du recueil de fiabilité FIDES ont aussi été utilisés pour construire les courbes de durée de vie des composants critiques. Une méthode de prévision de la fiabilité basée sur l’hypothèse du dommage cumulé avec la règle de Miner est proposée pour évaluer la durée de vie des composants critiques sous contraintes thermomécaniques. Cette méthode utilise les règles de comptage rainflow pour obtenir une distribution des différences de température vues par les composants critiques. Une association de fiabilité permet enfin d’estimer la durée de vie de chaque sous système du générateur à rayons X à travers ses composants critiques. / Medical imaging systems, mainly X-rays imaging systems, have become essential in the diagnosis and treatment of complex diseases. X-rays generator is one of the critical subsystems of a medical system. Its technology became more complex and constraints seen by the components increase. An assessment of X-rays generator reliability is therefore necessary to optimize its lifetime. In this thesis, a reliability assessment method of an X-rays generator is proposed. The methodology is based on the assessment of the reliability from component to system. Aging tests are first performed for X-rays generator critical components in order to identify failure mechanisms and build lifetime curves for performing reliability prediction. FIDES guide parameters were also used to construct critical components lifetime curves. A reliability prediction method based on the assumption of cumulative damage with Miner's rule is proposed to evaluate critical components lifetime under thermomechanical stresses. This method uses rainflow counting rules for the temperature cycles distribution of critical components. A reliability block diagram is finally used to estimate the lifetime of each X-ray generator subsystem through its critical components.
326

Deux études de transport urbain : ordonnancement des phases d'un carrefour, modèles désagrégés de déplacements dans l'agglomération grenobloise

Chevrolet, Dominique 28 February 1986 (has links) (PDF)
La première partie de la thèse est consacrée au problème de la gestion des feux tricolore d'un carrefour, et la deuxième partie s'inscrit dans le cadre plus général de la modélisation des déplacements urbains
327

Etude de la surface océanique, de sa signature radar et de ses interactions avec les flux turbulents de quantité de mouvement dans le cadre de l'experience FETCH

QUENTIN, Céline Gwenaëlle 26 April 2002 (has links) (PDF)
L'objectif principal est l'étude de l'état de la mer et de ses relations avec les flux turbulents d'énergie et avec le signal radar rétrodiffusé. L'étude est basée sur les données de l'expérience FETCH (« Flux, Etat de la mer et Télédétection en Conditions de fetcH limité ») qui s'est déroulée dans le golfe du Lion, Méditerranée Occidentale, en Mars-Avril 1998. L'état de la mer a été étudié à partir de mesures in situ (bouées), et par télédétection aéroportée (radar RESSAC) et spatiale (altimètres TOPEX et ERS). Plusieurs états de mer (mer en développement, mer mixte et houle) associées à des situations météorologiques variées (Mistral, Tramontane, ou Marin) ont été analysés. La séparation du spectre des vagues en composantes de mer du vent (vagues générées par le vent local) ou houle a permis de classifier les états de mer. La loi de croissance des vagues a été établie pour les cas de pure mer observés localement par la bouée. . Cette loi diffèresensiblement de celles citées dans la littérature. Ce jeu de données a servi de base à une étude comparative entre modèles de prévision et observations, qui a montré la nécessité, pour cette région côtière, d'utiliser un champ de vent et un modèle d'état de mer de fine résolution spatiale. Une analyse de l'influence de l'état de la mer sur les flux de quantité de mouvement a été menée à partir des données de turbulence acquises sur une bouée (ASIS) et du navire de recherche (Atalante). En condition de mer du vent, l'influence de l'âge des vagues sur les flux de quantité de mouvement a été montrée. Mais aucune relation entre la pente significative des vagues et les paramètres des flux turbulents n'a été mise en évidence sur les données de l'expérience FETCH. L'analyse du signal radar à faible incidence (autour de 12°) a montré une dépendance très faible de la moyenne quadratique des pentes de la surface aux paramètres tels que la force du vent, l'âge ou la pente significative des vagues.
328

Contribution à la définition des caractéristiques d'un radar hydrologique urbain. Prévision de la pluie à très courte échéance

Boudevillain, Brice 21 March 2003 (has links) (PDF)
L'intensité pluvieuse est une information essentielle en hydrologie, notamment pour les bassins versants situés en zone urbaine ou montagneuse. Il est donc nécessaire de disposer, sur ces bassins, d'estimations fiables des précipitations ainsi que de prévisions de la pluie à très courte échéance. Le radar météorologique constitue une solution à ces besoins. Toutefois les radars existants aujourd'hui ne sont pas totalement adaptés à toutes les applications hydrologiques en terme de souplesse d'utilisation et de résolution spatiale et temporelle. L'utilisation de radars de configuration légère en bande X, est envisagée pour les besoins de l'hydrologie urbaine. Les conditions d'utilisation de tels radars sont à définir. Ces études proposent d'évaluer l'intérêt de l'information radar volumique et Doppler pour la prévision des précipitations à très courte échéance. La première partie de la thèse s'intéresse à la mesure du VIL par radar. Elle présente également une méthode de restitution du champ de vitesse horizontale tirant parti de la mesure Doppler. La deuxième partie de la thèse concerne la formulation et l'évaluation d'une méthode de prévision de la pluie à très courte échéance reposant sur le VIL. Cette méthode est d'abord testée à l'aide de données radar simulées afin de mettre en évidence l'intérêt des données volumiques indépendamment des erreurs de mesure. Une étude de cas réel a été ensuite menée sur des événements pluvieux de la période spéciale d'observation de MAP (Mesoscale Alpine Programme).
329

Calcul de la lame ruisselée dans la modélisation pluie-débit : limitations des approches globales et introduction simplifiée de la topographie et de la variabilité spatiale des pluies : applications aux bassins versants du Gardon d'Anduze et du Réal Collobrier

Sempere Torres, Daniel 11 May 1990 (has links) (PDF)
Ce mémoire étudie les processus de production de la Pluie Efficace dans les modélisations globales (qui considèrent le bassin versant comme une seule entité) de la relation pluie débit à l'aide de la méthode DPFT. S'appuyant sur un ensemble de crues, celle méthode permet d'identifier une Fonction de Transfert moyenne pour le bassin et un jeu de Pluies Efficaces propres à chaque crue. Celles-ci sont ensuite utilisées afin d'optimiser la Fonction de Production. Dans une première étape, nous avons utilisé trois modèles représentant les grandes familles de modèles globaux de Fonction de Production, et nous avons mesuré leurs performances et limitations sur les données de deux bassins versants : le Gardon d'Anduze et le Réal Collobrier. Les résultats obtenus ont montré la nécessité d'introduire des informations complémentaires à celles données par la lame moyenne de Pluie Brute. Dans une deuxième étape, nous avons introduit de façon simplifiée la topographie du bassin et la variabilité spatiale de la pluie à l'aide de la fonction de répartition d'un indice topographique et d'un indice de concentration de la pluie tombée, et sous l'hypothèse que ces deux aspects jouent un rôle de second ordre par rapport à la description fournie par un modèle global. Les résultats obtenus ont permis de proposer des améliorations des modèles pluie-débit globaux, susceptibles d'être utilisés dans un contexte de prévision de crues.
330

Prédiction de suites individuelles et cadre statistique classique : étude de quelques liens autour de la régression parcimonieuse et des techniques d'agrégation

Gerchinovitz, Sébastien 12 December 2011 (has links) (PDF)
Cette thèse s'inscrit dans le domaine de l'apprentissage statistique. Le cadre principal est celui de la prévision de suites déterministes arbitraires (ou suites individuelles), qui recouvre des problèmes d'apprentissage séquentiel où l'on ne peut ou ne veut pas faire d'hypothèses de stochasticité sur la suite des données à prévoir. Cela conduit à des méthodes très robustes. Dans ces travaux, on étudie quelques liens étroits entre la théorie de la prévision de suites individuelles et le cadre statistique classique, notamment le modèle de régression avec design aléatoire ou fixe, où les données sont modélisées de façon stochastique. Les apports entre ces deux cadres sont mutuels : certaines méthodes statistiques peuvent être adaptées au cadre séquentiel pour bénéficier de garanties déterministes ; réciproquement, des techniques de suites individuelles permettent de calibrer automatiquement des méthodes statistiques pour obtenir des bornes adaptatives en la variance du bruit. On étudie de tels liens sur plusieurs problèmes voisins : la régression linéaire séquentielle parcimonieuse en grande dimension (avec application au cadre stochastique), la régression linéaire séquentielle sur des boules L1, et l'agrégation de modèles non linéaires dans un cadre de sélection de modèles (régression avec design fixe). Enfin, des techniques stochastiques sont utilisées et développées pour déterminer les vitesses minimax de divers critères de performance séquentielle (regrets interne et swap notamment) en environnement déterministe ou stochastique.

Page generated in 0.0629 seconds