• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 108
  • 57
  • 5
  • 1
  • Tagged with
  • 167
  • 64
  • 55
  • 44
  • 39
  • 38
  • 27
  • 26
  • 23
  • 20
  • 19
  • 17
  • 16
  • 15
  • 14
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
141

Modèles d'appariement du greffon à son hôte, gestion de file d'attente et évaluation du bénéfice de survie en transplantation hépatique à partir de la base nationale de l'Agence de la Biomédecine. / Liver transplantation graft-to-recipient matching models, queue management and evaluation of the survival benefit : study based on the Agency of Biomedicine national database

Winter, Audrey 28 September 2017 (has links)
La transplantation hépatique (TH) est la seule intervention possible en cas de défaillance hépatique terminale. Une des limitations majeures à la TH est la pénurie d'organes. Pour pallier ce problème, les critères de sélection des donneurs ont été élargis avec l'utilisation de foie de donneurs dits à "critères étendus" (extended criteria donor (ECD)). Cependant, il n'existe pas de définition univoque de ces foies ECD. Un score donneur américain a donc été mis en place : le Donor Risk Index (DRI), pour qualifier ces greffons. Mais à qui doit-on donner ces greffons "limites"? En effet, une utilisation appropriée des greffons ECD pourrait réduire la pénurie d'organes. Le but de cette thèse est d'établir un nouveau système d'allocation des greffons qui permettrait à chaque greffon d'être transplanté au candidat dont la transplantation permettra le plus grand bénéfice de survie et d'évaluer l'appariement entre donneurs et receveurs en tenant compte des greffons ECD.La première étape a consisté à effectuer une validation externe du DRI ainsi que du score qui en découle : l'Eurotransplant-DRI. Toutefois la calibration et la discrimination n'étaient pas maintenus dans la base française. Un nouveau score pronostique donneur a donc été élaboré : le DRI-Optimatch, à l'aide d'un modèle de Cox donneur ajusté sur les covariables receveur. Le modèle a été validé par bootstrap avec correction de la performance par l'optimisme.La seconde étape consista à explorer l'appariement entre donneur et receveur afin d'attribuer les greffons ECD de manière optimale. Il a été tenu compte des critères donneurs et receveurs, tels qu'évalués par le DRI-Optimatch et par le MELD (Model for End-stage Liver Disease, score pronostique receveur), respectivement. La méthode de stratification séquentielle retenue s'inspire du principe de l'essai contrôlé randomisé. Nous avons alors estimé, à l'aide de rapport de risques, quel bénéfice de survie un patient donné (repéré à l'aide du MELD) pourrait avoir avec un greffon donné (repéré à l'aide du DRI-Optimatch) en le comparant avec le groupe de référence composé des patients (même MELD), éligibles à la greffe, restés sur liste dans l'attente d'un meilleur greffon (DRI-Optimatch plus petit).Dans une troisième étape, nous avons développé un système d'allocation basé sur le bénéfice de survie alliant deux grands principes dans l'allocation de greffons; l'urgence et l'utilité. Dans ce type de système, un greffon alloué est attribué au patient avec la plus grande différence entre la durée de vie post-transplantation prédite et la durée estimée sur la liste d'attente pour un donneur spécifique. Ce modèle est principalement basé sur deux modèles de Cox : un pré-greffe et un post-greffe. Dans ces deux modèles l'évènement d'intérêt étant le décès du patient, pour le modèle pré-greffe, la censure dépendante a été prise en compte. En effet, sur liste d'attente le décès est bien souvent censuré par un autre évènement : la transplantation. Une méthode dérivée de l'Inverse Probability of Censoring Weighting a été utilisée pour pondérer chaque observation. De plus, données longitudinales et données de survie ont aussi été utilisées. Un modèle "en partie conditionnel", permettant d'estimer l'effet de covariables dépendantes du temps en présence de censure dépendante, a été utilisé pour modéliser la survie pré-greffe.Après avoir développé un nouveau système d'allocation, la quatrième et dernière étape, nous a permis de l'évaluer à travers de simulation d'évènement discret ou DES : Discret Event Simulation. / Liver transplantation (LT) is the only life-saving procedure for liver failure. One of the major impediments to LT is the shortage of organs. To decrease organ shortage, donor selection criteria were expanded with the use of extended criteria donor (ECD). However, an unequivocal definition of these ECD livers was not available. To address this issue, an American Donor Risk Index (DRI) was developed to qualify those grafts. But to whom should those ECD grafts be given? Indeed, a proper use of ECD grafts could reduce organ shortage. The aim of this thesis is to establish a new graft allocation system which would allow each graft to be transplanted in the candidate whose LT will allow the greatest survival benefit; and to evaluate the matching between donors and recipients taking into account ECD grafts.The first step was the external validation of the DRI as well as the resultant Eurotransplant-DRI score. However, calibration and discrimination were not maintained on the French database. A new prognostic donor score: the DRI-Optimatch was then developed using a Cox donor model with adjustment on recipient covariates. The model was validated by bootstrapping with correction of the performance by the optimism.The second step was to explore the matching between donors and recipients in order to allocate ECD grafts optimally. Consideration should be given to the donor and recipient criteria, as assessed by the DRI-Optimatch and the Model for End-stage Liver Disease (MELD), respectively. The sequential stratification method retained is based on the randomized controlled trial principle. We then estimated, through hazard ratios, the survival benefit for different categories of MELD and DRI-Optimatch compared against the group of candidates remaining on the wait list (WL) and waiting for a transplant with a graft of better quality (lower DRI-Optimatch).In the third step, we have developed an allocation system based on survival benefit combining the two main principles in graft allocation; urgency and utility. In this system, a graft is allocated to the patient with the greatest difference between the predicted post-transplant life and the estimated waiting time for a specific donor. This model is mainly based on two Cox models: pre-LT and post-LT. In these two models the event of interest being the death of the patient, for the pre-graft model, the dependent censoring was taken into account. Indeed, on the WL, death is often censored by another event: transplantation. A method derived from Inverse Probability of Censoring Weighting was used to weight each observation. In addition, longitudinal data and survival data were also used. A partly conditional model, to estimate the effect of time-dependent covariates in the presence of dependent censoring, was therefore used for the pre-LT model.After developing a new allocation system, the fourth and final step was to evaluate it through Discrete Event Simulation (DES).
142

Développement d’un lab-on-chip pour la mesure d’acidité libre de solutions chargées en cations hydrolysables / Development of a lab-on-chip for free acidity measurement in aqueous solutions containing hydrolytic cations

Neri Quiroz, José Antonio 25 November 2016 (has links)
Une étude conjointe du CEA et d'AREVA la Hague a montré qu'une des voies d'amélioration majeure des usines de traitement/recyclage du combustible nucléaire usagé, actuelles et futures, concerné le domaine de l'analyse. En effet, le suivi et le pilotage des procédés déployés dans ces usines nécessitent de nombreuses analyses générant de grandes quantités d'effluents radioactifs. Réduire les volumes mis en jeu lors de ces analyses permettrait donc de réduire la nocivité des échantillons et des effluents et donc d'accroitre la sureté pour le personnel et de réduire l'impact sur l'environnement et le coût de fonctionnement des usines. Parmi toutes les analyses effectuées, la mesure d'acidité libre est la plus fréquente, car c'est un paramètre indispensable pour pouvoir piloter correctement le procédé. C'est pourquoi, ces travaux de thèse ont abouti à l'amélioration de la méthode de mesure via une réduction d'échelle de l'analyse et une automatisation du protocole de mesure. Deux voies ont été étudiées : - le titrage par injection séquentielle (SIA), qui est un dispositif de 25 L de volume et qui par rapport à la méthode d'analyse de référence, réduit 1000 fois le volume d'échantillon nécessaire à l'analyse, 8 fois le temps d'analyse et 40 fois le volume d'effluents générés. - le titrage ballist-mix emploie un dispositif microfluidique qui, après intégration et réduction des composants, peut atteindre un volume de 25 mL et offre des performances analytiques comparables à celles obtenues en SIA. La méthode par SIA a été validée sur des solutions chargées en uranium alors que la technologie utilisée pour développer les titrages ballist-mix est en cours de validation. Cependant le principe opératoire du titrage ballist-mix est plus avantageux puisqu'il simplifie le travail de développement analytique du fait de la possibilité de simuler en avance les phénomènes physicochimiques ayant lieu lors du titrage / A joint study between the CEA and Areva La Hague has shown that chemical analysis is a crucial parameter for achieving a better performance in present and future spent nuclear fuel reprocessing plants. In fact, each plant’s process monitoring and control require a significant amount of laboratory analysis leading in overall to a considerable amount of nuclear waste. Hence, reducing the sample’s required volume for analysis would reduce its toxicity and subsequent waste, therefore increasing personnel safety, decreasing the environmental impact and the plant’s operation cost. Among the process control analytical workload, the free acidity measurement has been identified as a key analysis due to its measurement frequency. For this reason, the main objective of this research has been focused in the improvement of a reference method for free acidity measurement. The following work has been divided in two main studies seeking for the reduction of the sample volume and the automation of the analytical method protocol: - Sequential Injection Analysis (SIA) titration, whose application requires the employment of a device occupying a 25 L space, and which reduces 1000 fold the sample volume per analysis, 8 times the analysis time and 40 fold the amount of waste generated when compared to the reference analytical method. - Ballist-mix titration, whose analytical performance is equivalent to the SIA titration, but whose implementation is done inside a microfluidic device occupying a volume as low as 25 mL after integration of all of the elements needed for analysis. At the present time, the SIA titration has been validated using nitric acid samples containing uranyl cations, whereas the ballist-mix titration is being validated with the same sample conditions. However, this last analytical technique features a simplified operating principle which allows the user to shorten the analytical development process by opening the possibility to simulate the process before any experimentation
143

Architecture, dynamique et modélisation sismique synthétique d'un système fluvio-deltaïque syntectonique : le complexe deltaïque éocène moyen du Sobrarbe, bassin d'avant-pays sud-pyrénéen (Aragon, Espagne) / Architecture, dynamic and forward seismic modelling of a syntectonic river-delta system : the Eocene deltaic complex means of Sobrarbe, foreland basin of South Pyrenees (Aragon, Spain)

Grasseau, Nicolas 07 September 2016 (has links)
Dans le bassin d’avant-pays sud-pyrénéen, la continuité exceptionnelle des environnements de dépôts du complexe deltaïque éocène moyen du Sobrarbe permet d’observer l’architecture stratigraphique et sédimentaire d’un système fluvio-deltaïque syntectonique à différents échelles. L’objectif principal de cette étude est de déterminer l’origine des facteurs allogéniques et/ou autogéniques contrôlant la géométrie et la répartition des dépôts d’un tel système sédimentaire en contexte compressif, dans le but de pouvoir le comparer à d’autres systèmes deltaïques accumulés dans des contextes géologiques différents. Cette étude est basée sur l’acquisition d’une cartographie géologique détaillée et d’une soixantaine de logs sédimentologiques. La base de données est complétée par une actualisation de données chronostratigraphiques issues de la littérature, l’acquisition de données magnétostratigraphiques. L’analyse sédimentologique et stratigraphique du système sédimentaire aboutit à une description précise des géométries, des faciès et des processus physiques caractérisant les différents environnements de dépôt répartis au sein de deux modèles sédimentaires : un système fluvio-deltaïque de forte énergie développé pendant les phases progradantes, un système mixte gréso-carbonaté de basse énergie caractérisant les phases aggrado-progradantes et transgressives. L’analyse de trois transects de corrélation, d’orientation proximale-distale, a permis la distinction de trois ordres de séquence imbriqués : les séquences de cinquième ordre, les séquences de quatrième ordre et les séquences de troisième ordre. L’organisation complexe des différents cortèges de dépôts des séquences de quatrième et de troisième ordre reflète des variations d’accommodation provoquées principalement par les déformations structurales de différentes longueurs d’onde, secondairement par les variations eustatiques. Une analyse poussée des cortèges de dépôts permet une discussion sur les interrelations entre les trois paramètres majeurs qui contrôlent la dynamique du système sédimentaire dans le temps et dans l’espace: les variations du taux d’accommodation, du flux sédimentaire et l’influence des processus sédimentaires. Ces éléments fournissent des informations semi-quantitatives sur l’accumulation sédimentaire au sein des différents environnements de dépôt (source to sink). La synthèse des résultats aboutit à la reconstruction séquentielle de la paléogéographique du complexe deltaïque du Sobrarbe. Enfin; l’analyse de la subsidence du bassin d’Ainsa a permis de reconstituer l’évolution de la sédimentation et du bassin sédimentaire entre le Lutétien et l’Oligocène. Une étude intégrée affleurement-modélisation sismique synthétique-analogue réel de subsurface fournit une combinaison de données architecturales et dimensionnelles, qui est utilisée pour améliorer les interprétations sismiques des systèmes réservoirs fluvio-deltaïques. De telles études réduisent considérablement les incertitudes associées à la résolution des données de subsurface, ce qui permet une meilleure évaluation économique des réservoirs. / In the South-Pyrenean foreland basin, the exceptional continuity of middle Eocene Sobrarbe deltaic complex deposit environments allows to observe the stratigraphic and sedimentary architecture of a syntectonic river-dominated delta system at different scales. The main objective of this study is to determine the origin of allogenic and/or autogenic factors that control the distribution of deposits of such sedimentary system in a compressive setting, in order to compare it to other deltaic systems that accumulate in different geological contexts. This study is based on the acquisition of detailed geological mapping and about sixty measured sections. The database is complemented by updating chronostratigraphic data from the literature and additional magnetostratigraphic data. Sedimentological and stratigraphic analysis of the sedimentary system leads to an accurate description of geometry, facies and physical processes of different depositional environments distributed along two sedimentary models: a high energy river-delta system developed during progradational phases, a low energy mixed siliciclastic-carbonate system characterizing the aggrado-progradational and transgressive phases. Three dip sections analysis allows the identification of three nested order sequence: fifth-order sequences, fourth-order sequences and third-order sequences. The complex organization of fourth and third-order sequences systems tracts reflects accommodation variations caused mainly by structural deformation at different scales, secondary by eustatic changes. An advanced systems tract analysis leads a discussion of interrelationships between three main parameters that control the dynamics in time and space of sedimentary system: changes in the accommodation rate, sediment input and the influence of sedimentary processes. These elements provide semi-quantitative information regarding to the sediment accumulation within the different depositional environments (source to sink). Summary of results leads to the sequential reconstruction of the Sobrarbe deltaic complex paleogeography. Subsidence analysis of the Ainsa basin permits to reconstruct the sedimentation and sedimentary basin evolution from Lutetian to Oligocene times. An integrated study of outcrop-forward seismic modelling-real seismic analog provides an architectural and dimensional data combination used to improve seismic interpretation of river-deltaic reservoir systems. Such studies greatly reduce the uncertainties associated with the resolution of subsurface data, enabling better economic assessment of reservoirs. / En la cuenca de antepais surpirenaica, la continuidad extraordinaria de los ambientes de deposito del complejo deltaico eoceno medio del Sobrarbe permite la observacion de la arquitectura estratigrafica y sedimentaria de un sistema fluvio-deltaico sintectonico a diferentes escalas. El objetivo principal del estudio presentado es la determinacion del origen de los factores alogenicos y/o autogenicos que controlan la distribucion de los depositos de dicho sistema sedimentario en contexto compresivo, para poder compararlo con otros sistemas deltaicos acumulados en contextos geologicos diferentes. Este estudio se basa en la adquisicion de una cartografia geologica detallada y de una sesentena de columnas sedimentarias. La base de datos se completa mediante la actualizacion de los datos cronoestratigraficos originarios de la literatura y la adquisicion puntual de datos magnetoestratigraficos. El analisis sedimentologico y estratigrafico del sistema sedimentario ha dado lugar a una descripcion exacta de las geometrias, las facies, y de los procesos fisicos que caracterizan los diferentes ambientes de depositos dentro de dos modelos sedimentarios: un sistema fluvio-deltaico de alta energia desarrollado durante fases progradantes, un sistema mixto detritico-carbonatado caracterizando fases agrado-progradantes y transgresivas. El analisis de tres paneles de correlacion, de orientacion proximal-distal, ha permitido la distincion de tres ordenes de secuencialidad: secuencias de quinto orden, de cuarto orden y de tercer orden. La organizacion compleja de diferentes cortejos de deposito de secuencias de cuarto y tercer orden refleja variaciones de acomodacion provocadas principalmente por la deformacion estructural a diferentes escalas y por variaciones eustaticas. Un analisis detallado de los cortejos sedimentarios permite una discusion sobre interrelaciones entre los tres parametros mayores que controlan la dinamica del sistema sedimentario en el espacio y en el tiempo: las variaciones de la tasa de acomodacion, del flujo sedimentario y la influencia de procesos sedimentarios. Dichos elementos proporcionan informacion semicuantitativa sobre la acumulacion sedimentaria en los ambientes de deposito (source to sink). La sintesis de los resultados llega a la reconstruccion de la paleogeografia del complejo deltaico del Sobrarbe. Finalmente, el analisis de la subsidencia de la cuenca de Ainsa ha permitido de reconstruir la evolucion de la sedimentacion y de la cuenca sedimentaria entre el Luteciense y el Oligoceno. Un estudio integrado afloramiento-modelizacion sismica sintetica-analogo real de subsuelo proporciona una combinacion de datos arquitecturales y dimensionales util para mejorar interpretaciones sismicas de sistemas reservorios fluvio-deltaicos. Dichos estudios reducen de manera considerable incertidumbres asociadas a la resolucion de los datos de subsuelo, lo que permite una mejor evaluacion economica de los reservorios.
144

Optimisation de la qualité vibro-acoustique des structures d'automobiles pour les basses fréquences

Bourmich, Sophie 21 September 2012 (has links)
Les modèles d'éléments finis des automobiles donnent des grandes tailles de problèmes matriciels, ce qui demeure coûteux en ressources numériques pour une procédure d'optimisation. La multiplicité des phénomènes couplés du problème d'interaction de l'air de l'habitacle et de la superstructure rend plus sensible, à des variations mineures des paramètres, une optimisation directe du véhicule. Pour réduire les temps de calculs et l'espace mémoire liés à la simulation numérique en éléments finis, une méthode de double synthèse modale est appliquée sur la structure et le fluide. Ceci permet de diminuer le nombre de degrés de liberté de frontière. Egalement, un algorithme a été développé pour minimiser le nombre d'évaluations de fonction au cours des itérations d'optimisation. L'approche modale permet également de décomposer le problème d'optimisation de la réponse vibro-acoustique par des sous-problèmes couplés d'optimisation de critères modaux. Ces critères modaux explicitent les couplages fréquentiels par des termes d'amplification et les couplages spatiaux par des paramètres effectifs modaux. Ils favorisent ainsi le développement d'une stratégie d'optimisation robuste par le contrôle modal des effets prépondérants sur la qualité vibro-acoustique des véhicules. / Finite element models and the complexity of vehicle passenger compartments make it harder the optimization, mainly because of expensive computing resources and multiple coupled phenomena of fluid-structure problems. Strategies to improve time and memory performance consist in the use of reduction methods, and combined with efficient optimization techniques, vibro-acoustic solutions of better quality can be performed. The complexity of the system is taken into account thanks to a hierarchical optimization process. Both reduction method and gradient-based optimization algorithm are investigated. Based on modal synthesis, special criteria help to determine critical vibration propagation paths. A modified SQP (Sequential Quadratic Programming) algorithm is also developed in order to provide a faster convergence speed. Such process is to be applied on an academic example and hollow parts and panels of a whole passenger compartments. It allows to find relevant and non obvious solutions by minimizing noise and vibration transfer functions in a relatively wide range of frequencies.
145

Environnement sédimentaire, stratigraphie séquentielle et paléogéographie du Paléozoique de succession pré-Khuff dans le sud de l'Iran (Zagros et le Golfe Persique) / Sedimentary environment, sequence stratigraphy and paleogeography of Paleozoic Pre-Khuff succession in southern Iran (Zagros and Persian Gulf)

Asghari, Afshin 15 December 2014 (has links)
Au cours du Précambrien et du Paléozoïque, la zone Zagros faisait partie de la plate-forme Arabe. La succession Paléozoïque du Zagros s’étend du Cambrien au Permien. La zone d'étude se situe entre le Lurestan et le Fars au sud et le Golfe Persique. Au Paléozoïque, dans le secteur du Zagros, la série stratigraphique comprend quatre séquences de second ordre (ou cycles tectonostratigraphiques) séparées par d’importantes discordances. L’eustatisme est le principal facteur déterminant les changements d’espace d’accommodation, même si localement dans l'Ouest du Haut Zagros, le rôle de la tectonique régionale et des mouvements diapririques est important. Le premier cycle (Ordovicien) est composé des Fomrations Seyahou (Floien-Katien) et Dargaz (Hirnantien). Il enregistre une évolution depuis des milieux profonds à peu profonds de plate-forme siliciclastique. La Formation Seyahou est découpée en sept séquences de troisième ordre et la Formation Dargaz correspondant à des dépôts glaciogènes comprends deux séquences de troisième ordre. Le deuxième cycle (Silurien inférieur) correspond à la Formation Sarchahan. Il est caractérisé des environnements marins peu profonds à profonds comprenant des marnes riches en matière organique. Il est composé par deux séquences de dépôt de troisième ordre. Localement à Kuh e Gahkum, la base de cette Formation enregistre des dépôts peu profonds de transition continental-marin dont la présence est attribuée à la mise en place d’un diapir dans le secteur. Le troisième cycle (Dévonien) correspond à la Formation Zakeen. Les dépôts évoluent depuis des environnements continentaux à marins. La fin du Dévonien est marqué par des environnements marins carbonatés dans le sud de la région du Fars et dans le Golfe Persique. Il est divisé en trois séquence de troisième ordre. L’absence de la Formation Zakeen à Kuh e Surmeh et Kuh e Siah, et sa présence dans les régions voisines (Naura, West Agar, etc ...), suggèrent une activité diapirique, expliquant l’érosion locale des séries sédimentaires. Le dernier cycle de la succession pré-khuff dans la zone d'étude correspond à la Formation Faraghan du Permien inférieur. Il surmonte une discontinuité attribué au jeu de l'orogenèse Hercynienne et est déposé dans toute la région du Zagros et dans le Golfe Persique. La Formation Faraghan correspond à des environnements de plaine côtière à marins et est divisé en trois séquences de troisième ordre.La succession du Paléozoïque est marquée par plusieurs discordances majeures. Elles résultent de: (i) variations majeures du niveau marin en lien avec des variations glacioeustatiques comme pour le cas de la glaciation Hirnantien à la fin de l’Ordovicien et celle du Carbonifère; (ii) Un soulèvement du Moyen-Orient à la fin du Silurien associé aux mouvements épeirogéniques et à une baisse importante du niveau de la mer; et (iii) l'orogenèse Hercynienne allant de la fin du Dévonien à Carbonifère. Localement, les discordances peuvent aussi s’expliquer par le jeu de remontée diapirique induisant une érosion locale, comme c’est le cas dans les secteurs de Kuh e Surmeh et de Kuh e Gakhum pour des periodes de temps différentes. / During the Precambrian and trough the Palaeozoic, the Zagros area was part of the Arabian platform (Beydon, 1993). The Palaeozoic succession of the Zagros extends from Cambrian to well-developed Permian deposits. The study area ranges from the Lurestan to Southern Fars onshore and to the Persian Gulf offshore wells. From Ordovician to Early Permian Palaeozoic succession of the Zagros area comprises four second-order tectonostratigraphic depositional cycles separated by major unconformities. Eustatic sea-level variation is the main controlling factor for accommodation space changes, whereas in West High Zagros and Kuh e Gahkum, the role of regional and salt tectonic activities may be also important. The first cycle (Ordovician) is composed of the Seyahou (Floian-Katian) and Dargaz (Hirnantian) Formations. They are characterized by deep- to shallow-water (offshore to shoreface) siliciclastic deposits. The Seyahou Formation contains seven 3rd-order depositional sequences. The glaciogenic Dargaz Formation consists of one 3rd- order sequence. The second cycle (Early Silurian) corresponds to the Sarchahan Formation is composed of two 3rd-order depositional sequences. They are characterized by deep-marine offshore to upper offshore environments. Locally in Kuh e Gahkum the base of the Formation presented continental fan delta deposits due to the salt tectonic activity.The third cycle (Devonian) corresponds to the Zakeen Formation and divided in three 3rd-order depositional sequences. It started with the deposition of continental to near-shore marine clastic deposits. In Late Devonian, it evolved to carbonate marine deposits in the south of Fars area and the Persian Gulf. The lack of Zakeen Formation in Kuh e Surmeh and Kuh e Siah, and is presence in neighboring areas (Naura, Aghar, etc…), suggests structural salt plug activities (Jahani, 2008). This megasequence is capped by a major unconformity related to the Hercynian orogeny.The last deepening-upward cycle of the Pre-khuff succession in the study area is the Early Permian Faraghan Formation. It capped the Hercynian orogeny and deposited throughout the Zagros area from Lurestan (west) to Bandar Abbas (East) areas as well as in Persian Gulf. The Faraghan Formation divided into three 3rd-order depositional sequences and deposited in coastal plain to shallow-marin near-shore environment. Basinward, in the deeper part (e.g. Kuh e Faraghan), they are replaced by marine upper offshore deposits. The Palaeozoic succession is marked by several major unconformities associated with hiatus. They resulted from: (i) major sea level drops at the end of the Ordovician related to the Hirnantian glaciation (Ghavidel Syooki et al., 2011) and of during the Carboniferous related to the southern Hemisphere glaciation (Golonka, 2000); (ii) An uplift of the Middle East area at the end of the Silurian associated with epeirogenic movements (Ala et al., 1980; Berberian and King, 1981; Al-Sharhan and Nairn, 1997) and a major sea level drop at the end of Silurian (Al-Husseini, 1991,1992; Sharland et al., 2001; Konert et al., 2001; Haq and Al-Qahtani, 2005); and (iii) impact of the Hercynian orogeny spanning from the Late Devonian up to the Carboniferous (Al-Hosseini, 1992; Sharland et al., 2001; Konert et al., 2001, Faqira et al., 2009).
146

Hybridization of dynamic optimization methodologies / L'hybridation de méthodes d'optimisation dynamique

Decock, Jérémie 28 November 2014 (has links)
Dans ce manuscrit de thèse, mes travaux portent sur la combinaison de méthodes pour la prise de décision séquentielle (plusieurs étapes de décision corrélées) dans des environnements complexes et incertains. Les méthodes mises au point sont essentiellement appliquées à des problèmes de gestion et de production d'électricité tels que l'optimisation de la gestion des stocks d'énergie dans un parc de production pour anticiper au mieux la fluctuation de la consommation des clients.Le manuscrit comporte 7 chapitres regroupés en 4 parties : Partie I, « Introduction générale », Partie II, « État de l'art », Partie III, « Contributions » et Partie IV, « Conclusion générale ».Le premier chapitre (Partie I) introduit le contexte et les motivations de mes travaux, à savoir la résolution de problèmes d' « Unit commitment », c'est à dire l'optimisation des stratégies de gestion de stocks d'énergie dans les parcs de production d'énergie. Les particularités et les difficultés sous-jacentes à ces problèmes sont décrites ainsi que le cadre de travail et les notations utilisées dans la suite du manuscrit.Le second chapitre (Partie II) dresse un état de l'art des méthodes les plus classiques utilisées pour la résolution de problèmes de prise de décision séquentielle dans des environnements incertains. Ce chapitre introduit des concepts nécessaires à la bonne compréhension des chapitres suivants (notamment le chapitre 4). Les méthodes de programmation dynamique classiques et les méthodes de recherche de politique directe y sont présentées.Le 3e chapitre (Partie II) prolonge le précédent en dressant un état de l'art des principales méthodes d’optimisation spécifiquement adaptées à la gestion des parcs de production d'énergie et à leurs subtilités. Ce chapitre présente entre autre les méthodes MPC (Model Predictive Control), SDP (Stochastic Dynamic Programming) et SDDP (Stochastic Dual Dynamic Programming) avec pour chacune leurs particularités, leurs avantages et leurs limites. Ce chapitre complète le précédent en introduisant d'autres concepts nécessaires à la bonne compréhension de la suite du manuscrit.Le 4e chapitre (Partie III) contient la principale contribution de ma thèse : un nouvel algorithme appelé « Direct Value Search » (DVS) créé pour résoudre des problèmes de prise de décision séquentielle de grande échelle en milieu incertain avec une application directe aux problèmes d' « Unit commitment ». Ce chapitre décrit en quoi ce nouvel algorithme dépasse les méthodes classiques présentées dans le 3e chapitre. Cet algorithme innove notamment par sa capacité à traiter des grands espaces d'actions contraints dans un cadre non-linéaire, avec un grand nombre de variables d'état et sans hypothèse particulière quant aux aléas du système optimisé (c'est à dire applicable sur des problèmes où les aléas ne sont pas nécessairement Markovien).Le 5e chapitre (Partie III) est consacré à un concept clé de DVS : l'optimisation bruitée. Ce chapitre expose une nouvelle borne théorique sur la vitesse de convergence des algorithmes d'optimisation appliqués à des problèmes bruités vérifiant certaines hypothèses données. Des méthodes de réduction de variance sont également étudiées et appliquées à DVS pour accélérer sensiblement sa vitesse de convergence.Le 6e chapitre (Partie III) décrit un résultat mathématique sur la vitesse de convergence linéaire d’un algorithme évolutionnaire appliqué à une famille de fonctions non quasi-convexes. Dans ce chapitres, il est prouvé que sous certaines hypothèses peu restrictives sur la famille de fonctions considérée, l'algorithme présenté atteint une vitesse de convergence linéaire.Le 7e chapitre (Partie IV) conclut ce manuscrit en résumant mes contributions et en dressant quelques pistes de recherche intéressantes à explorer. / This thesis is dedicated to sequential decision making (also known as multistage optimization) in uncertain complex environments. Studied algorithms are essentially applied to electricity production ("Unit Commitment" problems) and energy stock management (hydropower), in front of stochastic demand and water inflows. The manuscript is divided in 7 chapters and 4 parts: Part I, "General Introduction", Part II, "Background Review", Part III, "Contributions" and Part IV, "General Conclusion". This first chapter (Part I) introduces the context and motivation of our work, namely energy stock management. "Unit Commitment" (UC) problems are a classical example of "Sequential Decision Making" problem (SDM) applied to energy stock management. They are the central application of our work and in this chapter we explain main challenges arising with them (e.g. stochasticity, constraints, curse of dimensionality, ...). Classical frameworks for SDM problems are also introduced and common mistakes arising with them are be discussed. We also emphasize the consequences of these - too often neglected - mistakes and the importance of not underestimating their effects. Along this chapter, fundamental definitions commonly used with SDM problems are described. An overview of our main contributions concludes this first chapter. The second chapter (Part II) is a background review of the most classical algorithms used to solve SDM problems. Since the applications we try to solve are stochastic, we there focus on resolution methods for stochastic problems. We begin our study with classical Dynamic Programming methods to solve "Markov Decision Processes" (a special kind of SDM problems with Markovian random processes). We then introduce "Direct Policy Search", a widely used method in the Reinforcement Learning community. A distinction is be made between "Value Based" and "Policy Based" exploration methods. The third chapter (Part II) extends the previous one by covering the most classical algorithms used to solve UC's subtleties. It contains a state of the art of algorithms commonly used for energy stock management, mainly "Model Predictive Control", "Stochastic Dynamic Programming" and "Stochastic Dual Dynamic Programming". We briefly overview distinctive features and limitations of these methods. The fourth chapter (Part III) presents our main contribution: a new algorithm named "Direct Value Search" (DVS), designed to solve large scale unit commitment problems. We describe how it outperforms classical methods presented in the third chapter. We show that DVS is an "anytime" algorithm (users immediately get approximate results) which can handle large state spaces and large action spaces with non convexity constraints, and without assumption on the random process. Moreover, we explain how DVS can reduce modelling errors and can tackle challenges described in the first chapter, working on the "real" detailed problem without "cast" into a simplified model. Noisy optimisation is a key component of DVS algorithm; the fifth chapter (Part III) is dedicated to it. In this chapter, some theoretical convergence rate are studied and new convergence bounds are proved - under some assumptions and for given families of objective functions. Some variance reduction techniques aimed at improving the convergence rate of graybox noisy optimization problems are studied too in the last part of this chapter. Chapter sixth (Part III) is devoted to non-quasi-convex optimization. We prove that a variant of evolution strategy can reach a log-linear convergence rate with non-quasi-convex objective functions. Finally, the seventh chapter (Part IV) concludes and suggests some directions for future work.
147

Optimisation de chaufferies collectives multi-energies : dimensionnement et commande de systèmes de stockage thermique par hydro-accumulation

Labidi, Mouchira 30 April 2015 (has links)
Les travaux présentés dans ce manuscrit portent sur l’optimisation d’une chaufferie collective multi-énergie en l’équipant d’un système de stockage thermique de type hydro-accumulation. L’efficacité de ce dernier dépend de sa capacité à conserver son énergie initiale. Ainsi, pour minimiser les pertes thermiques, le système de stockage doit être correctement isolé. Un modèle de ballon d’hydro-accumulation stratifié est développé et validé expérimentalement. Une étude paramétrique est menée afin d’étudier l’impact, sur les pertes thermiques, de paramètres géométriques et météorologiques. Ensuite, une approche de dimensionnement, fondée sur une stratégie de gestion séquentielle et une étude paramétrique est proposée. Plusieurs critères énergétiques et économiques peuvent ainsi être évalués pour différents volumes de stockage thermique. L’approche de dimensionnement proposée a été appliquée à plusieurs sites exploités par Cofely GDF-Suez, notre partenaire industriel. Les résultats obtenus montrent que le dimensionnement optimal du système de stockage et la gestion intelligente du procédé permettent d'optimiser le fonctionnement d’un site. Des économies énergétiques et financières importantes peuvent ainsi être réalisées. La stratégie de gestion séquentielle proposée n’anticipe pas les besoins du réseau de chaleur. C’est pourquoi une stratégie fondée sur la commande prédictive (MPC pour Model Predictive Control) est susceptible d’améliorer le fonctionnement et les performances d’une chaufferie collective équipée d’un système d’hydro-accumulation. Afin de mettre en œuvre un tel contrôleur, la puissance thermique demandée par le réseau de chaleur doit être correctement prédite. Par conséquent, une méthode de prédiction a été développée. Elle s’appuie sur une analyse multi-résolution par transformée en ondelettes discrète et sur l’utilisation de réseaux de neurones artificiels de type perceptron multicouche. La stratégie séquentielle (non prédictive) et la stratégie prédictive ont été appliquées à une chaufferie collective mixte située dans une commune du nord de la France. Pour ce cas d’étude, la stratégie prédictive est plus efficace. De plus, les résultats montrent que, quelle que soit la stratégie utilisée, équiper la chaufferie d’un système d’hydro-accumulation correctement dimensionné est un investissement rentable. Il permet de minimiser la consommation d’énergie fossile et, par conséquent, le coût économique et les émissions de CO2. / The present work deals with optimizing a multi-energy district boiler by adding to the plant a thermal water storage tank. The effectiveness of such a system depends on how long the stored energy can be kept without considerable degradation. The storage tank should be properly insulated to reduce the rate of heat loss. Thus, firstly, a stratified water thermal storage model is developed and experimentally validated. A parametric study is carried out to determine the influence of geometric and meteorological parameters on heat loss. Next, a reliable sizing method based on a sequential management strategy and a parametric study is proposed. Various energy and economic criteria have been evaluated for a range of thermal storage sizes. The proposed methodology has been applied to many plants managed by Cofely GDF-Suez, our industrial partner. Results highlight the ability of a thermal storage tank (optimally sized and managed) to improve the operation of a multi-energy district boiler and realize significant energy and economic savings. The main drawback of the proposed sequential management strategy lies in not taking into account the future power demand. That is why a strategy based on a Model Predictive Controller (MPC) is likely to improve operation and performance. In order to implement such a controller, the power demand has to be accurately forecasted. As a consequence, a short-term forecast method, based on wavelet-based Multi-Resolution Analysis (MRA) and multilayer Artificial Neural Networks (ANN) is proposed. Both the sequential and the predictive strategies are applied to a northeast France multi-energy district boiler selected as a case study. The main result to retain is that the efficiency of water thermal storage tank is mainly related to its design and the way it is managed. For this case study, the predictive strategy regardless the size of the storage tank, the predictive strategy is more reliable. Furthermore, in all cases an adequately sized and managed thermal storage tank is a profitable investment. It allows the fossil energy consumption to be significantly reduced. The same remark applies to the functioning costs and CO2 emissions.
148

Sequential modeling, generative recurrent neural networks, and their applications to audio

Mehri, Soroush 12 1900 (has links)
No description available.
149

La surimplication maternelle et l'anxiété chez l'enfant dans un contexte de stress prénatal maternel : une étude observationnelle de QF2011 Queensland Flood Study

Bucur, Alexandra 09 1900 (has links)
Les troubles anxieux apparaissent très tôt chez les jeunes. Les études corrélationnelles suggèrent que plusieurs facteurs, tels que le stress prénatal maternel (SPM) et la surimplication maternelle contribueraient à leur développement et à leur maintien. L’objectif de l’étude est de mieux comprendre si la surimplication maternelle est une cause ou une conséquence de l’anxiété chez l’enfant, le tout dans un contexte de stress prénatal maternel causé par un désastre naturel. L’échantillon fait partie d’un projet plus grand dans lequel les stress objectif et subjectif ont été mesurés chez les femmes enceintes lors de l’inondation en 2011 à Queensland en Australie. L’échantillon de l’étude inclut 72 dyades mère-enfant, ayant complété une tâche difficile de casse-tête, d’une durée de 5 minutes, lorsque les enfants étaient âgés de 4 ans. À partir des vidéos, les observateurs ont évalué le comportement maternel (la surimplication) et le comportement de l’enfant (l’anxiété) en continu. Des techniques d’analyse séquentielle ont été utilisées pour déterminer la probabilité qu’un comportement maternel de surimplication se produise avant ou après un comportement anxieux et vice versa. Les corrélations obtenues entre le SPM (objectif et subjectif), le comportement anxieux de l’enfant et le comportement de surimplication maternelle n’ont pas été significatives. Le comportement de surimplication n’est pas un médiateur entre le SPM (objectif et subjectif) et le comportement anxieux de l’enfant. Toutefois, les chances qu’un comportement maternel de surimplication suive un comportement anxieux chez l’enfant étaient plus grandes que les chances qu’un comportement anxieux suive un comportement maternel de surimplication. Nos résultats suggèrent que le stress prénatal maternel n’est pas associé avec le comportement de surimplication maternelle, ni avec le comportement anxieux de l’enfant. La surimplication maternelle est plutôt une réaction au comportement anxieux de l’enfant. Il est essentiel, pour de futures recherches, de se rappeler que l’enfant est un participant actif dans la relation mère-enfant et qu’il est important d’étudier la bidirectionnalité de la relation pour mieux comprendre et pour mieux intervenir. / Anxiety disorders start very early in young people and several factors, such as prenatal maternal stress (PNMS) and maternal overinvolvement are believed to contribute to their development and maintenance. The objective of this study is to better understand if the overinvolvement of the mother is a cause or a consequence of the child’s anxiety, all in a context of prenatal maternal stress due to a natural disaster. The sample is part of a larger project that assessed the objective hardship and the subjective distress in women who were pregnant during the 2011 Queensland flood in Australia. The current sample included 72 mother-child dyads, completing a 5-minute puzzle task when the children were 4 years old. Observers rated maternal (overinvolved) and child (anxious) behaviors from videos continuously. Sequential analysis techniques were used to determine the likelihood of a maternal overinvolved behavior occurring before or after a child anxious behavior and vice versa. The correlations between PNMS (objective and subjective) and the child's anxiety and maternal over-involvement were not significant. Maternal overinvolvement did not mediate the relationship between PNMS (objective and subjective) and anxiety in children. However, the odds of maternal overinvolvement following child anxiety, was stronger than the odds of child anxiety following maternal overinvolvement. Our results suggest that prenatal maternal stress is not associated with maternal overinvolvement nor with child anxiety. It also suggests that maternal overinvolvement is a reaction to the child’s anxious behavior rather than a cause of it. Future research needs to keep in mind that the child is an active participant in the mother-child relationship and that it is important to study the bidirectionality of the relationship to better understand it and intervene.
150

Algorithmes parallèles pour le suivi de particules / Parallel algorithms for tracking of particles

Bonnier, Florent 12 December 2018 (has links)
Les méthodes de suivi de particules sont couramment utilisées en mécanique des fluides de par leur propriété unique de reconstruire de longues trajectoires avec une haute résolution spatiale et temporelle. De fait, de nombreuses applications industrielles mettant en jeu des écoulements gaz-particules, comme les turbines aéronautiques utilisent un formalisme Euler-Lagrange. L’augmentation rapide de la puissance de calcul des machines massivement parallèles et l’arrivée des machines atteignant le petaflops ouvrent une nouvelle voie pour des simulations qui étaient prohibitives il y a encore une décennie. La mise en oeuvre d’un code parallèle efficace pour maintenir une bonne performance sur un grand nombre de processeurs devra être étudié. On s’attachera en particuliers à conserver un bon équilibre des charges sur les processeurs. De plus, une attention particulière aux structures de données devra être fait afin de conserver une certaine simplicité et la portabilité et l’adaptabilité du code pour différentes architectures et différents problèmes utilisant une approche Lagrangienne. Ainsi, certains algorithmes sont à repenser pour tenir compte de ces contraintes. La puissance de calcul permettant de résoudre ces problèmes est offerte par des nouvelles architectures distribuées avec un nombre important de coeurs. Cependant, l’exploitation efficace de ces architectures est une tâche très délicate nécessitant une maîtrise des architectures ciblées, des modèles de programmation associés et des applications visées. La complexité de ces nouvelles générations des architectures distribuées est essentiellement due à un très grand nombre de noeuds multi-coeurs. Ces noeuds ou une partie d’entre eux peuvent être hétérogènes et parfois distants. L’approche de la plupart des bibliothèques parallèles (PBLAS, ScalAPACK, P_ARPACK) consiste à mettre en oeuvre la version distribuée de ses opérations de base, ce qui signifie que les sous-programmes de ces bibliothèques ne peuvent pas adapter leurs comportements aux types de données. Ces sous programmes doivent être définis une fois pour l’utilisation dans le cas séquentiel et une autre fois pour le cas parallèle. L’approche par composants permet la modularité et l’extensibilité de certaines bibliothèques numériques (comme par exemple PETSc) tout en offrant la réutilisation de code séquentiel et parallèle. Cette approche récente pour modéliser des bibliothèques numériques séquentielles/parallèles est très prometteuse grâce à ses possibilités de réutilisation et son moindre coût de maintenance. Dans les applications industrielles, le besoin de l’emploi des techniques du génie logiciel pour le calcul scientifique dont la réutilisabilité est un des éléments des plus importants, est de plus en plus mis en évidence. Cependant, ces techniques ne sont pas encore maÃotrisées et les modèles ne sont pas encore bien définis. La recherche de méthodologies afin de concevoir et réaliser des bibliothèques réutilisables est motivée, entre autres, par les besoins du monde industriel dans ce domaine. L’objectif principal de ce projet de thèse est de définir des stratégies de conception d’une bibliothèque numérique parallèle pour le suivi lagrangien en utilisant une approche par composants. Ces stratégies devront permettre la réutilisation du code séquentiel dans les versions parallèles tout en permettant l’optimisation des performances. L’étude devra être basée sur une séparation entre le flux de contrôle et la gestion des flux de données. Elle devra s’étendre aux modèles de parallélisme permettant l’exploitation d’un grand nombre de coeurs en mémoire partagée et distribuée. / The complexity of these new generations of distributed architectures is essencially due to a high number of multi-core nodes. Most of the nodes can be heterogeneous and sometimes remote. Today, nor the high number of nodes, nor the processes that compose the nodes are exploited by most of applications and numerical libraries. The approach of most of parallel libraries (PBLAS, ScalAPACK, P_ARPACK) consists in implementing the distributed version of its base operations, which means that the subroutines of these libraries can not adapt their behaviors to the data types. These subroutines must be defined once for use in the sequential case and again for the parallel case. The object-oriented approach allows the modularity and scalability of some digital libraries (such as PETSc) and the reusability of sequential and parallel code. This modern approach to modelize sequential/parallel libraries is very promising because of its reusability and low maintenance cost. In industrial applications, the need for the use of software engineering techniques for scientific computation, whose reusability is one of the most important elements, is increasingly highlighted. However, these techniques are not yet well defined. The search for methodologies for designing and producing reusable libraries is motivated by the needs of the industries in this field. The main objective of this thesis is to define strategies for designing a parallel library for Lagrangian particle tracking using a component approach. These strategies should allow the reuse of the sequential code in the parallel versions while allowing the optimization of the performances. The study should be based on a separation between the control flow and the data flow management. It should extend to models of parallelism allowing the exploitation of a large number of cores in shared and distributed memory.

Page generated in 0.3488 seconds