• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 284
  • 142
  • 35
  • 20
  • 6
  • 5
  • 4
  • 4
  • 3
  • 1
  • 1
  • Tagged with
  • 498
  • 258
  • 79
  • 74
  • 59
  • 56
  • 52
  • 44
  • 43
  • 39
  • 38
  • 37
  • 37
  • 36
  • 35
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
321

Tractographie globale sous contraintes anatomiques / Global tractography constrained by anatomical priors

Teillac, Achille 16 October 2017 (has links)
Ce travail vise au développement d’une méthode d’inférence des fibres de la substance blanche cérébrale fondée sur l’utilisation d’une approche globale de type « verres de spins » sous contraintes anatomiques. Contrairement aux méthodes classiques reconstituant les fibres indépendamment les unes des autres, cette approche markovienne reconstruit l’ensemble des fibres dans un unique processus de minimisation d’une énergie globale dépendant de la configuration des spins (position, orientation, longueur et connexion(s)) et de leur adéquation avec le modèle local du processus de diffusion, afin d'améliorer la robustesse et la réalité anatomique des fibres reconstruites. Le travail mené dans le cadre de cette thèse a donc consisté, en plus du développement de l’algorithme de tractographie, à étudier la possibilité de le contraindre à l’aide d’a priori anatomiques provenant de l’imagerie anatomique pondérée en T1 et des nouvelles approches de microscopie par IRM de diffusion fournissant des informations de nature micro-structurelle sur le tissu. En particulier, l’algorithme a été conçu pour autoriser une forte courbure des fibres à l’approche du ruban cortical et permettre leur connexion au sommet des gyri, mais également sur leurs flancs. Le modèle NODDI (Neurite Orientation Dispersion and Density Imaging) a gagné en popularité au cours des dernières années grâce à sa compatibilité avec une utilisation en routine clinique et permet de quantifier la densité neuritique et la dispersion angulaire des axones. Une forte dispersion traduit l’existence de populations de fibres d’orientations différentes ou une forte courbure d’un même faisceau de fibres au sein d'un voxel. Elle est donc exploitée pour relâcher la contrainte de faible courbure à proximité du cortex cérébral dans notre approche de tractographie globale lorsque cette dispersion angulaire est forte, permettant aux fibres de s'orienter par rapport à la normale locale au cortex. Cette contrainte est en revanche supprimée si la dispersion angulaire reste faible, indiquant une trajectoire à plus faible courbure, à l’instar des fibres se projetant dans le fond du gyrus ou des fibres en U. Les performances de cette nouvelle approche de tractographie sous contraintes anatomiques ont été évaluées à partir de données simulées, et ont été testées sur des données IRM post-mortem de très haute résolution et sur des données IRM in vivo de résolution millimétrique. En parallèle de ce développement méthodologique, une étude des corrélats locaux-régionaux de la densité neuritique et de l’activation cérébrale à la surface du cortex a été réalisée. L'étude a été menée sur la cohorte de sujets sains scannés dans le cadre du projet européen CONNECT dotée de données anatomiques, de diffusion et fonctionnelles reposant sur l’utilisation de paradigmes explorant en particulier les réseaux de la motricité, du langage et de la vision. Les données anatomiques ont permis d’extraire la surface piale et une parcellisation surfacique du cortex de chaque individu, les données de diffusion ont permis l’évaluation des cartographies individuelles de la densité neuritique au sein du ruban cortical et les données fonctionnelles du phénomène BOLD (Blood Oxygen Level Dependent) ont permis le calcul des cartographies individuelles des z-scores du modèle linéaire général pour différents contrastes. Une colocalisation des maxima de la densité neuritique et des pics d'activation a été observée, pouvant être interprétée comme une augmentation de la densité neuritique au sein des réseaux fonctionnels afin d'en améliorer l'efficacité. L’étude a également corroboré la latéralisation du réseau fonctionnel du langage et de la motricité, en accord avec la latéralisation de la population scannée tandis qu'une augmentation de la densité neuritique dans le cortex visuel droit a été observée pouvant être corrélée à des résultats d’étude de l’attention visuo-spatiale reportée dans la littérature chez le primate non-humain. / This work aims at developing a method inferring white matter fibers reconstructed using a global spin-glass approach constrained by anatomical prior knowledge. Unlike usual methods building fibers independently from one another, our markovian approach reconstructs the whole tractogram in an unique process by minimizing the global energy depending on the spin glass configuration (position, orientation, length and connection(s)) and the match with the local diffusion process in order to increase the robustness and the accuracy of the algorithm and the anatomical reliability of the reconstructed fibers. Thus, the work done during this PhD, along with the development of the global tractography algorithm, consisted in studying the feasibility of the anatomical prior knowledge integration stemming from the T1 weighted MRI and from new diffusion MRI microstructure approaches providing microstructural information of the surrounding tissue. In particular, the algorithm was built to allow a high fiber curvature when getting closer to the cortical ribbon and thus enabling the connection not only at the end of the gyri but also on their sides. The NODDI (Neurite Orientation Dispersion and Density Imaging) model has become more and more popular during the past years thanks to its capability to be used in clinical routine and allows to quantify neurite density and axons angular dispersion. A high dispersion means the existence of different fibers population or a high curvature of a fascicle within a voxel. Thus, the orientation dispersion has been used in our global tractography framework to release the curvature constraint near the cerebral cortex when the angular dispersion is high, allowing fibers to orientate collinear to the local normal to the cortical surface. However, this constraint is removed if the angular dispersion stays low, meaning a low curvature fiber trajectory following the example of the fibers projecting to the end of a gyrus or the U-fibers. The performances of this new tractography approach constrained by anatomical prior knowledge have been evaluated on simulated data, and tested on high resolution post-mortem MRI acquisitions and millimetric resolution in vivo MRI acquisitions. In parallel of this methodological development, a study about local-regional correlations between neurite density and cerebral activation on the cortical surface has been made. This study has been conducted on the healthy volunteers cohort scanned in the frame of the European CONNECT project including anatomical, diffusion and functional data. The anatomical data has been used to extract the pial surface and an individual parcellation on the cortical surface for each volunteer, the diffusion data has been used to evaluate the individual maps of neurite density within the cortical ribbon and the functional data from the BOLD (Blood Oxygen Level Dependent) effect has been used to calculate the individual z-scores of the general linear model for specific contrasts investigating the motor, language and visual networks. A co-localization of neurite density and activation peaks has been observed, which might indicate an increase of the neurite density within functional networks in order to increase its efficiency. This study also corroborates the lateralization of the language functional network and the motor one, in good agreement with the population lateralization, while an increase of the neurite density in the visual cortex has been observed which might be correlated to the results of visuo-spatial attention studies described in the literature on the non-human primate.
322

Fusion techniques for iris recognition in degraded sequences / Techniques de fusion pour la reconnaissance de personne par l’iris dans des séquences dégradées

Othman, Nadia 11 March 2016 (has links)
Parmi les diverses modalités biométriques qui permettent l'identification des personnes, l'iris est considéré comme très fiable, avec un taux d'erreur remarquablement faible. Toutefois, ce niveau élevé de performances est obtenu en contrôlant la qualité des images acquises et en imposant de fortes contraintes à la personne (être statique et à proximité de la caméra). Cependant, dans de nombreuses applications de sécurité comme les contrôles d'accès, ces contraintes ne sont plus adaptées. Les images résultantes souffrent alors de diverses dégradations (manque de résolution, artefacts...) qui affectent négativement les taux de reconnaissance. Pour contourner ce problème, il est possible d’exploiter la redondance de l’information découlant de la disponibilité de plusieurs images du même œil dans la séquence enregistrée. Cette thèse se concentre sur la façon de fusionner ces informations, afin d'améliorer les performances. Dans la littérature, diverses méthodes de fusion ont été proposées. Cependant, elles s’accordent sur le fait que la qualité des images utilisées dans la fusion est un facteur crucial pour sa réussite. Plusieurs facteurs de qualité doivent être pris en considération et différentes méthodes ont été proposées pour les quantifier. Ces mesures de qualité sont généralement combinées pour obtenir une valeur unique et globale. Cependant, il n'existe pas de méthode de combinaison universelle et des connaissances a priori doivent être utilisées, ce qui rend le problème non trivial. Pour faire face à ces limites, nous proposons une nouvelle manière de mesurer et d'intégrer des mesures de qualité dans un schéma de fusion d'images, basé sur une approche de super-résolution. Cette stratégie permet de remédier à deux problèmes courants en reconnaissance par l'iris: le manque de résolution et la présence d’artefacts dans les images d'iris. La première partie de la thèse consiste en l’élaboration d’une mesure de qualité pertinente pour quantifier la qualité d’image d’iris. Elle repose sur une mesure statistique locale de la texture de l’iris grâce à un modèle de mélange de Gaussienne. L'intérêt de notre mesure est 1) sa simplicité, 2) son calcul ne nécessite pas d'identifier a priori les types de dégradations, 3) son unicité, évitant ainsi l’estimation de plusieurs facteurs de qualité et un schéma de combinaison associé et 4) sa capacité à prendre en compte la qualité intrinsèque des images mais aussi, et surtout, les défauts liés à une mauvaise segmentation de la zone d’iris. Dans la deuxième partie de la thèse, nous proposons de nouvelles approches de fusion basées sur des mesures de qualité. Tout d’abord, notre métrique est utilisée comme une mesure de qualité globale de deux façons différentes: 1) comme outil de sélection pour détecter les meilleures images de la séquence et 2) comme facteur de pondération au niveau pixel dans le schéma de super-résolution pour donner plus d'importance aux images de bonnes qualités. Puis, profitant du caractère local de notre mesure de qualité, nous proposons un schéma de fusion original basé sur une pondération locale au niveau pixel, permettant ainsi de prendre en compte le fait que les dégradations peuvent varier d’une sous partie à une autre. Ainsi, les zones de bonne qualité contribueront davantage à la reconstruction de l'image fusionnée que les zones présentant des artéfacts. Par conséquent, l'image résultante sera de meilleure qualité et pourra donc permettre d'assurer de meilleures performances en reconnaissance. L'efficacité des approches proposées est démontrée sur plusieurs bases de données couramment utilisées: MBGC, Casia-Iris-Thousand et QFIRE à trois distances différentes. Nous étudions séparément l'amélioration apportée par la super-résolution, la qualité globale, puis locale dans le processus de fusion. Les résultats montrent une amélioration importante apportée par l'utilisation de la qualité globale, amélioration qui est encore augmentée en utilisant la qualité locale / Among the large number of biometric modalities, iris is considered as a very reliable biometrics with a remarkably low error rate. The excellent performance of iris recognition systems are obtained by controlling the quality of the captured images and by imposing certain constraints on users, such as standing at a close fixed distance from the camera. However, in many real-world applications such as control access and airport boarding these constraints are no longer suitable. In such non ideal conditions, the resulting iris images suffer from diverse degradations which have a negative impact on the recognition rate. One way to try to circumvent this bad situation is to use some redundancy arising from the availability of several images of the same eye in the recorded sequence. Therefore, this thesis focuses on how to fuse the information available in the sequence in order to improve the performance. In the literature, diverse schemes of fusion have been proposed. However, they agree on the fact that the quality of the used images in the fusion process is an important factor for its success in increasing the recognition rate. Therefore, researchers concentrated their efforts in the estimation of image quality to weight each image in the fusion process according to its quality. There are various iris quality factors to be considered and diverse methods have been proposed for quantifying these criteria. These quality measures are generally combined to one unique value: a global quality. However, there is no universal combination scheme to do so and some a priori knowledge has to be inserted, which is not a trivial task. To deal with these drawbacks, in this thesis we propose of a novel way of measuring and integrating quality measures in a super-resolution approach, aiming at improving the performance. This strategy can handle two types of issues for iris recognition: the lack of resolution and the presence of various artifacts in the captured iris images. The first part of the doctoral work consists in elaborating a relevant quality metric able to quantify locally the quality of the iris images. Our measure relies on a Gaussian Mixture Model estimation of clean iris texture distribution. The interest of our quality measure is 1) its simplicity, 2) its computation does not require identifying in advance the type of degradations that can occur in the iris image, 3) its uniqueness, avoiding thus the computation of several quality metrics and associated combination rule and 4) its ability to measure the intrinsic quality and to specially detect segmentation errors. In the second part of the thesis, we propose two novel quality-based fusion schemes. Firstly, we suggest using our quality metric as a global measure in the fusion process in two ways: as a selection tool for detecting the best images and as a weighting factor at the pixel-level in the super-resolution scheme. In the last case, the contribution of each image of the sequence in final fused image will only depend on its overall quality. Secondly, taking advantage of the localness of our quality measure, we propose an original fusion scheme based on a local weighting at the pixel-level, allowing us to take into account the fact that degradations can be different in diverse parts of the iris image. This means that regions free from occlusions will contribute more in the image reconstruction than regions with artefacts. Thus, the quality of the fused image will be optimized in order to improve the performance. The effectiveness of the proposed approaches is shown on several databases commonly used: MBGC, Casia-Iris-Thousand and QFIRE at three different distances: 5, 7 and 11 feet. We separately investigate the improvement brought by the super-resolution, the global quality and the local quality in the fusion process. In particular, the results show the important improvement brought by the use of the global quality, improvement that is even increased using the local quality
323

Global sensitivity analysis on vibro-acoustic composite materials with parametric dependency / L'analyse de sensibilité globale sur matériaux composites vibroacoustiques avec la dépendance paramétrique

Chai, Wenqi 30 November 2018 (has links)
Avec le développement rapide des modèles mathématiques et des outils de simulation, le besoin des processus de quantification des incertitudes a été bien augmenté. L'incertitude paramétrique et la groupe des nombreux décisions sont aujourd’hui les deux barrières principales dans la résolution des grandes problèmes systématiques.Capable de proportionner l'incertitude de la sortie sur celle des entrées, l’Analyse de Sensibilité Globale (GSA) est une solution fiable pour la quantification de l’incertitude. Parmi plusieurs algorithmes de GSA, Fourier Amplitude Sensitivity Analysis (FAST) est l’un des choix les plus populaires des chercheurs. Basé sur ANOVA-HDMR (ANalysis Of VAriance - High Dimensional Model Representation), il est solide en mathématique est efficace en calcul.Malheureusement, la décomposition unique d’ANOVA-HDMR se dépend sur l’indépendance des entrées. À cause de cela, il y a pas mal de cas industriels qui ne peut pas se traiter par FAST, particulièrement pour ceux qui donnent uniquement les échantillons mais sans lois de distribution. Sous cette demande, deux méthode extensifs de FAST avec design de corrélation sont proposées et étudiées dans la recherche. Parmi les deux méthodes, FAST-c s’est basé sur les distributions et FAST-orig s’est basé sur les échantillons.Comme applications et validations, multiples problèmes vibroacoustiques se sont traités dans la recherche. Les matériaux acoustiques avec soustructures, sont des candidats parfaits pour tester FAST-c et FAST-orig. Deux application sont présentées dans la première partie de la thèse, après l’état de l’arts. Les modèles choisis sont matérial poroélastique et structures composite sandwich, dont les propriétés mécaniques sont tous fortement influencées par les paramètres géométriques microscopique ou mesoscopique. D’avoir la méthode de FAST originale comparée avec les deux nouvelles, on trouve bien plus d’information sur la performance vibroacoustique de ces matériaux.Déjà répondu à la demande de GSA sur les modèles avecs les variables dépendantes, la deuxième partie de la thèse contient plus de recherches reliées avec FAST. D’abord FAST est pris en comparaison avec Random Forest, une algorithme bien connu de data-mining. Leurs erreurs potentiels et la possibilité de fonctioner ensemble sont discutés. Et dans les chapitres suivies, plus d’application de FAST sont présentées. Les méthodes sont appliquées sous plusieurs différente conditions. Une modèle de structure périodique qui contient des corrélation parmi les unités nous a en plus forcé à développer une nouvelle FAST-pe méthode. Dans ces applications, les designs des processus préliminaires et les stratégies d’échantillonages sont des essences à présenter. / With rapid development of mathematical models and simulation tools, the need of uncertainty quantification process has grown higher than ever before. Parametric uncertainties and overall decision stacks are nowadays the two main barriers in solving large scale systematic problem.Global Sensitivity Analysis (GSA) is one reliable solution for uncertainty quantification which is capable to assess the uncertainty of model output on its inputs’. Among several GSA algorithms, Fourier Amplitude Sensitivity Test (FAST) is one of the most popular choices of researchers. Based on ANOVA-HDMR (ANalysis Of VAriance - High Dimensional Model Representation), it is both mathematically solid and computationally efficient.One unfortunate fact is that the uniqueness of ANOVA-HDMR relies on the independency of input variables. It makes FAST unable to treat many industrial cases especially for those with only datasets but not distribution functions to be found. To answer the needs, two extended FAST methods with correlation design are proposed and further studied in this research. Among them FAST-c is distribution-based and FAST-orig is data-based.As a frame of validation and application, a number of vibroacoustic problems are dealt with in this research. Vibroacoustic materials with substructures, are perfect test candidates for FAST-c and FAST-orig. Two application cases are presented in the first part of this thesis, following the literature review. The models chosen here are poroelastic material and sandwich composite structures, both having their mechanical properties hugely influenced by their microscopic and mesoscopic geometric parameters. Getting the original FAST method compared to the two with correlation design, many different features on materials’ vibroacoustic performance are latter discovered.Having got an answer for GSA on models with dependent variables, the second part of this thesis contains more extended researches related to FAST. It is taken into comparison with Random Forest, a well-known data-mining algorithm. The potential error of both algorithms are analyzed and the possibility of joint application is discussed. In the following chapters, more applications of FAST-series methods are reported. They are applied under various conditions where another improved version named FAST-pe is developed to treat a model of periodic structures with correlation among each units. Upon these FAST application cases, the design of preliminary process and the sampling strategies is the core part to be introduced.
324

Modélisation de la dynamique du transfert hydrique vers les aquifières : application à la détermination de la recharge par inversion dans un système hydrogéologique complexe / Modeling of water transfer to aquifers : application to the determination of groundwater recharge by inversion in a complex hydrogeological system

Hassane Mamadou Maina, Fadji Zaouna 29 September 2016 (has links)
Les eaux souterraines constituent une réserve d’eau potable non négligeable, leur alimentation se fait en majeure partie par les précipitations, appelée recharge des nappes. Du fait de leur grande importance, la compréhension du fonctionnement de ces ressources en eau est plus que jamais indispensable. Celle-ci passe par l’élaboration de modèles mathématiques. Ces outils nous offrent une meilleure appréhension et une bonne prévision des phénomènes physiques. Les systèmes hydrogéologiques sont généralement très complexes et caractérisés par des dynamiques hydriques très variables dans le temps et dans l’espace. Cette complexité a attiré l’attention de nombreux hydrogéologues et un grand nombre de modèles très sophistiqués a été développé afin de décrire ces systèmes avec précision. Cependant, la prise en compte de la recharge de ces réservoirs reste toujours un défi dans la modélisation hydrogéologique. En effet, le plus souvent, les modèles hydrogéologiques simulent l’écoulement dans la nappe tout en considérant la recharge comme une constante sur le domaine et indépendante du système. De plus, elle est souvent calculée de façon simplifiée. Or, la recharge traduisant la quantité des précipitations atteignant les nappes est une composante hydrologique complexe et variable car elle interagit avec les nappes et dépend des conditions climatiques, du couvert végétal et du transfert de l’eau dans le sol. Ce présent travail vise à intégrer cette recharge variable et complexe aux modèles hydrogéologiques. À cet effet, un modèle couplé a été développé. Une première partie de ce modèle permet de calculer la recharge des nappes en modélisant les interactions précipitations-sol et l’hydrodynamique dans le sol. Cette modélisation a été effectuée en utilisant des modèles conceptuels simples basés sur des lois empiriques (Gardénia, Nash) et des modèles physiques résolvant l’équation de Richards. La recharge ainsi calculée est intégrée à la deuxième partie du modèle simulant l’hydrodynamique dans les nappes décrite par l’équation de diffusivité. Des méthodes numériques précises et robustes ont été utilisées pour résoudre les équations du modèle mathématique : les éléments finis non conformes ont été utilisés pour résoudre l’équation de diffusivité et l’équation de Richards est résolue sous sa forme mixte par une méthode itérative en temps. En somme, ce modèle couplé permet de décrire les variations de niveaux de nappe à partir des données météorologiques connaissant les paramètres caractéristiques de cet aquifère. [...] / Groundwater is the main available water resource for many countries; they are mainly replenished by water from precipitation, called groundwater recharge. Due to its great importance, management of groundwater resources is more essential than ever, and is achieved through mathematical models which offer us a better understanding of physical phenomena as well as their prediction. Hydrogeological systems are generally complex thus characterized by a highly variable dynamic over time and space. These complexities have attracted the attention of many hydrogeologists and many sophisticated models that can handle these issues and describe these systems accurately were developed. Unfortunately, modeling groundwater recharge is still a challenge in groundwater resource management. Generally, groundwater models are used to simulate aquifers flow without a good estimation of recharge and its spatial-temporal distribution. As groundwater recharge rates show spatial-temporal variability due to climatic conditions, land use, and hydrogeological heterogeneity, these methods have limitations in dealing with these characteristics. To overcome these limitations, a coupled model which simulates flow in the unsaturated zone and recharge as well as groundwater flow was developed. The flow in the unsaturated zone is solved either with resolution of Richards equation or with empirical models while the diffusivity equation governs flow in the saturated zone. Robust numerical methods were used to solve these equations: we apply non-conforming finite element to solve the diffusivity equation and we used an accurate and efficient method for solving the Richards equation. [...]
325

Can the availability of mineral nutrient be an obstacle to the development of organic agriculture at the global scale ? / La disponibilité en éléments minéraux pourrait-elle contraindre le développement de l'Agriculture Biologique à l'échelle mondiale ?

Barbieri, Pietro 18 December 2018 (has links)
L’agriculture biologique (AB) est souvent présentée comme une alternative prometteuse à l’agriculture conventionnelle, permettant des systèmes alimentaires durables tout en minimisant les impacts environnementaux. La capacité de l’AB à satisfaire la demande alimentaire mondiale reste néanmoins fortement débattue. Plusieurs études ont conclu que l’AB pourrait satisfaire la demande alimentaire globale à condition de réduire simultanément la consommation de produits animaux et les gaspillages. Cependant, ces études n’ont pas pleinement pris en compte les changements d’assolement et de choix d’espèces lorsque les systèmes conventionnels sont convertis en AB. Surtout, ils ont ignoré le rôle clé de la disponibilité en azote (N) dans le maintien des rendements en AB. Dans cette étude, nous avons d’abord réalisé une méta-analyse comparant les rotations de cultures en agriculture biologique et conventionnelle à l’échelle mondiale. Sur la base de ces résultats, nous avons développé une cartographie des espèces cultivées à l’échelle globale sous un scénario de fort développement de l’AB. Nous avons ensuite estimé la production alimentaire grâce au développement de GOANIM (Global Organic Agriculture NItrogen Model), un modèle biophysique et spatialement explicite d’optimisation linéaire simulant le cycle de l’azote (N) et ses effets sur la production alimentaire globale. GOANIM est adapté au cas de l’AB et simule les flux d'azote entre les terres cultivées, les animaux d'élevage et les prairies permanentes, ainsi qu’entre les systèmes agricoles biologiques et conventionnels. Le modèle optimise les populations d’élevage à l’échelle locale afin de maximiser l’approvisionnement en N provenant du fumier, ce qui maximise la production issue des terres cultivées, tout en minimisant la concurrence exercée par les animaux pour les ressources alimentaires. GOANIM a été utilisé pour simuler l’offre alimentaire sous plusieurs scénarios de conversion à l’AB. Ces résultats ont été comparés à différentes estimations de la demande alimentaire mondiale. Nous montrons que la carence en N risque d’être un facteur limitant majeur de la production en AB, entraînant une réduction de -37% de la disponibilité alimentaire à l’échelle globale sous un scénario de conversion à l’AB de 100%. Nous montrons que des taux de conversions inférieurs (jusqu'à 60% des terres agricoles), en coexistence avec l'agriculture conventionnelle, permettent de satisfaire la demande alimentaire mondiale si cette conversion est associée à une évolution conjointe de la demande, telle que la réduction de l'apport énergétique par individu ou du gaspillage alimentaire. Ces travaux contribuent de manière substantielle à mieux comprendre le rôle que l’AB peut jouer dans la transition vers des systèmes alimentaires équitables et durables. Ils indiquent également des voies à suivre pour parvenir à la sécurité alimentaire mondiale. / Organic agriculture is often proposed as a promising approach to achieve sustainable food systems while minimizing environmental impacts. Its capacity to meet the global food demand remains, however, debatable. Some studies have investigated this question and have concluded that organic farming could satisfy the global food demand provided that animal product consumption and food waste are reduced. However, these studies have not fully considered the changes in the type of crops grown that occur when conventional farming systems are converted to organic farming. Most importantly, they also have missed a critical ecological phenomenon by not considering the key role that nitrogen (N) cycling plays in sustaining crop yields in organic farming. In this study, we first carried out a global meta-analysis comparing organic vs conventional crop rotations. Based on these results, we developed global spatial explicit maps of the type of crop grown if organic farming was to drastically expand. We then estimated organic global food production using GOANIM (Global Organic Agriculture NItrogen Model), a spatially explicit, biophysical and linear optimization model simulating N cycling in organically managed croplands and its feedback effects on food production. GOANIM explores N flows between croplands, livestock animals and permanent grasslands, and with conventional farming systems. The model optimizes livestock populations at the local scale in order to maximize N supply from livestock manure – hence maximizing cropland production –, while minimizing the animals’ competition for grain food resources. We used GOANIM to simulate several supply-side scenarios of global conversion to organic farming. We then compared the outcomes of these scenarios with different estimates of the global demand, thus leading to complete exploration of the global production-demand options space. We show N deficiency would be a major limiting factor to organic production in a full organic world, leading to an overall -37% reduction in global food availability. Nevertheless, we also show that lower conversion shares (up to 60%) would be feasible in coexistence with conventional farming when coupled with demand-side solutions, such as reduction of the per capita energy intake or food wastage. This work substantially contributes to advancing our understanding of the role that organic farming may play to reach fair and sustainable food systems, and it indicates future pathways for achieving global food security.
326

The State Space of Complex Systems

Heilmann, Frank 14 October 2005 (has links)
In dieser Arbeit wird eine Beschreibung von Monte-Carlo-Verfahren zur Lösung komplexer Optimierungsaufgaben mit Hilfe von Markov-Ketten durchgeführt. Nach einer kurzen Einführung werden Lösungsmenge solcher Aufgaben und der physikalische Zustandsraum komplexer Systeme identifiziert. Zunächst wird die Dynamik von Zufallswanderern im Zustandsraum mit Hilfe von Master-Gleichungen modelliert. Durch Einführung von Performanzkriterien können verschiedene Optimierungsstrategien quantitativ miteinander verglichen werden. Insbesondere wird das Verfahren Extremal Optimization vorgestellt, dass ebenfalls als Markov-Prozess verstanden werden kann. Es wird bewiesen, dass eine im Sinne der genannten Kriterien beste Implementierung existiert. Da diese von einem sogenannten Fitness Schedule abhängt, wird dieser für kleine Beispielsysteme explizit berechnet. Daran anschließend wird die Zustandsdichte komplexer Systeme betrachtet. Nach einem kurzen Überblick über vorhandene Methoden folgt eine detaillierte Untersuchung des Verfahrens von Wang und Landau. Numerische und analytische Hinweise werden gegeben, nach denen dieser Algorithmus innerhalb seiner Klasse wahrscheinlich der Optimale ist. Eine neue Methode zur Approximation der Zustandsdichte wird vorgestellt, die insbesondere für die Untersuchung komplexer Systeme geeignet ist. Abschließend wird ein Ausblick auf zukünftige Arbeiten gegeben.
327

How do water companies adapt to climate change impacts?: A literature review

Weber, Marie-Christin January 2011 (has links)
The primary objective of this work was to analyse how water companies are affected by climate change and how they try to adapt to it. Therefore, a systematic literature review was being accomplished. The work is being divided into a theoretical and a methodological part. First of all an overview of the climatic changes that are projected to occur during the next years is being given. Then, resulting impacts on the water cycle are being pointed out. Furthermore, raw water sources, water companies obtain water from are being defined as well as the treatment process. Within the methodological part the approach of a systematic literature review is being applied, which includes the selection of references as well as their evaluation. The results of the literature review are that concerning the effects of climate change on water companies, the risks water providers might face, clearly predominate possible opportunities. Especially the deterioration of the raw water quality caused by increasing temperatures, floods as well as heavy rainfalls can be seen as a serious problem. Moreover, the most often mentioned adaptation strategies are dealing with quantitative water problems such as measures to increase storage as well as treatment capacity or leakage reductions. All in all it can be stated that there is still uncertainty about how climate change is going to effect water companies, especially concerning water quality changes and the treatment process.
328

Object-Oriented Development for Reconfigurable Architectures

Fröhlich, Dominik 20 June 2007 (has links)
Reconfigurable hardware architectures have been available now for several years. Yet the application development for such architectures is still a challenging and error-prone task, since the methods, languages, and tools being used for development are inappropriate to handle the complexity of the problem. This thesis introduces a novel approach that tackles the complexity challenge by raising the level of abstraction to system-level and increasing the degree of automation. The approach is centered around the paradigms of object-orientation, platforms, and modeling. An application and all platforms being used for its design, implementation, and deployment are modeled with objects using UML and an action language. The application model is then transformed into an implementation, whereby the transformation is steered by the platform models. In this thesis solutions for the relevant problems behind this approach are discussed. It is shown how UML can be used for complete and precise modeling of applications and platforms. Application development is done at the system-level using a set of well-defined, orthogonal platform models. Thereby the core features of object-orientation - data abstraction, encapsulation, inheritance, and polymorphism - are fully supported. Novel algorithms are presented, that allow for an automatic mapping of such application models to the target architecture. Thereby the problems of platform mapping, estimation of implementation characteristics, and synthesis of UML models are discussed. The thesis explores the utilization of platform models for generation of highly optimized implementations in an automatic yet adaptable way. The approach is evaluated by a number of relevant applications. The execution of the generated implementations is supported by a run-time service. This service manages the hardware configurations and objects comprising the application. Moreover, it serves as broker for hardware objects. The efficient management of configurations and objects at run-time is discussed and optimized life cycles for these entities are proposed. Mechanisms are presented that make the approach portable among different physical hardware architectures. Further, this thesis presents UML profiles and example platforms that support system-level design. These extensions are embodied in a novel type of model compiler. The compiler is accompanied by an implementation of the run-time service. Both have been used to evaluate and improve the presented concepts and algorithms.
329

Le rôle des perceptions du soi physique dans l'exercice physique excessif chez les patientes anorexiques et boulimiques

Ouellet, Marilou January 2020 (has links) (PDF)
No description available.
330

Réfugiés climatiques : statut et traitement

Lelong, Corentin 05 1900 (has links)
L’état actuel des travaux ne rend pas compte de l’ampleur des questions philosophiques et des enjeux moraux suscités par l’apparition sur la scène internationale des réfugiés climatiques. Il est pourtant urgent de leur accorder une protection à travers des accords internationaux. Les philosophes qui se sont penchés sur le sujet ont été induits en erreur tant par la multiplicité des termes employés que leur absence de définitions. Ce travail critique la tendance actuelle des militants écologistes à vouloir englober des populations aux problèmes divers sous le terme de réfugié. Banaliser l’emploi du terme de réfugié n’est pas seulement fallacieux mais également dangereux. A terme, les militants se tourneront vers la Convention de Genève pour revendiquer que les populations déplacées soient considérées comme des réfugiés. Or la Convention de Genève n’est pas un outil adéquat pour remédier au sort de ces populations. De plus, on ne peut élargir le statut de réfugié pour inclure ces populations sans risquer de perdre sa crédibilité et son efficience. Suivre la pente qu’emprunte les militants nous mènerait à accorder le même traitement aux réfugiés climatiques et aux réfugiés politiques, ce qui est une erreur. Notre hypothèse est que les habitants des petits pays insulaires à l’inverse des autres populations ont besoin d’un élargissement de la Convention de Genève. Nous arguerons que nous avons des devoirs et des responsabilités envers eux que nous n’avons pas envers les réfugiés politiques. Pour défendre ce point de vue, il faut définir clairement ce qu’est un réfugié climatique et justifier cette appellation. Nous devrons donc confronter la notion de réfugié climatique à d’autres notions concurrentes. Une fois les termes définis, nous envisagerons les enjeux éthiques à travers le prisme des questions de justice globale. Nous verrons que pour déterminer qui devrait remédier au sort des réfugiés climatique, il ne suffit pas de se référer à la responsabilité causale. Cela nous mènera à arguer que bien que séduisant, le principe pollueur-payeur n’est pas un outil adéquat pour guider la réflexion. Nous serons également amenés à nous interroger sur la pertinence d’une institution environnementale globale. / Current works on the forced migration area does not reveal the magnitude of the philosophical and moral issues raised by the appearance of climate refugees on the international scene . Yet it is urgent to provide protection to them through international agreements. Philosophers who have studied the subject have been misled by both the multiplicity of terms and the lack of definitions. This work criticizes the current trend set by environmental activists who want to include people with various issues under the term of refugee. Trivializing the term of refugee is not only misleading but also dangerous. Eventually, the activists will turn to the Geneva Convention to demand that displaced populations be treated as refugees. But the Geneva Convention is not an appropriate tool to address the plight of these people. Moreover, we can not extend the status of refugees to include those people without losing the credibility and efficiency. Following the path taken by activists would lead us to give equal treatment to climate refugees and political refugees, which is a mistake. Our hypothesis is that the inhabitants of small island countries, in contrast to other populations require a broadening of the Geneva Convention. We shall argue that we have duties and responsibilities to them that we do not have to political refugees. To defend this view, we must clearly define what a climate refugee is and justify this term. We must therefore confront the notion of climate refugee to other competing concepts. Once the terms are defined, we will consider the ethical issues through the prism of global justice issues. We will see that it is not enough to refer to causal responsibility to determine the members who should address the plight of climate refugees. This will lead us to argue that although attractive, the polluter pays principle is not an appropriate tool to guide our reflection. We will also be led to question the relevance of a global environmental institution.

Page generated in 0.0341 seconds