• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 413
  • 135
  • 59
  • 5
  • 3
  • 3
  • 3
  • 2
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 636
  • 230
  • 143
  • 135
  • 69
  • 64
  • 60
  • 53
  • 53
  • 53
  • 48
  • 45
  • 42
  • 38
  • 36
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
501

Application des méthodes fiabilistes à l'analyse et à la synthèse des tolérances / Application of reliable methods to the analysis and synthesis of tolerances

Beaucaire, Paul 29 November 2012 (has links)
En conception de systèmes mécaniques, la phase de cotation fonctionnelle consiste à affecter des cotes, constituées d’une valeur nominale et d’un intervalle de tolérance, à des dimensions de pièces. En particulier, l’analyse des tolérances consiste à vérifier que les intervalles de tolérance choisis permettent le respect de la fonctionnalité du mécanisme. A l’inverse, la synthèse des tolérances vise à déterminer ces intervalles de tolérance, si possible de manière optimale, permettant le respect des exigences fonctionnelles. Les approches statistiques traditionnelles, bien que très utiles en phase de préconception, ne sont pas capables d’estimer avec précision le risque de non qualité. Cette thèse aborde ces problèmes selon un angle de vue différent, non plus pour garantir le respect d’exigences fonctionnelles, mais pour garantir le Taux de Non-Conformité (TNC) du mécanisme. Il s’agit de la probabilité que l’exigence fonctionnelle ne soit pas respectée. Les méthodes fiabilistes, s’appuyant sur la théorie des probabilités, permettent un calcul précis et efficace de cet indicateur. L’objectif de cette thèse est d’explorer le domaine de l’analyse et de la synthèse des tolérances afin d’identifier et d’exposer les apports des méthodes fiabilistes sur ces problématiques. Dans ces travaux de thèse, différents outils fiabilistes sont mis à disposition permettant l’analyse des tolérances de tous types de mécanismes avec ou sans jeu. La théorie probabiliste permet une modélisation très complète des dimensions des pièces. En particulier, l’approche APTA (Advanced Probability-based Tolerance Analysis of products) est développée afin de prendre en compte l’évolution aléatoire de certains paramètres de modélisation, notamment les décalages de moyenne, responsables de fortes variations du TNC. L’analyse des tolérances étant plus complexe pour les mécanismes avec jeux, une méthodologie spécifique a été développée basée sur une décomposition en situations de points de contacts et l’utilisation d’une méthode fiabiliste système. Différents indices de sensibilité sont aussi proposés afin d’aider à identifier les cotes ayant le plus d’influence sur le TNC d’un mécanisme. Enfin, l’optimisation du coût de production, sous contrainte de TNC, permet une synthèse des tolérances optimale. Les gains potentiels en termes de coût dépassent 50% par rapport aux conceptions initiales tout en maitrisant le niveau de qualité du produit. Les sociétés RADIALL SA et VALEO Système d’Essuyages, concepteurs et fabricants de produits pour l’automobile et l’aéronautique, ont proposé des cas d’études sur lesquels est démontrée la pertinence des travaux effectués. Sur la base de ces travaux, Phimeca Engineering, spécialisée dans l’ingénierie des incertitudes, développe et commercialise un outil informatique professionnel. / To design mechanical systems, functional dimensioning and tolerancing consists in allocating a target value and a tolerance to part dimensions. More precisely, tolerance analysis consists in checking that chosen tolerances allow the mechanism to be functional. In the opposite, the tolerance synthesis goal is to determine those tolerances, optimaly if possible, such as functional requirements are respected. Traditional statistical approaches are very useful in pre-design phases, but are incapable of estimating precisely non-quality risks. This PhD thesis adresses this problem from a different point of view. The objective is no longer to respect functional requirements but to guarantee the Non-Conformity Rate (NCR) of the mechanism. It is the probability that the functional requirement is not respected. Reliability methods, based on probabilistic theory, allow a precise and efficient calculation of the NCR. The main goal of this thesis is to explore tolerance analysis and synthesis domains in order to identify potential contributions of reliability methods to these issues. In this work, different reliability tools are provided enabling tolerance analysis of all kind of mechanisms with or without gaps. The probability theory allows a detailed modeling of parts dimensions. In particular, the APTA (Advanced Probability-based Tolerance Analysis of products) approach is designed to take into account random variations of some parameters such as mean shifts which influence highly the NCR. As tolerance analysis is more complex for mechanisms with gaps, a specific method is designed based on a decomposition of contact points situations and the use of a reliability system method. Several sensitivity indexes are also proposed to identify the leading dimensions on the NCR. The optimization of the production cost, under a NCR constraint, enables an optimal tolerance synthesis. The potential benefits in terms of costs exceed 50% compared to initial designs while keeping under control quality levels of products. Companies RADIALL SA and VALEO Wiping Systems, designers and manufacturers of products for the automotive and aeronautic industries, have provided case studies on which is demonstrated the relevance of the presented work. Based on this work, the company Phimeca Engineering, specialized in uncertainties, is developing and commercializing a professional computer tool.
502

Traitement conjoint de la géométrie et de la radiance d'objets 3D numérisés / Joint treatment of geometry and radiance for 3D model digitisation

Vanhoey, Kenneth 18 February 2014 (has links)
Depuis quelques décennies, les communautés d'informatique graphique et de vision ont contribué à l'émergence de technologies permettant la numérisation d'objets 3D. Une demande grandissante pour ces technologies vient des acteurs de la culture, notamment pour l'archivage, l'étude à distance et la restauration d'objets du patrimoine culturel : statuettes, grottes et bâtiments par exemple. En plus de la géométrie, il peut être intéressant de numériser la photométrie avec plus ou moins de détail : simple texture (2D), champ de lumière (4D), SV-BRDF (6D), etc. Nous formulons des solutions concrètes pour la création et le traitement de champs de lumière surfaciques représentés par des fonctions de radiance attachés à la surface.Nous traitons le problème de la phase de construction de ces fonctions à partir de plusieurs prises de vue de l'objet dans des conditions sur site : échantillonnage non structuré voire peu dense et bruité. Un procédé permettant une reconstruction robuste générant un champ de lumière surfacique variant de prévisible et sans artefacts à excellente, notamment en fonction des conditions d'échantillonnage, est proposé. Ensuite, nous suggérons un algorithme de simplification permettant de réduire la complexité mémoire et calculatoire de ces modèles parfois lourds. Pour cela, nous introduisons une métrique qui mesure conjointement la dégradation de la géométrie et de la radiance. Finalement, un algorithme d'interpolation de fonctions de radiance est proposé afin de servir une visualisation lisse et naturelle, peu sensible à la densité spatiale des fonctions. Cette visualisation est particulièrement bénéfique lorsque le modèle est simplifié. / Vision and computer graphics communities have built methods for digitizing, processing and rendering 3D objects. There is an increasing demand coming from cultural communities for these technologies, especially for archiving, remote studying and restoring cultural artefacts like statues, buildings or caves. Besides digitizing geometry, there can be a demand for recovering the photometry with more or less complexity : simple textures (2D), light fields (4D), SV-BRDF (6D), etc. In this thesis, we present steady solutions for constructing and treating surface light fields represented by hemispherical radiance functions attached to the surface in real-world on-site conditions. First, we tackle the algorithmic reconstruction-phase of defining these functions based on photographic acquisitions from several viewpoints in real-world "on-site" conditions. That is, the photographic sampling may be unstructured and very sparse or noisy. We propose a process for deducing functions in a manner that is robust and generates a surface light field that may vary from "expected" and artefact-less to high quality, depending on the uncontrolled conditions. Secondly, a mesh simplification algorithm is guided by a new metric that measures quality loss both in terms of geometry and radiance. Finally, we propose a GPU-compatible radiance interpolation algorithm that allows for coherent radiance interpolation over the mesh. This generates a smooth visualisation of the surface light field, even for poorly tessellated meshes. This is particularly suited for very simplified models.
503

Méthode de modélisation et de raffinement pour les systèmes hétérogènes. Illustration avec le langage System C-AMS / Study and development of a AMS design-flow in SytemC : semantic, refinement and validation

Paugnat, Franck 25 October 2012 (has links)
Les systèmes sur puces intègrent aujourd’hui sur le même substrat des parties analogiques et des unités de traitement numérique. Tandis que la complexité de ces systèmes s’accroissait, leur temps de mise sur le marché se réduisait. Une conception descendante globale et coordonnée du système est devenue indispensable de façon à tenir compte des interactions entre les parties analogiques et les partis numériques dès le début du développement. Dans le but de répondre à ce besoin, cette thèse expose un processus de raffinement progressif et méthodique des parties analogiques, comparable à ce qui existe pour le raffinement des parties numériques. L'attention a été plus particulièrement portée sur la définition des niveaux analogiques les plus abstraits et à la mise en correspondance des niveaux d’abstraction entre parties analogiques et numériques. La cohérence du raffinement analogique exige de détecter le niveau d’abstraction à partir duquel l’utilisation d’un modèle trop idéalisé conduit à des comportements irréalistes et par conséquent d’identifier l’étape du raffinement à partir de laquelle les limitations et les non linéarités aux conséquences les plus fortes sur le comportement doivent être introduites. Cette étape peut être d’un niveau d'abstraction élevé. Le choix du style de modélisation le mieux adapté à chaque niveau d'abstraction est crucial pour atteindre le meilleur compromis entre vitesse de simulation et précision. Les styles de modélisations possibles à chaque niveau ont été examinés de façon à évaluer leur impact sur la simulation. Les différents modèles de calcul de SystemC-AMS ont été catégorisés dans cet objectif. Les temps de simulation obtenus avec SystemC-AMS ont été comparés avec Matlab Simulink. L'interface entre les modèles issus de l'exploration d'architecture, encore assez abstraits, et les modèles plus fin requis pour l'implémentation, est une question qui reste entière. Une bibliothèque de composants électroniques complexes décrits en SystemC-AMS avec le modèle de calcul le plus précis (modélisation ELN) pourrait être une voie pour réussir une telle interface. Afin d’illustrer ce que pourrait être un élément d’une telle bibliothèque et ainsi démontrer la faisabilité du concept, un modèle d'amplificateur opérationnel a été élaboré de façon à être suffisamment détaillé pour prendre en compte la saturation de la tension de sortie et la vitesse de balayage finie, tout en gardant un niveau d'abstraction suffisamment élevé pour rester indépendant de toute hypothèse sur la structure interne de l'amplificateur ou la technologie à employer. / Systems on Chip (SoC) embed in the same chip analogue parts and digital processing units. While their complexity is ever increasing, their time to market is becoming shorter. A global and coordinated top-down design approach of the whole system is becoming crucial in order to take into account the interactions between the analogue and digital parts since the beginning of the development. This thesis presents a systematic and gradual refinement process for the analogue parts comparable to what exists for the digital parts. A special attention has been paid to the definition of the highest abstracted analogue levels and to the correspondence between the analogue and the digital abstraction levels. The analogue refinement consistency requires to detect the abstraction level where a too idealised model leads to unrealistic behaviours. Then the refinement step consist in introducing – for instance – the limitations and non-linearities that have a strong impact on the behaviour. Such a step can be done at a relatively high level of abstraction. Correctly choosing a modelling style, that suits well an abstraction level, is crucial to obtain the best trade-off between the simulation speed and the accuracy. The modelling styles at each abstraction level have been examined to understand their impact on the simulation. The SystemC-AMS models of computation have been classified for this purpose. The SystemC-AMS simulation times have been compared to that obtained with Matlab Simulink. The interface between models arisen from the architectural exploration – still rather abstracted – and the more detailed models that are required for the implementation, is still an open question. A library of complex electronic components described with the most accurate model of computation of SystemC-AMS (ELN modelling) could be a way to achieve such an interface. In order to show what should be an element of such a library, and thus prove the concept, a model of an operational amplifier has been elaborated. It is enough detailed to take into account the output voltage saturation and the finite slew rate of the amplifier. Nevertheless, it remains sufficiently abstracted to stay independent from any architectural or technological assumption.
504

Génération de modèles de haut niveau enrichis pour les systèmes hétérogènes et multiphysiques / Generating high level enriched models for heterogeneous and muliphysics systems

Bousquet, Laurent 29 January 2014 (has links)
Les systèmes sur puce sont de plus en plus complexes : ils intègrent des parties numériques, desparties analogiques et des capteurs ou actionneurs. SystemC et son extension SystemC AMSpermettent aujourd’hui de modéliser à haut niveau d’abstraction de tels systèmes. Ces outilsconstituent de véritables atouts dans une optique d’étude de faisabilité, d’exploration architecturale etde vérification du fonctionnement global des systèmes complexes hétérogènes et multiphysiques. Eneffet, les durées de simulation deviennent trop importantes pour envisager les simulations globales àbas niveau d’abstraction. De plus, les simulations basées sur l’utilisation conjointe de différents outilsprovoquent des problèmes de synchronisation. Les modèles de bas niveau, une fois crées par lesspécialistes des différents domaines peuvent toutefois être abstraits afin de générer des modèles dehaut niveau simulables sous SystemC/SystemC AMS en des temps de simulation réduits. Une analysedes modèles de calcul et des styles de modélisation possibles est d’abord présentée afin d’établir unlien avec les durées de simulation, ceci pour proposer un style de modélisation en fonction du niveaud’abstraction souhaité et de l’ampleur de la simulation à effectuer. Dans le cas des circuits analogiqueslinéaires, une méthode permettant de générer automatiquement des modèles de haut niveaud’abstraction à partir de modèles de bas niveau a été proposée. Afin d’évaluer très tôt dans le flot deconception la consommation d’un système, un moyen d’enrichir les modèles de haut niveaupréalablement générés est présenté. L’attention a ensuite été portée sur la modélisation à haut niveaudes systèmes multiphysiques. Deux méthodes y sont discutées : la méthode consistant à utiliser lecircuit équivalent électrique puis la méthode basée sur les bond graphs. En particulier, nous proposonsune méthode permettant de générer un modèle équivalent au bond graph à partir d’un modèle de basniveau. Enfin, la modélisation d’un système éolien est étudiée afin d’illustrer les différents conceptsprésentés dans cette thèse. / Systems on chip are more and more complex as they now embed not only digital and analog parts, butalso sensors and actuators. SystemC and its extension SystemC AMS allow the high level modeling ofsuch systems. These tools are efficient for feasibility study, architectural exploration and globalverification of heterogeneous and multiphysics systems. At low level of abstraction, the simulationdurations are too important. Moreover, synchronization problems appear when cosimulations areperformed. It is possible to abstract the low level models that are developed by the specialists of thedifferent domains to create high level models that can be simulated faster using SystemC/SystemCAMS. The models of computation and the modeling styles have been studied. A relation is shownbetween the modeling style, the model size and the simulation speed. A method that generatesautomatically the high level model of an analog linear circuit from its low level representation isproposed. Then, it is shown how to include in the high level model some information allowing thepower consumption estimation. After that, the multiphysics systems modeling is studied. Twomethods are discussed: firstly, the one that uses the electrical equivalent circuit, then the one based onthe bond graph approach. It is shown how to generate a bond graph equivalent model from a low levelrepresentation. Finally, the modeling of a wind turbine system is discussed in order to illustrate thedifferent concepts presented in this thesis.
505

Analyse de la distribution des décès aux grands âges selon le niveau de scolarité à partir d’un suivi de la mortalité sur 20 ans au Canada

Canon, Lorena 02 1900 (has links)
No description available.
506

Knowledge-based support for surgical workflow analysis and recognition / Assistance fondée sur les connaissances pour l'analyse et la reconnaissance du flux de travail chirurgical

Dergachyova, Olga 28 November 2017 (has links)
L'assistance informatique est devenue une partie indispensable pour la réalisation de procédures chirurgicales modernes. Le désir de créer une nouvelle génération de blocs opératoires intelligents a incité les chercheurs à explorer les problèmes de perception et de compréhension automatique de la situation chirurgicale. Dans ce contexte de prise de conscience de la situation, un domaine de recherche en plein essor adresse la reconnaissance automatique du flux chirurgical. De grands progrès ont été réalisés pour la reconnaissance des phases et des gestes chirurgicaux. Pourtant, il existe encore un vide entre ces deux niveaux de granularité dans la hiérarchie du processus chirurgical. Très peu de recherche se concentre sur les activités chirurgicales portant des informations sémantiques vitales pour la compréhension de la situation. Deux facteurs importants entravent la progression. Tout d'abord, la reconnaissance et la prédiction automatique des activités chirurgicales sont des tâches très difficiles en raison de la courte durée d'une activité, de leur grand nombre et d'un flux de travail très complexe et une large variabilité. Deuxièmement, une quantité très limitée de données cliniques ne fournit pas suffisamment d'informations pour un apprentissage réussi et une reconnaissance précise. À notre avis, avant de reconnaître les activités chirurgicales, une analyse soigneuse des éléments qui composent l'activité est nécessaire pour choisir les bons signaux et les capteurs qui faciliteront la reconnaissance. Nous avons utilisé une approche d'apprentissage profond pour évaluer l'impact de différents éléments sémantiques de l'activité sur sa reconnaissance. Grâce à une étude approfondie, nous avons déterminé un ensemble minimum d'éléments suffisants pour une reconnaissance précise. Les informations sur la structure anatomique et l'instrument chirurgical sont de première importance. Nous avons également abordé le problème de la carence en matière de données en proposant des méthodes de transfert de connaissances à partir d'autres domaines ou chirurgies. Les méthodes de ''word embedding'' et d'apprentissage par transfert ont été proposées. Ils ont démontré leur efficacité sur la tâche de prédiction d'activité suivante offrant une augmentation de précision de 22%. De plus, des observations pertinentes / Computer assistance became indispensable part of modern surgical procedures. Desire of creating new generation of intelligent operating rooms incited researchers to explore problems of automatic perception and understanding of surgical situations. Situation awareness includes automatic recognition of surgical workflow. A great progress was achieved in recognition of surgical phases and gestures. Yet, there is still a blank between these two granularity levels in the hierarchy of surgical process. Very few research is focused on surgical activities carrying important semantic information vital for situation understanding. Two important factors impede the progress. First, automatic recognition and prediction of surgical activities is a highly challenging task due to short duration of activities, their great number and a very complex workflow with multitude of possible execution and sequencing ways. Secondly, very limited amount of clinical data provides not enough information for successful learning and accurate recognition. In our opinion, before recognizing surgical activities a careful analysis of elements that compose activity is necessary in order to chose right signals and sensors that will facilitate recognition. We used a deep learning approach to assess the impact of different semantic elements of activity on its recognition. Through an in-depth study we determined a minimal set of elements sufficient for an accurate recognition. Information about operated anatomical structure and surgical instrument was shown to be the most important. We also addressed the problem of data deficiency proposing methods for transfer of knowledge from other domains or surgeries. The methods of word embedding and transfer learning were proposed. They demonstrated their effectiveness on the task of next activity prediction offering 22% increase in accuracy. In addition, pertinent observations about the surgical practice were made during the study. In this work, we also addressed the problem of insufficient and improper validation of recognition methods. We proposed new validation metrics and approaches for assessing the performance that connect methods to targeted applications and better characterize capacities of the method. The work described in this these aims at clearing obstacles blocking the progress of the domain and proposes a new perspective on the problem of surgical workflow recognition.
507

Variabilités climatiques régionales et changement global : cas de l'évolution climatique récente au Maroc, en Mauritanie et sur leur proche océan / Regional climate variability and global change : case of recent global change in Morocco, Mauritania and their near ocean

Amraoui, Laïla 29 November 2013 (has links)
Dans le contexte du changement climatique contemporain, les analyses climatiques à l’échelle régionale présentent un intérêt majeur car elles permettent de rendre compte des hétérogénéités spatiales des évolutions climatiques. Notre étude propose une analyse de l’évolution climatique récente au Maroc et en Mauritanie et leur proche océan. Elle s’intéresse à cette évolution dans les basses couches de l’atmosphère en tenant compte des conditions thermiques (les températures de l’air à 2m), de la dynamique climatique côtière (TSM et upwelling), puis de la dynamique atmosphérique constituée des pressions atmosphériques et des vents de surface. Pour la totalité des paramètres météorologiques étudiés, la variabilité et l’évolution interannuelles sont analysées aux échelles annuelle et mensuelle / saisonnière. Les analyses statistiques basées principalement sur les régressions linéaires et la segmentation d’Hubert ont permis de monter que l’espace maroco-mauritanien a connu au cours des six dernières décennies (1950-2008), des évolutions climatiques contrastées tant à l’échelle spatiale qu’à l’échelle saisonnière. Les résultats les plus marquants se résument dans :•une évolution thermique contrastée avec un réchauffement plus marqué au Maroc et au Sahara qu’en Mauritanie, •augmentation de l’intensité de l’upwelling sur la côte marocaine et diminution de son intensité sur la côte mauritanienne,•une forte et dominante tendance à la hausse de la pression atmosphérique laissant apparaître notamment un renforcement de l’A.A méditerrano-saharienne et un affaiblissement de la dépression thermique saharienne en été,•une tendance générale à la baisse de la vitesse des vents, qui se produit parallèlement à une rotation de la rose des vents du nord au nord-est pour les alizés maritimes et du nord à l’est pour les alizés continentaux.La segmentation d’Hubert a permis de confirmer que les fluctuations climatiques majeures dans l’espace maroco-mauritanien et son proche océan se sont produites pendant les années 1970. Cela se vérifie à l’échelle des températures de l’air, de l’upwelling, et des PNM, tandis que pour les vents, la rupture qui a touché la vitesse et la fréquence des directions principales des alizés s’est produite entre les années 1960 et 1970. Une seconde période de rupture est mise en évidence par la segmentation d’Hubert. Elle concerne les années 1990 dans les séries chronologiques des températures de l’air et des PNM. / In the context of global contemporary climate change, regional climate analyses are of major interest as they allow accounting for spatial heterogeneity of climate change. Our study provides for an analysis of recent climate changes in Morocco and Mauritania and their nearby Ocean. It focuses on the evolution in the lower layers of the atmosphere, taking into account the thermal conditions (air temperature at 2m), the coastal climate dynamics (sst and upwelling), and atmosphere dynamics made of atmospheric pressures and surface winds. For all the studied meteorological parameters, the variability and inter-annual evolution are analyzed on monthly and annual / seasonal scales.Statistical analyzes based primarily on linear regressions and Hubert's segmentation helped show that the Moroccan-Mauritanian zone has experienced over the past six decades (1950-2008), contrasting climate changes both at the spatial and seasonal scales. The most significant results are hereunder summarized :•A contrasted thermal evolution with a more pronounced warming in Morocco and the Sahara than in Mauritania,•Increase the intensity of the upwelling on the Moroccan coast and decrease on the Mauritanian,•A strong and dominant upward trend in atmospheric pressure, resulting, in particular, in a Mediterrano-Saharan AA strengthening and lower Saharan thermal pressure during summer,•A general downward trend in wind speed, in parallel with a rotation of the compass rose from north to northeast for marine trade winds, and from north to east for the continental trade winds.Hubert’ Segmentation confirmed that the major climatic fluctuations in the Moroccan-Mauritanian area and their nearby ocean occurred during the 1970s. This is true at the level of air temperatures, the upwelling, and SLP, while the disruption that affected the wind speed and the frequency of the main directions of the trade winds occurred between 1960 and 1970. A second period of disruption has been demonstrated by Hubert’s segmentation. It relates to the 1990s in air temperature chronological series and SLP.
508

Les littoraux des Comores, dynamique d'un système anthropisé : le cas de l'île d'Anjouan / The sea shore in Comoros archipelago the dynamics of human drives system : the case of Anjouan

Sinane, Kamardine Mohamed 08 November 2013 (has links)
Dans les petites îles en développement soumises à de fortes pressions humaines, comme l'archipel des Comores, les usages qui favorisent l'érosion côtière sont un facteur aggravant de vulnérabilité du littoral face au changement climatique et à l'élévation du niveau de la mer. À Anjouan, les profils topographiques des plages et la construction de géoindicateurs paysagers montrent qu'une grande partie du littoral meuble est très érodée, notamment dans les zones de forte pression anthropique où les plages sont soumises à l'extraction de sédiments. Il en résulte des impacts négatifs dans l'économie, la société et l'environnement de l'île, notamment une dégradation généralisée des services écosystémiques sur lesquels les pouvoirs publics pourraient s'appuyer pour amorcer le développement d'Anjouan. Pour réduire la vulnérabilité du trait de côte à l'érosion, des murs sont construits avec le soutien financier des partenaires internationaux et régionaux, au risque d'accentuer encore plus la dégradation du littoral. Les usagers des plages considèrent que les causes de l'érosion sont plus à rechercher dans l'action de l'homme que dans celle de nature et demandent des mesures socio-économiques pour réduire les dégradations d'origine anthropique. Cette étude montre que toute politique de GIZC à Anjouan comme ailleurs aux Comores ne sera efficace que si les personnes chargées de sa mise en œuvre tiennent compte des réalités locales et des perceptions des usagers du littoral. / In the context of climate change and sea level rising, the activities of coastal communities can increase the vulnerability of the seashore to coastal erosion particularly in small developing islands as Anjouan in the Comoros archipelago where the human density on the coast is quite heavy. This thesis focuses on sandy beaches, studied as a system. The monitoring of topographic profiles of beaches and landscaped geoindicators show that a large part of the sandy coast of Anjouan is very degraded and eroded. The erosion is mainly localized to areas of high human pressure, including beaches subjected to the extraction of sediments . Combined with natural hazards, the erosion due to human activities generates serious damages for the economy, society and environment of Anjouan, including the degradation of ecosystem services on which the government could draw to initiate the development of the island . To reduce the vulnerability of the coastline to erosion, walls are built with the financial support of international and regional bodies, but they are inefficient and the risk of coastal degradation is even greater. For beach users, causes erosion are to be found in the work of the man and not in nature. Minimizing this risk requires socio-economic measures to reduce anthropogenic degradations. This study shows that a policy of ICZM in Anjouan in the Comoros and elsewhere will only be effective if those responsible for its implementation take into account local realities and perceptions of coastal users.
509

Évolution et Développement d'un organe sériel - la molaire : Transcriptomique comparée des bourgeons de molaire chez les rongeurs / Evolution and Development of a serial organ - the molar : Comparative transcriptomics of rodents molar germs

Petit, Coraline 02 February 2017 (has links)
Les programmes de développement font appel à l'expression coordonnée de milliers de gènes, à laquelle le RNA-seq nous donne maintenant accès.Quelles différences d'expression sous-tendent les différences de programmes de développement, (i)entre organes similaires d'une même espèce ? (ii) entre organes homologues dans des espèces différentes ? Alors que d'autres études s'intéressent à des gènes maîtres régulateurs, je me suis intéressée au transcriptome pris dans son ensemble, dans ce qu'il peut nous apporter pour comprendre les différences de programme de développement en relation avec la morphologie finale. Notre modèle est le développement des molaires inférieure et supérieure chez les rongeurs, pour lesquelles nous avons obtenus des séries transcriptomiques de germes dentaires complets ou de germe coupés en deux.La majeure partie de la variation dans ces données correspond à un signal temporel qui est observé pour organes complets au cours du développement, mais aussi plus finement entre réplicats et enfin au niveau de dents coupées en deux.Le deuxième patron de variation est la différence entre la molaire inférieure et supérieure.Nous avons mis en évidence que le transcriptome reflète les proportions relatives de tissus qui le composent et nous renseigne sur des différences de population de cellules constituant chaque molaire. Ainsi les molaires de souris diffèrent entre elles par leur composition relative en mésenchyme et en tissu de cuspides.Puis nous avons montré que les spécificités des programmes inf/sup sont conservées chez la souris et le hamster. Cependant, les différences transcriptomiques entre ces deux espèces ne corrèlent pas avec les différences morphologiques, même dans le cas où la morphologie est similaire. Cette évolution rapide des profils temporels d'expression est compatible avec un phénomène de dérive développementale.Enfin, je me suis intéressée à l'identité bucco-lingual (BL) des molaires, car les cuspides supplémentaires de la molaire sup de souris se forment côté lingual. Nous avons montré que le côté lingual a sa propre identité et que les différences d'expression BL sont plus fortes dans la molaire sup de souris. Enfin, les perspectives de ces travaux seront de comprendre les modifications du programme développemental qui différencient les molaires sup de souris et de hamster, en s'appuyant en plus sur les données BL, afin de comprendre comment la molaire sup de souris développe 2 cuspides linguales supplémentaires. / Developmental programs are the result of the coordinate expression of thousands of genes which is nowadays accessible through RNA-sequencing.Which differences in expression levels underlie differences in developmental programs, (i) betweensimilar organs of the same species? (ii) between homologous organs in different species?While others studies have been focusing on master regulatory genes, I concentrated on transcriptomeas a whole to untangle the link between differences in developmental programs and differences in final morphologies. Our model of study is the development of rodent upper and lower first molars, for which we obtained transcriptomes for either whole molar germs at different stages of development or molar germs cut in half.The main variation in these data is a temporal signal which is present in whole organs, as in biological replicates and also in germ halves. The second pattern of variation is the difference between upper and lower molars. We evidenced that transcriptome reflects the relative tissue proportions composing the organ, thus it informed us on differences in cellular proportion between each molars. Thus mouse first molars differ in their relative proportion in mesenchyme and cusp tissue. Then, we showed that specificities of the upper/lower molar developmental programs are conserved between mouse and hamster. However, transcriptomic differences between species are not correlated to the morphological differences, even when the final morphology is similar (eg. the lower molar). This rapid evolution of expression profiles between species is consistent with a phenomenon known as Developmental System Drift (DSD).At last, I was interested in the identity of the buccal and lingual side (BL) of mouse molars, because the supplementary cusps of the mouse first upper molar are formed lingually. We evidenced that the lingual side has an identity of its own and that the differences of expression between buccal and lingual side are increased in mouse upper molar.Finally, the prospects for this work will be to understand the changes of the developmental program that differentiate mouse upper molar from hamster ones, relying more these BL data, to understand how the mouse first upper molar developed formed two supplementary lingual cusps.
510

Composants abstraits pour la vérification fonctionnelle des systèmes sur puce / high-level component-based models for functional verificationof systems-on-a-chip

Romenska, Yuliia 10 May 2017 (has links)
Les travaux présentés dans cette thèse portent sur la modélisation, la spécification et la vérification des modèlesdes Systèmes sur Puce (SoCs) au niveau d’abstraction transactionnel et à un niveau d’abstraction plus élevé.Les SoCs sont hétérogènes: ils comprennent des composants matériels et des processeurs pour réaliser le logicielincorporé, qui est en lien direct avec du matériel. La modélisation transactionnelle (TLM) basée sur SystemCa été très fructueuse à fournir des modèles exécutables des SoCs à un haut niveau d’abstraction, aussi appelésprototypes virtuels (VPs). Ces modèles peuvent être utilisés plus tôt dans le cycle de développement des logiciels,et la validation des matériels réels. La vérification basée sur assertions (ABV) permet de vérifier les propriétés tôtdans le cycle de conception de façon à trouver les défauts et faire gagner du temps et de l’effort nécessaires pourla correction de ces défauts. Les modèles TL peuvent être sur-contraints, c’est-à-dire qu’ils ne presentent pastous les comportements du matériel. Ainsi, ceci ne permet pas la détection de tous les défauts de la conception.Nos contributions consistent en deux parties orthogonales et complémentaires: D’une part, nous identifions lessources des sur-contraintes dans les modèles TLM, qui apparaissent à cause de l’ordre d’interaction entre lescomposants. Nous proposons une notion d’ordre mou qui permet la suppression de ces sur-contraintes. D’autrepart, nous présentons un mécanisme généralisé de stubbing qui permet la simulation précoce avec des prototypesvirtuels SystemC/TLM.Nous offrons un jeu de patrons pour capturer les propriétés d’ordre mou et définissons une transformationdirecte de ces patrons en moniteurs SystemC. Notre mécanisme généralisé du stubbing permet la simulationprécoce avec les prototypes virtuels SystemC/TLM, dans lesquels certains composants ne sont pas entièrementdéterminés sur les valeurs des données échangées, l’ordre d’interaction et/ou le timing. Ces composants nepossèdent qu’une spécification abstraite, sous forme de contraintes entre les entrées et les sorties. Nous montronsque les problèmes essentielles de la synchronisation entre les composants peuvent être capturés à l’aide de notresimulation avec les stubs. Le mécanisme est générique; nous mettons l’accent uniquement sur les concepts-clés,les principes et les règles qui rendent le mécanisme de stubbing implémentable et applicable aux études de casindustriels. N’importe quel language de spécification satisfaisant nos exigences (par ex. le langage des ordresmou) peut être utilisé pour spécifier les composants, c’est-à-dire il peut être branché au framework de stubbing.Nous fournissons une preuve de concept pour démontrer l’intérêt d’utiliser la simulation avec stubs pour ladétection anticipée et la localisation des défauts de synchronisation du modèle. / The work presented in this thesis deals with modeling, specification and testing of models of Systems-on-a-Chip (SoCs) at the transaction abstraction level and higher. SoCs are heterogeneous: they comprise bothhardware components and processors to execute embedded software, which closely interacts with hardware.SystemC-based Transaction Level Modeling (TLM) has been very successful in providing high-level executablecomponent-based models for SoCs, also called virtual prototypes (VPs). These models can be used early in thedesign flow for the development of the software and the validation of the actual hardware. For SystemC/TLMvirtual prototypes, Assertion-Based Verification (ABV) allows property checking early in the design cycle,helping to find bugs early in the model and to save time and effort that are needed for their fixing. TL modelscan be over-constrained, which means that they do not represent all the behaviors of the hardware, and thus,do not allow detection of some malfunctions of the prototype. Our contributions consist of two orthogonal andcomplementary parts: On the one hand, we identify sources of over-constraints in TL models appearing due tothe order of interactions between components, and propose a notion of loose-ordering which allows to removethese over-constraints. On the other hand, we propose a generalized stubbing mechanism which allows the veryearly simulation with SystemC/TLM virtual prototypes.We propose a set of patterns to capture loose-ordering properties, and define a direct translation of thesepatterns into SystemC monitors. Our generalized stubbing mechanism enables the early simulation with Sys-temC/TLM virtual prototypes, in which some components are not entirely determined on the values of theexchanged data, the order of the interactions and/or the timing. Those components have very abstract speci-fications only, in the form of constraints between inputs and outputs. We show that essential synchronizationproblems between components can be captured using our simulation with stubs. The mechanism is generic;we focus only on key concepts, principles and rules which make the stubbing mechanism implementable andapplicable for real, industrial case studies. Any specification language satisfying our requirements (e.g., loose-orderings) can be used to specify the components, i.e., it can be plugged in the stubbing framework. We providea proof of concept to demonstrate the interest of using the simulation with stubs for very early detection andlocalization of synchronization bugs of the design.

Page generated in 0.0541 seconds