• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 213
  • 91
  • 27
  • 1
  • Tagged with
  • 326
  • 326
  • 128
  • 106
  • 73
  • 64
  • 57
  • 55
  • 49
  • 41
  • 40
  • 34
  • 33
  • 29
  • 27
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
301

Development of predictive analysis solutions for the ESD robustness of integrated circuits in advanced CMOS technologies / Développement de solutions d’analyse prédictive pour la robustesse ESD des circuits intégrés en technologies CMOS avancées

Viale, Benjamin 29 November 2017 (has links)
Les circuits intégrés (CI) devenant de plus en plus complexes et vulnérables face aux décharges électrostatiques (ESD pour ElectroStatic Discharge), la capacité à vérifier de manière fiable la présence de défauts de conception ESD sur des puces comptant plusieurs milliards de transistors avant tout envoi en fabrication est devenu un enjeu majeur dans l’industrie des semi-conducteurs. Des outils commerciaux automatisés de dessin électronique (EDA pour Electronic Design Automation) et leur flot de vérification associé permettent d’effectuer différents types de contrôles qui se sont révélés être efficaces pour des circuits avec une architecture classique. Cependant, ils souffrent de limitations lorsqu’ils sont confrontés à des architectures inhabituelles, dites custom. De plus, ces méthodes de vérification sont généralement effectuées tard dans le flot de conception, rendant toute rectification de dessin coûteuse en termes d’efforts correctifs et de temps. Cette thèse de doctorat propose une méthodologie de vérification ESD systématique et multi-échelle introduite dans un outil appelé ESD IP Explorer qui a été spécifiquement implémenté pour couvrir le flot de conception dans sa globalité et pour adresser des circuits dits custom. Il est composé d’un module de reconnaissance et d’un module de vérification. Le module de reconnaissance identifie tout d’abord et de manière automatisée les structures de protection ESD, embarquées sur silicium dans le circuit intégré pour améliorer leur robustesse ESD, selon un mécanisme de reconnaissance topologique. Le module de vérification convertit ensuite le réseau de protection ESD, formé des structures de protection ESD, en un graphe dirigé. Finalement, une analyse ESD quasi-statique reposant sur des algorithmes génériques issus de la théorie des graphes est effectuée sur la globalité du circuit à vérifier. Des algorithmes d’apprentissage automatique ont été employés pour prédire les comportements quasi-statiques des protections ESD à partir des paramètres d’instance de leurs composants élémentaires sous la forme d’une liste d’interconnexions. L’avantage ici est qu’aucune simulation électrique n’est requise pendant toute la durée d’exécution d’ESD IP Explorer, ce qui simplifie l’architecture de l’outil et accélère l’analyse. Les efforts d’implémentation ont été concentrés sur la compatibilité d’ESD IP Explorer avec le nœud technologique 28nm FD-SOI (pour Fully Depleted Silicon On Insulator). L’outil de vérification développé a été utilisé avec succès pour l’analyse d’un circuit incorporant des parties numériques et à signaux mixtes et comprenant plus de 1,5 milliard de transistors en seulement quelques heures. Des circuits custom qui n’ont pas pu être vérifiés au moyen d’outils de vérification traditionnels du fait de problèmes d’incompatibilité ont également pu être soumis à analyse grâce à ESD IP Explorer. / As Integrated Circuits (ICs) become more complex and susceptible to ElectroStatic Discharges (ESD), the ability to reliably verify the presence of ESD design weaknesses over a multi-billion transistor chip prior to the tape-out is a major topic in the semiconductor industry. Commercial tools dedicated to Electronic Design Automation (EDA) and related verification flows are in charge of providing checks that have been proven to be efficient for circuits with a mainstream architecture. However, they suffer limitations when confronted with custom designs. Moreover, these verification methods are often run late in the design flow, making any design re-spin costly in terms of corrective efforts and time. This Ph. D. thesis proposes a systematic and scalable ESD verification methodology embodied in a tool called ESD IP Explorer that has been specifically implemented to cover the entire design flow and to comply with custom circuit architectures. It is composed of a recognition module and a verification module. The recognition module first automatically identifies ESD protection structures, embedded in integrated circuits to enhance their ESD hardness, according to a topology-aware recognition mechanism. The verification module then converts the ESD protection network that is formed by ESD protection structures into a directed graph. There, technology-independent and graph-based verification mechanisms perform a chip-scale quasistatic ESD analysis. Machine learning algorithms have been used in order to infer the quasistatic behavior of ESD IPs from the netlist instance parameters of their primary devices. This approach has the advantage that no simulation is required during the execution of ESD IP Explorer, which makes the tool architecture simpler and improves execution times. Implementation efforts pertained to the compliance of ESD IP Explorer with the 28nm Fully Depleted Silicon On Insulator (FD-SOI) technology node. The developed verification tool has been used to successfully analyze a digital and mixed-signal circuit prototype counting more than 1.5 billion transistors in several hours, as well as custom designs that could not be analyzed by means of traditional verification tools due to incompatibility issues.
302

Modélisations mathématiques de l’hématopoïèse et des maladies sanguines / Mathematical modelling of haematopoiesis and blood diseases

Demin, Ivan 11 December 2009 (has links)
Cette thèse est consacrée à la modélisation mathématique de l'hématopoïèse et des maladies sanguines. Plusieurs modèles traitant d'aspects différents et complémentaires de l'hématopoïèse y sont étudiés.Tout d'abord, un modèle multi-échelle de l'érythropoïèse est analysé, dans lequel sont décrits à la fois le réseau intracellulaire, qui détermine le comportement individuel des cellules, et la dynamique des populations de cellules. En utilisant des données expérimentales sur les souris, nous évaluons les rôles des divers mécanismes de retro-contrôle en réponse aux situations de stress.Ensuite, nous tenons compte de la distribution spatiale des cellules dans la moelle osseuse, question qui n'avait pas été étudiée auparavant. Nous décrivons l'hématopoïèse normale à l'aide d'un système d'équations de réaction-diffusion-convection et nous démontrons l'existence d'une distribution stationnaire des cellules. Puis, nous introduisons dans le modèle les cellules malignes. Pour certaines valeurs des paramètres, la solution "disease-free" devient instable et une autre solution, qui correspond à la leucémie, apparaît. Cela mène à la formation d'une tumeur qui se propage dans la moelle osseuse comme une onde progressive. La vitesse de cette propagation est étudiée analytiquement et numériquement. Les cellules de la moelle osseuse échangent des signaux qui régulent le comportement cellulaire. Nous étudions ensuite une équation integro-différentielle qui décrit la communication cellulaire et nous prouvons l'existence d'une solution du type onde progressive en utilisant la théorie du degré topologique et la méthode de Leray et Schauder. L'approche multi-agent est utilisée afin d'étudier la distribution des différents types de cellules dans la moelle osseuse.Finalement, nous étudions un modèle de type "Physiologically Based Pharmacokinetics-Pharmacodynamics" du traitement de la leucémie par l'AraC. L'AraC agit comme chimiothérapie et induit l'apoptose de toutes les cellules proliférantes, saines et malignes. La pharmacocinétique donne accès à la concentration intracellulaire d'AraC. Cette dernière, à son tour, détermine la dynamique des populations cellulaires et, par conséquent, l'efficacité de différents protocoles de traitement. / This PhD thesis is devoted to mathematical modelling of haematopoiesis and blood diseases. We investigate several models, which deal with different and complementary aspects of haematopoiesis.The first part of the thesis concerns a multi-scale model of erythropoiesis where intracellular regulatory networks, which determine cell choice between self-renewal, differentiation and apoptosis, are coupled with dynamics of cell populations. Using experimental data on anemia in mice, we evaluate the roles of different feedback mechanisms in response to stress situations. At the next stage of modelling, spatial cell distribution in the bone marrow is taken into account, the question which has not been studied before. We describe normal haematopoiesis with a system of reaction-diffusion-convection equations and prove existence of a stationary cell distribution. We then introduce malignant cells into the model. For some parameter values the disease free solution becomes unstable and another one, which corresponds to leukaemia, appears. This leads to the formation of tumour which spreads in the bone marrow as a travelling wave. The speed of its propagation is studied analytically and numerically. Bone marrow cells exchange different signals that regulate cell behaviour. We study, next, an integro-differential equation which describes cell communication and prove the existence of travelling wave solutions using topological degree and the Leray-Schauder method. Individual based approach is used to study distribution of different cell types in the bone marrow. Finally, we investigate a Physiologically Based Pharmacokinetics-Pharmacodynamics model of leukaemia treatment with AraC drug. AraC acts as chemotherapy, inducing apoptosis of all proliferating cells, normal and malignant. Pharmacokinetics provides the evolution of intracellular AraC. This, in turn, determines cell population dynamics and, consequently, efficacy of treatment with different protocols.
303

Requerimientos de innovación institucional para la regulación y cumplimiento efectivo de los derechos humanos a nivel doméstico. Lecciones de la evolución del modelo de regulación de los derechos humanos en Colombia en el período 2006-2014 / Institutional innovation requirements for the regulation and the fulfillment of the human rights at the national level. Lessons from the evolution of the human rights regulation model in Colombia in the period 2006 - 2014 / Nouveaux besoins d’innovation institutionnelle pour la régulation et l’accomplissement des droits de l’homme au niveau national. Leçons de l’évolution du modèle de régulation des droits de l’homme en Colombie durant la période 2006-2014

González-Chavarría, Alexander 04 July 2019 (has links)
Dans cette recherche, je prends comme objet d´étude les modifications dans le modèle de régulation de la problématique des droits de l'homme en Colombie dans la période 2006-2014. Plus précisément, je me concentre sur l'analyse des deux principaux résultats de ce processus de changement. En premier lieu, la formulation de la Politique intégrale des droits de l'homme et droit international humanitaire (PIDH-DIH), qui a commencé à être discuté en 2006 et a été formulée finalement en 2013. En deuxième lieu, le design et mise en œuvre du Système national des droits humains de l´État colombien (SNDHC), créé en 2011 et qui intégra comme cadre normative la PIDH-DIH en 2014. Ces deux résultats définissent l'état actuel du modèle de régulation. D´une part, une politique publique concertée d´après un schéma intersectoriel multi-agent, avec la participation des acteurs tant étatiques comme non étatiques et qui a été intégrée dans le fonctionnement du SNDHC. D´autre part, la ré-concentration de la fonctionne de régulation dans l'Etat colombien, laissant peu de place pour l'incidence politique aux acteurs non étatiques. Cet état actuel du modèle de régulation des droits de l'homme en Colombie est le principal résultat que je veux analyser et expliquer dans cette recherche.Dans ce processus ils ont participé activement plusieurs acteurs de différents domaines de la coopération internationale au développement avec la Colombie, ainsi que le Bureau du Haut-Commissaire des Nations Unies pour les droits de l'homme basé en Colombie (HCDH-C). Cela a permis que tant le processus de changement dans le modèle de régulation, ainsi que les deux résultats centraux de ce processus étaient directement liés et déterminés par les dynamiques internationales, en particulier les dynamiques propres du système international des droits de l'homme centré sur les Nations Unies (SIDH-ONU). Ce système a subi des changements importants au cours de la première décennie des années 2000 qui ont conduit à la génération de nouvelles réquisitions en termes de régulation et d'accomplissement des droits de l'homme au niveau national. En tant que l'État colombien fait partie du SIDH-ONU et que, par conséquent, l'évolution domestique du modèle de régulation est partiellement déterminée par la dynamique du régime international des droits de l´homme, donc on doit prendre en compte ces nouvelles réquisitions de régulation générées au niveau international pour l'analyse du processus de changement dans le modèle de régulation au niveau domestique en Colombie. / In this research, I take as object of study the changes in the regulation model of the human rights problematic in Colombia in the period 2006-2014. Specifically, I focus on the analysis of the two main results of this process of change. First, the formulation of the Integral policy of human rights and international humanitarian law (IPHR-IHL), which began to be discussed in 2006 and was finally issued in 2013. Second, the design and implementation of the National system of human rights of the Colombian State (NSHRC), created in 2011 and which integrated in 2014 the IPHR-IHL as normative framework. These two results define the current state of the regulation model. On the one hand, a public policy negotiated and concerted upon an intersectorial and multi-agent schema, with the participation of both state and non-state actors, which was integrated into the functioning of the NSHRC. On the other hand, the re-concentration of the regulation functions in the Colombian state, leaving little room to the non-state actors for their political influence. This current state of the human rights regulation model in Colombia is the main result that I want to analyze and explain in this research.In this process, several actors have taken an active role from different areas of the international development cooperation with Colombia, and also the Office of the UN High Commissioner for Human Rights based in Colombia (OHCHR-C). This allowed that both the process of change in the regulation model and the two central outcomes of this process were directly related to and determined by the international dynamics, especially the dynamics proper to the international system of human rights centered at the United Nations (ISHR-UN). This system has undergone significant changes during the first decade of the 2000s that led to the generation of new requirements in terms of regulation and fulfillment of the human rights normativity at the national level. As far as the Colombian state is part of the ISHR-UN and that, therefore, the domestic evolution of the regulatory model is partly determined by the dynamics of this international regime, we must take into account these new regulatory requirements generated at the international scale for the analysis of the processes of change in the regulation model at the domestic level in Colombia. / En esta investigación tomo como objeto de estudio los cambios en el modelo de regulación de la problemática de derechos humanos en Colombia en el período 2006-2014. Específicamente, me enfoco en el análisis de los dos principales resultados de este proceso de cambio. Primero, la formulación de la Política Integral de Derechos Humanos y Derecho Internacional Humanitario (PIDH-DIH), que se empezó a discutir en el año 2006 y se formuló finalmente en el año 2013. Segundo, el diseño e implementación del Sistema Nacional de Derechos Humanos del Estado Colombiano (SNDHC), creado en el año 2011, al cual se integró la PIDH-DIH como marco normativo en el año 2014. Estos dos resultados definen el estado actual del modelo de regulación: una política pública concertada en un esquema intersectorial multiagente (agentes estatales y agentes no estatales) e integrada al funcionamiento del SNDHC, cuyo diseño institucional concentró la función de regulación en el Estado, dejando poco margen de incidencia política a los agentes no estatales. Este estado actual del modelo de regulación de los derechos humanos en Colombia es el principal resultado que busco analizar y explicar en esta investigación.En este proceso tomaron parte activa, entre otros, varios sectores de la cooperación internacional para el desarrollo con Colombia, así como la Oficina del Alto Comisionado de las Naciones Unidas para los Derechos Humanos con sede en Colombia (OACNUDH-C). Esto permitió que tanto el proceso de cambio en el modelo de regulación como los dos resultados centrales de este proceso se conectarán y estuvieran directamente determinados por dinámicas internacionales, particularmente las dinámicas propias del Sistema Internacional de Derechos Humanos centrado en las Naciones Unidas (SIDH-ONU). Este sistema experimentó cambios normativos e institucionales de importancia en la primera década de los años 2000 que generaron nuevos requerimientos en materia de regulación y cumplimiento de los derechos humanos a nivel doméstico. En la medida en que el Estado colombiano hace parte del SIDH-ONU y, por tanto, la evolución doméstica del modelo de regulación está parcialmente determinada por las dinámicas de este régimen internacional, para abordar el análisis del cambio en el modelo de regulación en Colombia debo tomar en cuenta estos nuevos requerimientos de regulación generados a nivel internacional.
304

Contributions à la microscopie à fluorescence en imagerie biologique : modélisation de la PSF, restauration d'images et détection super-résolutive

Zhang, Bo 30 November 2007 (has links) (PDF)
Cette thèse propose trois contributions principales pour l'imagerie en microscopie à fluorescence. (1) Modélisation du système optique : nous avons étudié les approximations gaussiennes des moindres carrés pour les réponses impulsionnelles optiques (PSFs) limitées par la diffraction du microscope en champ large (WFFM), du microscope confocal (LSCM), et du microscope confocal à disque rotatif (DSCM). Les situations paraxiales/non-paraxiales et 2D/3D sont toutes considérées. Les PSFs sont décrites par les intégrales de diffraction de Debye. Nous avons dérivé les paramètres gaussiens optimaux pour la PSF 2D paraxiale du WFFM, sous les normalisations Linf et L1. Pour les autres PSFs, avec la normalisation Linf, des paramètres quasi-optimaux sont explicitement dérivés par l'appariement des séries de Maclaurin. Ces modèles approximatifs gaussiens peuvent être calculés rapidement, et facilitent considérablement la modélisation des objets biologiques. (2) Débruitage des images de fluorescence : les images issues des LSCM et DSCM ont des statistiques purement poissoniennes ou poissoniennes et gaussiennes mélangées (MPG) selon les différents modes d'acquisition du microscope. Deux approches sont proposées pour restaurer une image poissonienne. La première méthode, basée sur les tests d'hypothèses dans le domaine de Haar biorthogonale, est particulièrement appropriée à estimer rapidement les intensités poissoniennes régulières dans des données de grandes tailles. Notre deuxième méthode, basée sur une transformée stabilisatrice de variance (VST), permet de gaussianiser et stabiliser un processus poissonien filtré. Cette VST peut être combinée avec de nombreuses transformées multi-échelles, ce qui conduit aux VSTs multi-échelles (MS-VSTs). Nous montrons que les MS-VSTs permettent de restaurer efficacement des structures saillantes de diverses formes (isotropes, linéiques et curvilignes) avec un (très) faible flux photonique. La MS-VST est également généralisée pour débruiter les données MPG et pour extraire les taches fluorescentes dans les données MPG. (3) Détection super-résolutive : nous avons revu et étendu les résultats des limites de la résolution pour les sources ponctuelles issus des théories de la détection, de l'estimation, et de l'information. En particulier, nous avons proposé d'appliquer la VST pour étudier les limites de la résolution dans le cas d'observations poissoniennes ou MPG. Les résultats sont asymptotiquement consistants et les expressions sont de formes closes. Nous avons également généralisé une approche de super-résolution qui est basée sur l'ajustement de modèle paramètrique et la sélection de l'ordre de modèle pour localiser un nombre inconnu de spots ou de bâtonnets. Cette méthode permet non seulement de localiser les sources ayant des configurations spatiales complexes, mais aussi d'extraire les objets séparés par des distances inférieures à la résolution optique de Rayleigh (super-résolution).
305

Étude de l'apparition des contraintes résiduelles dans le procédé d'empilement par soudage et consolidation en continu de composites thermoplastiques

Lemarchand, François 03 December 2008 (has links) (PDF)
Nos travaux se sont intéressés à la modélisation de l'apparition des contraintes résiduelles dans le procédé d'empilement par soudage et consolidation en continu développé dans l'industrie aéronautique. Dans les conditions standard d'élaboration, les pièces réalisées par ce type de procédé sont le siège d'importantes contraintes résiduelles. L'ignorance de leur origine et développement est un frein important à la validation industriel de ce procédé prometteur. Dans cette perspective, l'originalité de l'étude a été de développer une méthode de modélisation numérique multi-échelle et multi-physique permettant de réaliser une modélisation couplée aux échelles macroscopique et microscopique du phénomène de l'apparition des contraintes résiduelles, au cours du procédé. L'échelle microscopique, décrite à l'aide de la méthode des éléments naturels contraints (CNEM), apporte à l'échelle macroscopique les propriétés thermomécaniques homogénéisées du matériau à chaque pas de temps. L'échelle macroscopique apporte à l'échelle microscopique les conditions aux limites (températures, déplacements), qui permettent de déterminer les champs de température, de déformation et de contrainte microscopiques dans le matériau au cours du temps. Les résultats obtenus en terme de validation et d'application de la méthode au procédé d'empilement par chauffage et consolidation en continu sont satisfaisants et prometteurs. La méthode développée peut de plus être aisément appliquée à d'autres types de procédé de mise en forme des composites thermoplastiques.
306

Analyse, caractérisation et classification de signaux foetaux

Voicu, Iulian 13 December 2011 (has links) (PDF)
Cette thèse s'inscrit dans le domaine biomédical, à l'interface entre l'instrumentation et le traitement du signal. L'objectif de ce travail est d'obtenir, grâce à une mélange de différentes informations, un monitorage de l'activité du fœtus (rythme cardiaque et mouvements fœtaux) pour apprécier son état de bien-être ou de souffrance, et ceci aux différents stades de la grossesse. Actuellement, les paramètres qui caractérisent la souffrance fœtale, issus du rythme cardiaque et des mouvements fœtaux, sont évalués par le médecin et ils sont réunis dans le score de Manning. Deux inconvénients majeurs existent: a) l'évaluation du score est trop longue puisqu'elle dure 1 heure; b) il existe des variations inter et intra-opérateur conduisant à différentes interprétations du bilan médical de la patiente. Pour s'affranchir de ces désavantages nous évaluons le bien-être fœtal d'une façon objective, à travers le calcul d'un score. Pour atteindre ce but, nous avons développé une technologie ultrasonore multi-capteurs (12 capteurs) permettant de recueillir une soixantaine de (paires de) signaux Doppler en provenance du cœur, des membres inférieurs et supérieurs. Dans cette thèse notre première contribution s'appuie sur la mise en œuvre de nouveaux algorithmes de détection du rythme cardiaque (mono-canal et multi-canaux). Notre deuxième contribution concerne l'implémentation de deux catégories de paramètres basés sur le rythme cardiaque : a) la classes des paramètres "traditionnels" utilisés par les obstétriciens et évalués aussi dans le test de Manning (ligne de base, accélérations, décélérations); b) la classe des paramètres utilisés par les cardiologues et qui caractérisent la complexité d'une série temporelle (entropie approximée, entropie échantillonnée, entropie multi-échelle, graphe de récurrence, etc.). Notre troisième contribution consiste également à apporter des modifications notables aux différents algorithmes du calcul des mouvements fœtaux et des paramètres qui en découlent comme : le nombre de mouvements, le pourcentage du temps passé en mouvement par un fœtus, la durée des mouvements. Notre quatrième contribution concerne l'analyse conjointe du rythme cardiaque et des mouvements fœtaux. Cette analyse nous conduit alors à l'identification de différents états comportementaux. Le développement ou le non-développement de ces états est un indicateur de l'évolution neurologique du fœtus. Nous proposons d'évaluer les paramètres de mouvements pour chaque état comportemental. Enfin, notre dernière contribution concerne la mise en œuvre de différents scores et des classifications qui en découlent. Les perspectives directes à donner à ce travail concernent l'intégration des scores ou paramètres les plus pertinents dans un dispositif de surveillance à domicile ou bien dans un dispositif de monitorage clinique.
307

Influence des étapes technologiques du procédé Smart CutTM sur l'uniformité d'épaisseur des substrats de SOI : Approche multi-échelle

Acosta, Pablo 27 May 2014 (has links) (PDF)
Les substrats de silicium sur isolant totalement désertées (FD-SOI, pour Fully-Depleted Silicon-On-Insulator), se révèlent être une matière très prometteuse pour le développement des nouvelles technologies CMOS. Un substrat FD-SOI est formé d'une couche superficielle de silicium cristallin, extrêmement fine (~ 10 nm), disposée sur une couche d'oxyde enterrée (BOx) qui est elle-même portée par un substrat épais de silicium (~ 750 µm). En effet, il a été démontré que les caractéristiques des transistors fabriqués sur FD-SOI dépendent fortement de l'épaisseur de la fine couche de silicium. Il est donc indispensable que les variations d'épaisseur soient contrôlées avec une précision sous-nanométrique et ce sur une très large plage de fréquences spatiales (entre 10 nm et 300 mm) ce qui représente un grand défi pour l'industrie du semi-conducteur et en particulier pour la technologie CMOS. Au cours de cette thèse, des méthodes de caractérisation multi-échelle basées sur l'utilisation de la densité spectrale de puissance (PSD) et permettant le traitement des données obtenues par différentes techniques expérimentales, ont été développées. Cela permet de caractériser la rugosité et les variations d'épaisseur de couches fines sur l'intégralité de la bande spectrale d'intérêt. Ces outils ont permis l'étude de la corrélation entre la topographie de surface et les variations d'épaisseur du film de silicium. Ainsi, il a été mis en évidence qu'en fonction de la fréquence spatiale les variations d'épaisseur peuvent être supérieures, inférieures ou du même ordre de grandeur que celles de la topographie. En outre, les principales étapes technologiques entrant en jeu dans la technologie Smart CutTM pour la fabrication de substrats FD-SOI, ont été analysées, en particulier leur impact sur l'uniformité d'épaisseur de la couche de silicium. Cette analyse a révélé l'existence de trois régions spectrales montrant un comportement fractal avec des exposants de rugosité distincts, ceci permettant de déterminer les empreintes spectrales de certaines étapes technologiques du procédé, e.g., la propagation de la fracture [entre 1.10-5 et 2.10-3 µm-1], la diffusion de surface [entre 0.3 et 1 µm-1] et l'oxydation thermique [entre 1 et 10 µm-1]. De plus, la contribution spectrale résultant de la distribution de microfissures générées lors de l'implantation ionique, est établie [entre 0.03 et 1 µm-1]. Par la suite, l'influence des conditions de l'implantation ionique sur la topographie de surface après fracture ont été examinées. En effet, dans le cas de l'implantation H+, la rugosité augmente avec la dose ionique implantée. L'impact de l'ordre d'implantation, dans le cas de la co-implantation H+-He+ a également été traité. En outre, les phénomènes physiques à l'origine du lissage thermique par diffusion surfacique ont été investigués. Un modèle paramétrique décrivant l'évolution de la topographie de surface au cours d'un traitement thermique, a été développé à partir de l'équation de diffusion surfacique de Mullins-Herring. Deux termes stochastiques correspondant d'une part aux fluctuations thermiques et d'autre part au phénomène d'oxydation/évaporation, ont été ajoutés. Ce modèle permet donc de prédire l'évolution de la topographie des surfaces de silicium traitées par recuit thermique dans une atmosphère réductrice et pour des températures supérieures à celle de la transition rugueuse. Les données expérimentales décrivant l'évolution de la rugosité et la cinétique de diffusion sont en parfait accord avec les valeurs théoriques. L'optimisation des paramètres expérimentaux peut être réalisée suite à l'étude des limitations inhérentes au lissage des surfaces de silicium par recuit thermique rapide (RTA). Enfin, l'évolution de la topographie lors de l'oxydation thermique permet de mettre en évidence un comportement fractal présentant un exposant de rugosité (α=-0.5) montrant un bon accord avec le modèle de croissance de Edward-Wilkinson. Par ailleurs, l'influence de divers paramètres, entrant en jeu dans le polissage mécano-chimique (CMP), a été étudiée expérimentalement. Ce travail fournit l'ensemble des outils nécessaires à l'analyse multi-échelle de la topographie ainsi que des variations d'épaisseur des couches fines, sur une vaste gamme spectrale. L'étude approfondie des différentes étapes technologiques, permet une meilleure compréhension de ces dernières et facilite ainsi l'amélioration de l'uniformité de l'épaisseur pour des couches fines.
308

Calcul haute performance en dynamique des contacts via deux familles de décomposition de domaine

Visseq, Vincent 03 July 2013 (has links) (PDF)
La simulation numérique des systèmes multicorps en présence d'interactions complexes, dont le contact frottant, pose de nombreux défis, tant en terme de modélisation que de temps de calcul. Dans ce manuscrit de thèse, nous étudions deux familles de décomposition de domaine adaptées au formalisme de la dynamique non régulière des contacts (NSCD). Cette méthode d'intégration implicite en temps de l'évolution d'une collection de corps en interaction a pour caractéristique de prendre en compte le caractère discret et non régulier d'un tel milieu. Les techniques de décomposition de domaine classiques ne peuvent de ce fait être directement transposées. Deux méthodes de décomposition de domaine, proches des formalismes des méthodes de Schwarz et de complément de Schur sont présentées. Ces méthodes se révèlent être de puissants outils pour la parallélisation en mémoire distribuée des simulations granulaires 2D et 3D sur un centre de calcul haute performance. Le comportement de structure des milieux granulaires denses est de plus exploité afin de propager rapidement l'information sur l'ensemble des sous domaines via un schéma semi-implicite d'intégration en temps.
309

Développement d'un modèle météorologique multi-échelle pour améliorer la modélisation du climat urbain

Mauree, Dasaraden 19 March 2014 (has links) (PDF)
Ce travail a consisté à developper un modèle de canopée (CIM), qui pourrait servir d'interface entre des modèles méso-échelles de calcul du climat urbain et des modèles micro-échelles de besoin énergétique du bâtiment. Le développement est présenté en conditions atmosphériques variées, avec et sans obstacles, en s'appuyant sur les théories précédemment proposées. Il a été, par exemple, montré que, pour être en cohérence avec la théorie de similitude de Monin-Obukhov, un terme correctif devait être rajouté au terme de flottabilité de la T.K.E. CIM a aussi été couplé au modèle méso-échelle WRF. Une méthodologie a été proposée pour profiter de leurs avantages respectifs (un plus résolu, l'autre intégrant des termes de transports horizontaux) et pour assurer la cohérence de leurs résultats. Ces derniers ont montré que ce système, en plus d'être plus précis que le modèle WRF à la même résolution, permettait, par l'intermédiaire de CIM, de fournir des profils plus résolus près de la surface.
310

Multiscale modeling and event tracking wireless technologies to improve efficiency and safety of the surgical flow in an OR suite / Modélisation multi-échelle assistée d’un système de détection d’événements : optimisation du fonctionnement et de la sécurité au sein des blocs opératoires

Joerger, Guillaume 16 June 2017 (has links)
Améliorer la gestion et l’organisation des blocs opératoires est une tâche critique dans les hôpitaux modernes, principalement à cause de la diversité et l’urgence des activités impliquées. Contrairement à l’aviation civile, qui a su optimiser organisation et sécurité, le management de bloc opératoire est plus délicat. Le travail ici présenté abouti au développement et à l’installation de nouvelles technologies assistées par ordinateur résolvant les problèmes quotidiens des blocs opératoires. La plupart des systèmes existants modélisent le flux chirurgical et sont utilisés seulement pour planifier. Ils sont basés sur des procédés stochastiques, n’ayant pas accès à des données sûres. Nous proposons une structure utilisant un modèle multi-agent qui comprend tous les éléments indispensables à une gestion efficace et au maintien de la sécurité dans les blocs opératoires, allant des compétences communicationnelles du staff, au temps nécessaire à la mise en place du service de nettoyage. Nous pensons que la multiplicité des ressources humaines engagées dans cette structure cause des difficultés dans les blocs opératoires et doit être prise en compte dans le modèle. En parallèle, nous avons construit un modèle mathématique de flux d’air entre les blocs opératoires pour suivre et simuler la qualité de l’environnement de travail. Trois points sont nécessaires pour la construction et le bon fonctionnement d’un ensemble de bloc opératoire : 1) avoir accès au statut du système en temps réel grâce au placement de capteurs 2) la construction de modèles multi-échelles qui lient tous les éléments impliqués et leurs infrastructures 3) une analyse minutieuse de la population de patients, du comportement des employés et des conditions environnementales. Nous avons développé un système robuste et invisible qui permet le suivi et la détection automatique d’événements dans les blocs. Avec ce système nous pouvons suivre l’activité à la porte d’entrée des blocs, puis l’avancement en temps réel de la chirurgie et enfin l’état général du bloc. Un modèle de simulation numérique de mécanique des fluides de plusieurs blocs opératoires est utilisé pour suivre la dispersion de fumée chirurgicale toxique, ainsi qu’un modèle multi-domaine qui évalue les risques de propagation de maladie nosocomiale entre les blocs. La combinaison de ces trois aspects amène une nouvelle dimension de sensibilisation à l’environnent des blocs opératoires et donne au staff un système cyber-physique capable de prédire des événements rares impactant la qualité, l’efficacité, la rentabilité et la sécurité dans l’hôpital. / Improving operating room management is a constant issue for modern large hospital systems who have to deal with the reality of day to day clinical activity. As opposed to other industrial sectors such as air civil aviation that have mastered the topic of industry organization and safety, progress in surgical flow management has been slower. The goal of the work presented here is to develop and implement technologies that leverage the principles of computational science to the application of OR suite problems. Most of the currently available models of surgical flow are used for planning purposes and are essentially stochastic processes due to uncertainties in the available data. We propose an agent-based model framework that can incorporate all the elements, from communication skills of the staff to the time it takes for the janitorial team to go clean an OR. We believe that human factor is at the center of the difficulty of OR suite management and should be incorporated in the model. In parallel, we use a numerical model of airflow at the OR suite level to monitor and simulate environment conditions inside the OR. We hypothesize that the following three key ingredients will provide the level of accuracy needed to improve OR management : 1) Real time updates of the model with ad hoc sensors of tasks/stages 2) Construction of a multi-scale model that links all key elements of the complex surgical infrastructure 3) Careful analysis of patient population factors, staff behavior, and environment conditions. We have developed a robust and non-obtrusive automatic event tracking system to make our model realistic to clinical conditions. Not only we track traffic through the door and the air quality inside the OR, we can also detect standard events in the surgical process. We propose a computational fluid dynamics model of a part of an OR suite to track dispersion of toxic surgical smoke and build in parallel a multidomain model of potential nosocomial contaminant particles flow in an OR suite. Combining the three models will raise the awareness of the OR suite by bringing to the surgical staff a cyber-physical system capable of prediction of rare events in the workflow and the safety conditions.

Page generated in 0.134 seconds