261 |
Nouvelles méthodes de tri des déchets par rayons XMontagner, Florian 20 December 2012 (has links) (PDF)
Les travaux proposés portent sur la caractérisation par rayons X des matériaux, en vue du tri de certains d'entre eux dans un flux de déchets. L'objectif final du tri est la valorisation de certains matériaux par le biais des circuits de recyclage. Deux méthodes d'analyse utilisant les rayons X sont décrites : la méthode par transmission bi-énergie et la fluorescence X. Ces deux méthodes sont abordées sous un angle théorique et expérimental. Le mémoire se compose de trois parties. La première partie présente le contexte général de l'étude, les différents scénarios de tri envisagés, les différentes méthodes existantes ainsi que les machines de tri industrielles déjà commercialisées. La seconde partie est consacrée à l'analyse par transmission X bi-énergie. Dans cette partie nous présentons tout d'abord le principe de la décomposition d'un matériau dans une base de deux autres matériaux. Ensuite nous utilisons un code de simulation analytique développé au laboratoire afin d'une part d'optimiser la géométrie du détecteur mais également de prévoir les performances de cette méthode en fonction des scénarios et des matériaux recherchés. Nous avons introduit un critère permettant de quantifier la performance d'un scénario donné. Cette méthode a permis de montrer que plusieurs scénarios de tri et en particulier celui du tri des retardateurs de flamme dans un flux de plastiques sont envisageables par cette méthode. Un prototype de machine industrielle a été construit par la société Bertin Technologies et installé dans les locaux de la société Pellenc ST pour réaliser des tests en conditions réelles de tri. Les résultats de simulation ont été comparés aux essais en conditions réelles. Cette partie se conclue avec une introduction aux méthodes multi-énergie. La troisième et dernière partie s'intéresse à la fluorescence X. L'objectif est de mettre au point une méthode permettant d'identifier la nature du matériau en tenant compte des contraintes industrielles (temps d'acquisition faible), c'est-à-dire lorsque le niveau de signal contenu dans le spectre de fluorescence est faible et bruité. Un banc expérimental a été mis au point au laboratoire et a permis de définir la limite de détection qui dépend du matériau analysé et du temps d'acquisition pour réaliser la mesure. Le second point développé dans cette partie est la mise au point d'une technique de simulation de fluorescence combinant le calcul analytique et le calcul par méthode Monte Carlo. L'avantage de cette technique est d'avoir une méthode de simulation plus rapide par rapport à un calcul qui serait réalisé entièrement par Monte Carlo. En conclusion, nous discutons de la complémentarité des informations issues de ces différentes techniques ainsi que leurs avantages et inconvénients.
|
262 |
Dévelopement d'outils microfluidiques appliqués à la biologie. Réalisation de dispositifs de tri cellulaire magnétique vertical.Cargou, Sébastien 03 March 2014 (has links) (PDF)
Grâce aux avancées de la recherche de ces dix dernières années, qui ont permis l'implémentation de plus en plus de fonctions au sein d'un système microfluidique, les " laboratoires sur puce " connaissent un essor important notamment dans le domaine de la santé. Les premiers dispositifs voient le jour dans le domaine commercial, mais un verrou important reste d'identifier des éléments circulants en faible concentration dans le sang par exemple. Les techniques de séparation simples, efficaces et modulables sont la clef de cette problématique. Nous présentons dans ce travail une voie originale de séparation magnétique grâce à des bobines planaires en cuivre combinées à un système microfluidique 3D permettant une séparation verticale efficace. L'étude consiste en la conception, la modélisation, la réalisation et le test de dispositifs appliqués à des solutions tests constituées de billes magnétiques dans un premier temps, puis de composés biologiques de culture. La réalisation des laboratoires sur puce a été faite par des procédés de photolithographie et grâce à une technologie originale de laminage de film sec. De par sa très bonne robustesse, dans le temps et face aux solvants, ainsi que sa biocompatibilité, la SU-8 est un candidat de choix pour la réalisation de ces LOC. Cette technologie nous a permis de réaliser des dispositifs tout-polymère tridimensionnels et intégrant des fonctions actives dont l'actionnement magnétique. La microélectronique a depuis longtemps permis de miniaturiser tous les éléments électroniques courants tels les capteurs et les bobines. Il est alors très intéressant de voir comment nous pouvons les intégrer dans un dispositif microfluidique pour créer des fonctions plus complexes. Nous avons pu ainsi démontrer une séparation continue de monocyte THP1 de culture avec une efficacité de 82% et des voies d'amélioration prometteuses validées avec des billes magnétiques.
|
263 |
Développement de biopuces dédiées au tri d'échantillons cellulairesBombera, Radoslaw 05 December 2011 (has links) (PDF)
Le présent travail de thèse repose sur la conception d'un système miniaturisé de type biopuce capable d'assurer la capture et le relargage contrôlé de différentes populations des cellules sanguines (e.g. lymphocytes). Ce projet a pour objectif la construction d'un outil potentiel de recherche dans le domaine de l'immunologie ainsi que du diagnostic qui permettrait non seulement de réaliser des essais à partir d'une faible quantité d'échantillon, mais aussi de réduire le temps d'analyse. L'approche consiste plus précisément en la fabrication d'une matrice d'oligonucléotides et l'immobilisation de cellules via une molécule hybride composée d'un anticorps IgG couplé à une séquence d'oligonucléotide complémentaire. La synthèse du produit conjugué est mise en place et conduit à l'assemblage functionnel sur biopuce. Une fois les cellules spécifiquement capturées sur la surface, deux voies de rélargage contrôlé sont explorées. Ainsi, les lymphocytes sont libérées de façon contrôlée et séquentielle par clivage enzymatique d'ADN ou alors par désorption physique possible grâce au chauffage localisé. La détection se fait en temps réel par l'imagerie de la résonance plasmonique de surface (Surface Plasmon Resonance Imaging, SPRi) qui présente l'avantage de pouvoir suivre les phénomènes biomoléculaires en absence de marquage et d'apporter une réponse simultanée d'un échantillon biologique sur un grand nombre des sondes. Accessoirement, une approche instrumentale particulière nous permet d'observer les étapes de capture/relargage par microscopie optique classique. La construction de la biopuce permet également l'élargissement à plusieurs cibles et ouvre ainsi la voie à de nombreuses possibilités d'exploration en termes d'application pour l'analyse d'échantillons biologiques plus complexes tels que du sang.
|
264 |
Etude du système quasi-unidimensionnel AxA'1-xNb2O6 (A et A'= Ni, Fe et Co) : préparation et caractérisation des propriétés structurales et magnétiquesSarvezuk, Paulo 27 October 2011 (has links) (PDF)
Cette étude expérimentale est consacrée à la structure cristalline et aux propriétés magnétiques des phases orthorhombiques ANb2O6 (A = métaux magnétiques) qui ont retenues notre attention en tant que système Ising modèle quasi 1D. Ce comportement magnétique original de basse dimension résulte à la fois de la force des interactions magnétiques le long des chaînes d'atomes magnétiques quasi-unidimensionnelles, et à la faiblesse des interactions entre les chaînes qui sont de nature antiferromagnétique. Lorsque ces composés sont ordonnés l'ensemble de ces interactions inter et intra chaîne conduit à un ordre antiferromagnétique. Notre investigation s'appuie sur une caractérisation systématique de la série de composés AxA'1-xNb2O6 (A et A' = Ni, Fe et Co), par des mesures variées et complémentaires, notamment: diffraction des rayons X à température ambiante, diffraction de neutrons au dessus et en dessous de la température d'ordre magnétique, mesures magnétiques : évolution thermique de courbes d'aimantation isochamp et mesures d'aimantation isotherme. De plus, des mesures de la chaleur spécifique et de spectroscopie Mössbauer ont été réalisées sur certains échantillons sélectionnés. Nous avons mis à jour, selon la concentration, des comportement très différents dans les systèmes pseudo binaires Fe-Co, Ni-Fe ou Co-Ni qui peuvent soit présenter un état ordonné soit conserver un état paramagnétique jusqu'à de très basses températures. Nos mesures démontrent que la température d'ordre magnétique et les vecteurs de propagations diffèrent sensiblement selon la composition car ces systèmes sont caractérisés par une compétition entre les interactions magnétiques mises en jeu dans un réseau triangulaire interchaines. Cette étude montre que le désordre cationique Fe/Co induit une réduction substantielle des interactions tant inter que intra chaînes, ce qui traduit la tendance à défavoriser l'établissement d'un ordre magnétique à longue portée. De manière similaire, le système NixFe1-xNb2O6 ne présente pas d'ordre magnétique pour x=0,2 et ceci jusqu'à 400 mK au moins.
|
265 |
Efecto del número de opciones de respuesta sobre las propiedades psicométricas de los cuestionarios de personalidadKramp Denegri, Uwe Arthur 14 September 2006 (has links)
¿Cuántas opciones de respuesta hay que utilizar para responder un cuestionario de personalidad? Durante más de ochenta años, numerosas investigaciones previas han examinado este tópico sin lograr alcanzar un consenso. El presente trabajo se aborda esta cuestión de forma exhaustiva.MÉTODO:Se aplican dos escalas de personalidad [(Orientación Negativa hacia los Problemas (NPO) del Social Problem Solving Inventory-Revised (SPSI-R) y la escala Satisfacción con la Vida (SWLS)], cada una a una muestra independiente (Estudio A = 746 participantes y Estudio B = 426 participantes), variando el número de opciones de respuesta en dos, tres y cinco alternativas. Cada sujeto debe responder a los tres tipos de formato de respuesta dentro de una misma sesión. Para evitar que éstos noten que están contestando el mismo cuestionario en más de una ocasión, cada escala experimental se inserta dentro de una batería de "tests". De esta forma, se construyen tres baterías de "test" (una para cada muestra), contrabalanceando la aparición de los distintos formatos de respuesta y manteniendo constante el resto de las condiciones experimentales. Por otro lado, se utiliza como criterio para evaluar el efecto del número de opciones de respuesta sobre las propiedades psicométricas las escalas NPO y SWLS tanto su fiabilidad (consistencia interna y estabilidad temporal) como su validez (evidencia basada en la estructura interna y evidencia basada en el grado de relación con otras variables).Estas se evalúan desde tres modelos psicométricos diferentes: Teoría Clásica de los Tests (TCT), Análisis Factorial de los Ítems (AFI) y Teoría de Respuesta a los Ítems (TRI).APORTE:Tres son los principales aportes de este trabajo de Tesis de Doctorado. En primer lugar, se aplican dos escalas de personalidad diferentes a muestras independientes, manteniendo constante el resto de las condiciones experimentales. Con ello se espera controlar que los resultados observados son producto del efecto ejercido por los distintos formatos de respuesta utilizados y no por otras variables. En segundo lugar, cada sujeto contesta su respectiva escala experimental utilizando los tres formatos de respuesta propuestos. Ello permite disponer de información directa respecto de cómo ha respondido realmente cada sujeto -y no sólo con una estimación indirecta, derivada de la comparación de muestras independientes, como ha sido lo habitual hasta este momento. Finalmente, el análisis de las propiedades psicométricas de las escalas experimentales se aborda por primera vez, simultáneamente, desde tres perspectivas diferentes (TCT, AFI y TRI). Esto permite controlar que los resultados observados no son consecuencia inmediata del modelo psicométrico utilizado, sino producto del efecto ejercido por los distintos formatos de respuesta propuestos. El análisis de la validez de los cuestionarios se realiza aplicando Modelos de Ecuaciones Estructurales (SEM).RESULTADOS Y DISCUSIÓN:En su conjunto, los resultados observados sugieren que el número de opciones de respuesta afecta de forma leve a moderada la estructura interna y, parcialmente, la consistencia interna de las escalas utilizadas en este trabajo de Tesis de Doctorado. Por el contrario, el número de alternativas de respuesta no afecta aspectos tales como la evidencia basada en la relación con otras variables o la estabilidad temporal (estabilidad test-retest) de las escalas analizadas.PALABRAS CLAVE:Número óptimo de opciones de respuesta, Cuestionarios de personalidad, Satisfaction with Life Scale (SWLS), Social Problem-Solving Inventory-Revised (SPSI-R), Teoría Clásica de los Tests (TCT), Análisis Factorial de los Ítems (AFI), Teoría de Respuesta a los Ítems (TRI), Modelos de Ecuaciones Estructurales (SEM), Propiedades psicométricas, Fiabilidad, Validez, evidencia basada en la estructura interna, evidencia basada en la relación con otras variables, consistencia interna, estabilidad temporal. / Numerous studies have attempted to answer the question of what is the optimal number of response options in personality questionnaires. Some authors argue that the number of response options do not affect at all the reliability or the validity of the measurement tool, whereas others suggest to use from 2- to 25-response alternatives in order to maximize the psychometric properties of the instrument. The present PhD Dissertation work attempts to aboard in an exhaustive manner this question.METHOD:All subjects have responded, within the same session, a questionnaire with two-, three- and five-response options. In order to avoid that the subjects notice that they are responding to the same questionnaire, within a same session, these are applied within a tests battery. Likewise, two independent samples (A and B) and two personality questionnaires [Negative Problem Orientation (NPO) of the Social Problem Solving Inventory-Revised (SPSI-R) and Satisfaction with Life Scale (SWLS)] are used, to ensure that the answer does not depend on the instrument investigated. Both, the reliability and validity of the instrument will be used as criteria to determine the optimum number of response alternatives. Finally, the reliability and validity of each response format is analysed using three different psychometric models: "Classical Test Theory" (CTT), "Item Factor Analysis" (IFA), and "Item Response Theory" (IRT). Add, we used Structural Equation Models (SEM) to analyze the validity of the NPO and SWLS scales.RESULTS AND DISCUSSION:As a whole, the observed results suggest that the number of response options affects form slight to moderate aspects such as the internal structure and, partially, the internal consistency of the scales analyzed in this work. Contrary, the number of response alternatives does not affect aspects such as the evidence based on the relation with other variables or the temporary stability (test-retest stability) of the examined scales.KEYWORDS:Optimal number of response options, Classical Tests Theory (CCT), Item Factor Analysis (IFA), Item Response Theory (IRT), Structural Equation Models (SEM), Psychometric properties, Reliability, Validity, Personality rating scales, Satisfaction with Life Scale (SWLS), Social Problem-Solving Inventory-Revised (SPSI-R), evidence based on the internal structure, evidence based on the relation with other variables, internal consistency, temporary stability.
|
266 |
Fabrication, characterization, and modeling of metallic source/drain MOSFETsGudmundsson, Valur January 2011 (has links)
As scaling of CMOS technology continues, the control of parasitic source/drain (S/D) resistance (RSD) is becoming increasingly challenging. In order to control RSD, metallic source/drain MOSFETs have attracted significant attention, due to their low resistivity, abrupt junction and low temperature processing (≤700 °C). A key issue is reducing the contact resistance between metal and channel, since small Schottky barrier height (SBH) is needed to outperform doped S/D devices. A promising method to decrease the effective barrier height is dopant segregation (DS). In this work several relevant aspects of Schottky barrier (SB) contacts are investigated, both by simulation and experiment, with the goal of improving performance and understanding of SB-MOSFET technology:First, measurements of low contact resistivity are challenging, since systematic error correction is needed for extraction. In this thesis, a method is presented to determine the accuracy of extracted contact resistivity due to propagation of random measurement error.Second, using Schottky diodes, the effect of dopant segregation of beryllium (Be), bismuth (Bi), and tellurium (Te) on the SBH of NiSi is demonstrated. Further study of Be is used to analyze the mechanism of Schottky barrier lowering.Third, in order to fabricate short gate length MOSFETs, the sidewall transfer lithography process was optimized for achieving low sidewall roughness lines down to 15 nm. Ultra-thin-body (UTB) and tri-gate SB-MOSFET using PtSi S/D and As DS were demonstrated. A simulation study was conducted showing DS can be modeled by a combination of barrier lowering and doped Si extension.Finally, a new Schottky contact model was implemented in a multi-subband Monte Carlo simulator for the first time, and was used to compare doped-S/D to SB-S/D for a 17 nm gate length double gate MOSFET. The results show that a barrier of ≤ 0.15 eV is needed to comply with the specifications given by the International Technology Roadmap for Semiconductors (ITRS). / QC 20111206
|
267 |
Toolpath and Cutter Orientation Optimization in 5-Axis CNC Machining of Free-form Surfaces Using Flat-end MillsLuo, Shan 24 December 2015 (has links)
Planning of optimal toolpath, cutter orientation, and feed rate for 5-axis Computer Numerical Control (CNC) machining of curved surfaces using a flat-end mill is a challenging task, although the approach has a great potential for much improved machining efficiency and surface quality of the finished part. This research combines and introduces several key enabling techniques for curved surface machining using 5-axis milling and a flat end cutter to achieve maximum machining efficiency and best surface quality, and to overcome some of the key drawbacks of 5-axis milling machine and flat end cutter use. First, this work proposes an optimal toolpath generation method by machining the curved surface patch-by-patch, considering surface normal variations using a fuzzy clustering technique. This method allows faster CNC machining with reduced slow angular motion of tool rotational axes and reduces sharp cutter orientation changes. The optimal number of surface patches or surface point clusters is determined by minimizing the two rotation motions and simplifying the toolpaths. Secondly, an optimal tool orientation generation method based on the combination of the surface normal method for convex curved surfaces and Euler-Meusnier Sphere (EMS) method for concave curved surfaces without surface gouge in machining has been introduced to achieve the maximum machining efficiency and surface quality. The surface normal based cutter orientation planning method is used to obtain the closest curvature match and longest cutting edge; and the EMS method is applied to obtain the closest curvature match and to avoid local gouging by matching the largest cutter Euler-Meusnier sphere with the smallest Euler-Meusnier sphere of the machined surface at each cutter contact (CC) point. For surfaces with saddle shapes, selection of one of these two tool orientation determination methods is based on the direction of the CNC toolpath relative to the change of surface curvature. A Non-uniform rational basis spline (NURBS) surface with concave, convex, and saddle features is used to demonstrate these newly introduced methods. Thirdly, the tool based and the Tri-dexel workpiece based methods of chip volume and cutting force predictions for flat-end mills in 5-axis CNC machining have been explored for feed rate optimization to achieve the maximum material removal rate. A new approach called local parallel slice method which extends the Alpha Shape method - only for chip geometry and removal volume prediction has been introduced to predict instant cutting forces for dynamic feed rate optimization. The Tri-dexel workpiece model is created to get undeformed chip geometry, chip volume, and cutting forces by determining the intersections of the tool envelope and continuously updating the workpiece during machining. The comparison of these two approaches is made and several machining experiments are conducted to verify the simulation results. At last, the chip ploughing effects that become a more serious problem in micro-machining due to chip thickness not always being larger than the tool edge radius are also considered. It is a challenging task to avoid ploughing effects in micro-milling. A new model of 3D chip geometry is thus developed to calculate chip thickness and ploughing volume in micro 5-axis flat-end milling by considering the minimum chip thickness effects. The research forms the foundation of optimal toolpath, cutter orientation, cutting forces/volume calculations, and ploughing effects in 5-axis CNC machining of curved surfaces using a flat-end mill for further research and direct manufacturing applications. / Graduate / 0548 / luoshan@uvic.ca
|
268 |
Catégorisation de graphiques par les enseignants et les élèves / Teacher and student categorization of graphics into graphical genresAshraf, Muhammad 19 June 2014 (has links)
Les graphiques ont pris de plus en plus d'importance dans le matériel pédagogique, les manuels scolaires ou encore les programmes informatiques. Malgré la coexistence de différents types de graphiques ou de genres graphiques, jusqu'à maintenant, les recherches sur l'apprentissage ont seulement pris en compte la distinction entre le texte et l'image. Cette thèse vise à éclaircir ce qui, dans la recherche sur l'apprentissage, semble être une catégorie globale et indivisible : les représentations visuelles. Nous nous sommes concentrées sur ce que pensent des enseignants et des étudiants de Master concernant différents types de représentations visuelles et leurs fonctions présumées dans l'enseignement et l'apprentissage. A l'heure actuelle, la recherche sur les graphiques est principalement axée sur la compréhension des élèves. Il existe très peu de recherches sur la compréhension des graphiques par les enseignants. En outre, la dimension de la formation des enseignants aux graphiques est, elle aussi, relativement ignorée. La thèse se présente en deux parties : une recherche théorique suivie d'une recherche empirique. La première partie du travail examine la littérature relative aux représentations graphiques dans l'histoire, dans les programmes scolaires à travers le monde ainsi que leur utilisation dans l'enseignement et l'apprentissage. Elle expose également les classifications des différents types de graphiques. La seconde partie de la thèse prend appui sur trois enquêtes menées auprès d'enseignants en activité et d'étudiants de Master en formation. La première investigue la compréhension des graphiques d'enseignants en activité en France et au Pakistan. Les deux autres ont été conduites auprès de futurs enseignants, en utilisant la méthode du tri de carte, afin d'identifier leurs compétences relatives à la catégorisation des différents types de graphiques.En conclusion, il semble que les programmes de formation des enseignants manquent d'un enseignement à la compréhension graphique. Même en géographie, pourtant considérée comme la discipline des graphiques et de leur enseignement, nous constatons que les enseignants sont peu familiers avec de nombreux genres graphiques. Dans l'ensemble, les graphiques génériques (camemberts, histogrammes, cartes et tableaux, etc.) ont été facilement identifiés par les enseignants alors que la classification des graphiques hybrides s'est révélée plus difficile pour la plupart d'entre eux. / Visualizations have gained more importance in pedagogical material, in text books and in computer programs. Despite the co-existence of many different types of visualizations or graphical genres, learning research only has taken into account the distinction between text and pictures. This thesis aims at unpacking what, at least in learning research, seems to be one single holistic indivisible category of visualizations. We focused on teachers' and Masters students' thoughts on the existence of different types of visualizations and their presumed function in teaching and learning. Research on graphical representations is mainly focused on students' comprehension of graphical representations. However, there is very little research in extend of teachers' comprehension of graphical representations. In addition, the aspect of teacher training of graphical representations is also relatively ignored. There are two main parts in this thesis: theoretical and empirical. In theoretical part, we presented the literature on the existence of graphical representations in worldwide curricula. Remarkable works of cartographers who played important rule for the advancement of graphic representations in context of teaching and learning. And finally, classification of different genres of graphical representations was also exhibited. Empirical part on the other hand, based on three studies conducted with in-service teachers and Masters students' about their comprehension of graphical genres. First study was conducted with in-service teachers from France and Pakistan to investigate their basic understanding of graphical representations. Second and third study explores the Masters' students' categorization of graphical representations. In conclusion, it seems that the teacher training programs lack the training of graphic comprehension. Even in the domain of geography which is considered the major domain about graphics and graphic education, teachers were observed unfamiliar with many graphic genres. Overall, Generic graphical representations (i.e. line graph, pie charts, bar charts, maps and tables etc.) were identified more comfortably. However, classification of hybrid graphical representations (i.e. combination of map and bar graph or other hybrid graphics) was slightly difficult for the participants.
|
269 |
PaVo un tri parallèle adaptatif / PaVo. An Adaptative Parallel Sorting Algorithm.Durand, Marie 25 October 2013 (has links)
Les joueurs exigeants acquièrent dès que possible une carte graphique capable de satisfaire leur soif d'immersion dans des jeux dont la précision, le réalisme et l'interactivité redoublent d'intensité au fil du temps. Depuis l'avènement des cartes graphiques dédiées au calcul généraliste, ils n'en sont plus les seuls clients. Dans un premier temps, nous analysons l'apport de ces architectures parallèles spécifiques pour des simulations physiques à grande échelle. Cette étude nous permet de mettre en avant un goulot d'étranglement en particulier limitant la performance des simulations. Partons d'un cas typique : les fissures d'une structure complexe de type barrage en béton armé peuvent être modélisées par un ensemble de particules. La cohésion de la matière ainsi simulée est assurée par les interactions entre elles. Chaque particule est représentée en mémoire par un ensemble de paramètres physiques à consulter systématiquement pour tout calcul de forces entre deux particules. Ainsi, pour que les calculs soient rapides, les données de particules proches dans l'espace doivent être proches en mémoire. Dans le cas contraire, le nombre de défauts de cache augmente et la limite de bande passante de la mémoire peut être atteinte, particulièrement en parallèle, bornant les performances. L'enjeu est de maintenir l'organisation des données en mémoire tout au long de la simulation malgré les mouvements des particules. Les algorithmes de tri standard ne sont pas adaptés car ils trient systématiquement tous les éléments. De plus, ils travaillent sur des structures denses ce qui implique de nombreux déplacements de données en mémoire. Nous proposons PaVo, un algorithme de tri dit adaptatif, c'est-à-dire qu'il sait tirer parti de l'ordre pré-existant dans une séquence. De plus, PaVo maintient des trous dans la structure, répartis de manière à réduire le nombre de déplacements mémoires nécessaires. Nous présentons une généreuse étude expérimentale et comparons les résultats obtenus à plusieurs tris renommés. La diminution des accès à la mémoire a encore plus d'importance pour des simulations à grande échelles sur des architectures parallèles. Nous détaillons une version parallèle de PaVo et évaluons son intérêt. Pour tenir compte de l'irrégularité des applications, la charge de travail est équilibrée dynamiquement par vol de travail. Nous proposons de distribuer automatiquement les données en mémoire de manière à profiter des architectures hiérarchiques. Les tâches sont pré-assignées aux cœurs pour utiliser cette distribution et nous adaptons le moteur de vol pour favoriser des vols de tâches concernant des données proches en mémoire. / Gamers are used to throw onto the latest graphics cards to play immersive games which precision, realism and interactivity keep increasing over time. With general-propose processing on graphics processing units, scientists now participate in graphics card use too. First, we examine these architectures interest for large-scale physics simulations. Drawing on this experience, we highlight in particular a bottleneck in simulations performance. Let us consider a typical situation: cracks in complex reinforced concrete structures such as dams are modelised by many particles. Interactions between particles simulate the matter cohesion. In computer memory, each particle is represented by a set of physical parameters used for every force calculations between two particles. Then, to speed up computations, data from particles close in space should be close in memory. Otherwise, the number of cache misses raises up and memory bandwidth may be reached, specially in parallel environments, limiting global performance. The challenge is to maintain data organization during the simulations despite particle movements. Classical sorting algorithms do not suit such situations because they consistently sort all the elements. Besides, they work upon dense structures leading to a lot of memory transfers. We propose PaVo, an adaptive sort which means it benefits from sequence presortedness. Moreover, to reduce the number of necessary memory transfers, PaVo spreads some gaps inside the data structure. We present a large experimental study and confront results to reputed sort algorithms. Reducing memory requests is again more important for large scale simulations with parallel architectures. We detail a parallel version of PaVo and evaluate its interest. To deal with application irregularities, we do load balancing with work-stealing. We take advantage of hierarchical architectures by automatically distributing data in memory. Thus, tasks are pre-assigned to cores with respect to this organization and we adapt the scheduler to favor steals of tasks working on data close in memory.
|
270 |
A securitização do terrorismo no contexto sul-americano : dinâmicas das relações de segurança interamericanas no século XXILammerhirt, Laura Vicentin January 2018 (has links)
O presente trabalho tem como objetivo analisar os processos de inserção do terrorismo na agenda de segurança sul-americana. Ele se enquadra nas Resoluções nº 114/2014 e 115/2014 da Câmara de Pós-Graduação da Universidade Federal do Rio Grande do Sul e, portanto, é dividido em três partes. A PARTE I consiste em uma contextualização do objeto de pesquisa, composta por uma descrição geral do objetivo do trabalho, bem como a delimitação do objeto, marco teórico e marco temporal. A PARTE II apresenta o artigo em si, o qual analisa os processos de securitização do terrorismo no Norte Andino, a partir da associação entre os movimentos guerrilheiros colombianos e o narcotráfico com o terrorismo, e no Cone Sul, através das suspeitas de financiamento de grupos extremistas islâmicos decorrente de atividades ilícitas na região da tríplice fronteira entre Argentina, Brasil e Paraguai. O objetivo consiste em demonstrar as maneiras com as quais o terrorismo foi inserido na agenda regional de segurança e as influências dos atores externos e internos nestes processos. Para tanto, foram utilizadas técnicas de analise qualitativa, com base nas contribuições da Escola de Copenhague, no âmbito dos Estudos de Segurança Internacional, no exame de documentos oficiais e mídias locais dos países envolvidos. A PARTE III apresenta a descrição da agenda de pesquisa a ser seguida. / This paper aims to analyze the processes of the insertion of terrorism in the South American security agenda. It is in accordance with Resolutions 114/2014 and 115/2014 of the Federal University of Rio Grande do Sul and is therefore divided into three parts. PART I consists in a contextualization of the object of research, composed by a general description of the paper’s objectives, as well as the delimitation of the object, theoretical framework, and timeframe. PART II presents the article itself, which analyzes the processes of securitization of terrorism in the Andean North, throughout the association between Colombian guerrilla movements and narcotrafficking with terrorism, and in the Southern Cone, through the suspicions of Islamic extremist groups financing due to illicit activities in the tri-border area between Argentina, Brazil and Paraguay. The main goal is to demonstrate the means through which terrorism was inserted in the regional security agenda and the influences of external and internal actors in these processes. In order to do so techniques of qualitative analysis were used, based on the contributions of the Copenhagen School, under the scope of International Security Studies, in the examination of official documents and local medias. PART III presents the description of the research agenda to be followed.
|
Page generated in 0.0494 seconds