• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 661
  • 190
  • 68
  • 3
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 950
  • 352
  • 282
  • 190
  • 148
  • 99
  • 93
  • 91
  • 89
  • 89
  • 86
  • 83
  • 83
  • 82
  • 69
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Méthode SAT et algorithme DPLL appliqués à un problème de recherche opérationnelle

Rahmoune, Nabila January 2006 (has links) (PDF)
La littérature fait état des travaux de recherches qui ont été menés pour la résolution des problèmes d'ordonnancement de production. La complexité de ces problèmes rend nécessaire l'emploi de stratégies de recherche de solutions évoluées. Parmi celle-ci figure le formalisme du calcul propositionnel, le plus souvent sous forme normale conjonctive (FNC) associé au problème de satisfiabilité (SAT). Le présent travail de recherche a pour but d'intégrer les formalismes d'approches de résolution des problèmes SAT pour la résolution du problème d'ordonnancement de production, soit le problème d'ordonnancement de véhicules, proposé dans le cadre du challenge ROADEF'2005. Dans un premier temps, les principaux algorithmes pour la résolution de problème SAT sont présentés, particulièrement les algorithmes basés sur le retour en arrière tels que le retour-arrière (Backtracking) et le retour ponctuel (Backjumping) étendus sur les TL-clauses (True-Literal clauses). Ce travail de recherche couvre le développement de trois approches de résolutions du problème SAT appliquées au problème d'ordonnancement de véhicules. Pour chaque approche un encodage en FNC/TL traduisant les contraintes du problème ainsi que l'objectif à optimiser sont effectués. Ces FNC/TL sont générées en format DIMACS à l'aide du logiciel développé par l'auteur. Ensuite, une stratégie de résolution est décrite, en fixant à chaque fois l'objectif à optimiser. Dans la première approche, le problème est traité globalement. Les deux autres approches subdivisent le problème initial en sous-problèmes. Finalement une comparaison des trois approches est décrite. Les instances du problème proposées par le challenge ROADEF'2005 sont utilisées comme base d'évaluation des approches développées. Les résultats obtenus sont comparés aux meilleurs résultats obtenus par le gagnant du challenge ROADEF'2005, à l'aide du logiciel suggéré par le challenge, soit exeCarSeq. Une analyse détaillée des résultats montre que notre stratégie de résolution du problème d'ordonnancement de véhicules est une voie prometteuse. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Forme normale conjonctive, Problème de satisfiabilité, Problème d'ordonnancement de véhicules, TL-clauses, Encodage en FNC/TL.
42

Un algorithme heuristique pour l'attribution des cours

Xia, Ning 12 1900 (has links) (PDF)
À chaque semestre, la direction du Département d'informatique de l'UQAM doit convenablement affecter les divers groupes-cours disponibles à ses professeurs, en se basant sur leurs préférences et certaines règles adoptées par l'assemblée départementale. Le but de notre travail est développer un algorithme qui trouve une solution de bonne qualité à ce problème, et ce dans un temps raisonnable. Dans ce mémoire, nous appliquons deux approches différentes pour résoudre le problème d'affectation des groupes-cours. La première est basée sur un algorithme branch-and-bound, qui est un algorithme de recherche exhaustif et complet. La deuxième est basée sur un processus heuristique de recherche local amélioré. Plus particulièrement, nous nous concentrons sur l'algorithme de recherche local. Des algorithmes de recherche locale divers sont présentés, entre autres, la recherche locale guidée et le recuit simulé. Ce que nous faisons n'est pas simplement d'appliquer ces algorithmes et les combiner ensemble. Nous essayons aussi de nous inspirer de ces algorithmes pour mettre au point quelques nouvelles idées appropriées pour notre propre problème. Finalement, nous utilisons les résultats expérimentaux obtenus par l'algorithme branch-and-bound comme point de référence en ce qui concerne la qualité de la solution et le temps d'exécution pour évaluer les autres approches. Les résultats que nous avons obtenus de données réelles et des données générées aléatoirement montrent que notre algorithme effectue un bon travail tant en termes de qualité de solution que de temps d'exécution. Les résultats montrent aussi que notre algorithme peut trouver une bonne solution à de grands problèmes en un temps raisonnable. ______________________________________________________________________________
43

Sensibilité de la précipitation à la résolution horizontale dans le modèle régional canadien du climat

Powers, Michael Jr. 09 1900 (has links) (PDF)
À l'aide de la quatrième génération du Modèle Régional Canadien du Climat (MRCC4), deux paires de simulations pilotées à leurs frontières par les réanalyses NCEP NRA-2 ont été créées pour deux régions distinctes du Canada : 1) l'ouest canadien (WEST CAN), et 2) l'est canadien (EAST CAN). Pour ces deux régions, chaque paire de simulations consiste en une simulation dont la résolution horizontale est de 15 km (vrai à 60°N) et une simulation dont la résolution horizontale est de 45 km (vrai à 60°N). En utilisant ces simulations, cette étude tente de déterminer l'impact de l'augmentation de la résolution horizontale sur le champ de précipitation du modèle. Les résultats montrent que l'augmentation de la résolution horizontale permet d'obtenir une représentation plus réaliste de la topographie dans les simulations à 15 km, puisqu'elles illustrent de plus fines caractéristiques du terrain, tels que d'étroites et profondes vallées ainsi que de hauts, mais petits, complexes montagneux. De plus, notre étude révèle que les simulations à 15 km produisent davantage de convergence d'humidité et d'évapotranspiration, menant ainsi à une augmentation de la précipitation. L'augmentation de la résolution permet à la simulation à 15 km de produire de la neige durant toute l'année au sommet des plus hautes montagnes du domaine WEST CAN. Pour le domaine EAST CAN, la précipitation totale et solide plus grande retrouvée dans la simulation à 15 km mène à un ruissellement supérieur à celui retrouvé dans la simulation à 45 km. En comparant la précipitation simulée avec la précipitation observée provenant du réseau de stations d'Environnement Canada mesurant la précipitation horaire, on trouve que les simulations à 15 km produisent une distribution de la fréquence des précipitations horaires et une distribution de l'intensité des précipitations plus réaliste. Contrairement aux simulations à 15 km, les simulations à 45 km produisent moins d'événements horaires d'intensité modérée à très forte (3-10 mm/h) que ce qui est observé. Néanmoins, autant les simulations à 15 km que celles à 45 km produisent un biais positif en termes de fréquence et d'intensité des événements horaires de faibles intensités (0,2-3 mm/h). Conséquemment, une trop grande quantité de précipitation est générée annuellement par ce type d'événements, comparativement aux observations. La précipitation simulée est alors généralement plus grande que celle observée. Notre étude révèle également que pour analyser la fréquence et l'intensité de la précipitation, il est plus approprié d'utiliser une période d'accumulation d'une heure plutôt qu'une période d'accumulation de 24 heures. En effet, cela nous permet de comprendre plus facilement quels types d'événements le modèle est capable de reproduire et quelle est la contribution (en termes de quantité de précipitation) de chacun de ces événements. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : modélisation régionale du climat, haute résolution, précipitation, MRCC
44

Analyse des ressources mises à contribution par enseignant et chercheur dans l'élaboration de scénarios d'enseignement en dénombrement visant le développement de la modélisation en secondaire I

Barry, Souleymane January 2009 (has links) (PDF)
La combinatoire élémentaire ou le dénombrement évoque pour beaucoup d'élèves de nombreuses expériences négatives, lorsqu'elle est un objet explicite d'enseignement, l'accent étant souvent mis dans cet enseignement sur le recours à des formules de dénombrement que les élèves ne peuvent rattacher à des modèles de situations (Grenier et Payan, 1998). Dans cette recherche nous sommes intéressé à explorer des voies et moyens permettant d'associer des expériences plus positives à la résolution de problèmes combinatoires, et ce dès les premières années du secondaire. Un tel pari apparaît d'autant plus pertinent que plusieurs études soulignent d'une part non seulement des caractéristiques intéressantes des problèmes combinatoires, soit le fait qu'ils n'exigent presque aucun prérequis notionnel de la part des élèves (Kapur, 1970) et qu'ils sont très peu mathématisés (Grenier et Payan, 1998). Elles soulignent également les accomplissements des élèves qui sont capables, lorsque les situations qu'on leur propose sont bien choisies, de développer des heuristiques puissantes, d'inventer des méthodes de justification ou de validation (Maher, Martino et Alston, 1993; Powell et Maher, 2002). Les problèmes combinatoires apparaissent ainsi intéressants à travailler à différents niveaux d'enseignement et se prêtent au développement de plusieurs processus mathématiques tels la mathématisation, la preuve, le raisonnement inductif (Kapur, 1970; Dubois, 1984; Batanero, Godino et Navarro-Pelayo, 1994; Sriraman et English, 2004). C'est à l'un de ces processus, la modélisation que nous nous sommes plus particulièrement attardé, rejoignant en cela d'autres chercheurs comme Grenier et Payan (1998), mais aussi le nouveau programme de mathématiques du premier cycle du secondaire de l'école québécoise (MELS, 2003) dans lequel la modélisation est associée à la compétence à résoudre des situations-problèmes. Dans la perspective théorique particulière que nous retenons sur la modélisation, celle d'une « modélisation émergente » (Gravemeijer, 2007), l'accent est mis sur l'activité informelle des élèves à qui il faut donner l'opportunité de créer des « modèles spontanés » et par la suite de les revisiter, les raffiner et au besoin de les généraliser (Gravemeijer, 1999). L'élaboration d'une approche d'enseignement mettant l'accent sur l'exploitation de problèmes de dénombrement et le développement du processus de modélisation exige toutefois que le chercheur se donne également une perspective particulière pour aborder la conceptualisation de ces scénarios d'enseignement. Plusieurs recherches ont contribué à développer des situations et séquences sur l'exploration de la combinatoire. Dans ce cas, les séquences ont pour l'essentiel été élaborées par les chercheurs, à partir d'analyses didactiques préalables, et ce, pour les apprentissages potentiels qu'elles favorisent chez les élèves (Glaymann et Varga, 1975; Fischbein et Gazit, 1988; Batanero, Godino et Navarro-Pelayo, 1994). Bien sûr, dans le cas de ces différents travaux portant sur la combinatoire et son exploitation, des expérimentations ont été réalisées en classe auprès d'élèves, et des enseignants ont souvent été impliqués dans l'implantation de ces situations. Toutefois, le rôle qu'y jouent ces enseignants demeure limité à ces expérimentations. Leurs visions quant à la manière dont un tel sujet peut se développer et fonctionner en pratique, leurs connaissances, leur savoir d'expérience n'est pas vraiment pris en compte dans la conceptualisation des situations élaborées, qui demeurent donc ici sous l'entière responsabilité des chercheurs. La perspective adoptée par les chercheurs dans ce cas, vis-à-vis de l'enseignant, s'inscrit dans le courant plus global de la recherche en didactique des mathématiques au plan international dans les années 1990 (Hoyles, 1992; Ponte, 1994; Jaworski, sous presse). Cette prise en compte de l'enseignant, de la complexité du travail auquel il fait face dans la pratique, des connaissances qu'il construit -en pratique, est en effet un phénomène relativement récent (Jaworski, sous presse). C'est dans cette dernière perspective que se place notre travail. Pour construire des situations fécondes sur le plan des apprentissages des élèves, mais aussi viables dans les pratiques des enseignants, tenant compte des contraintes et de la complexité de leur pratique, il nous apparaît en effet nécessaire de prendre en compte le point de vue des enseignants, leur savoir d'expérience, leurs connaissances dans la construction même de scénarios visant le développement du processus de modélisation. Nous avons cherché à documenter, de l'intérieur d'une démarche conjointe d'élaboration d'un tel scénario, les apports respectifs du chercheur et de l'enseignant sous l'angle: des problèmes de dénombrement élaborés; du processus de modélisation développé par les élèves en lien avec ces problèmes et leur exploitation; de l'enseignement visant le développement de ce processus. Une recherche collaborative a été menée à cette fin, impliquant le chercheur et un enseignant de mathématique au secondaire qui ont eu à élaborer et expérimenter dans deux classes de secondaire 1 d'une école de la région de Montréal deux scénarios, un premier en novembre 2006 et un second en mai 2007. La démarche de recherche a pris la forme de rencontres réflexives d'élaboration des scénarios et de retour sur les scénarios expérimentés (le dialogue initié lors de ces rencontres se poursuivant sous une forme virtuelle). Le matériau engrangé puis analysé est donc constitué principalement des verbatims des rencontres réflexives de construction des scénarios et de retour sur les scénarios (bilans et récits d'expérimentation). Une analyse par théorisation ancrée (Glaser et Strauss, 1967) nous a permis de dégager de multiples ressources mobilisées par l'enseignant et le chercheur, nous édifiant ainsi sur leur éclairage respectif sur : les problèmes de dénombrement en jeu, le processus de modélisation par les élèves et l'enseignement visant le développement de ce processus. Ces ressources sont de deux sortes: des ressources interprétatives, c'est-à-dire permettant de donner un sens, de proposer une certaine lecture des aspects abordés dans ce travail conjoint d'élaboration de scénarios, et des ressources d'action, c'est-à-dire des ressources prenant la forme de suggestions de manières de faire, de propositions d'aménagement ou d'animation. Ces ressources, interprétatives et d'action, puisent aux cadres de référence du chercheur et de l'enseignant, mais elles montrent une certaine sensibilité théorique et une capacité d'interprétation. Selon le cas, la lecture interprétative de l'enseignant confirme, réfute, nuance ou étend celle du chercheur qui, au demeurant, témoigne d'une certaine sensibilité pratique, sensibilités théorique et pratique n'étant en définitive l'apanage ni de l'un ni de l'autre. Notre étude permet donc d'élargir la notion de ressources interprétatives telle que l'envisage la sociologie de l'expérience qui la définit surtout en termes de ressources argumentatives et critiques permettant aux acteurs de prendre position par rapport aux élaborations, théories proposées par les chercheurs (Dubet, 1994). Dans une telle perspective, le croisement est vu de façon dichotomique, en termes uniquement des accords et des désaccords entre les acteurs et les chercheurs. Entre les deux, l'accord et la réfutation, avons-nous montré, il y a l'espace d'une nuance, d'une extension. Enfin, dans l'optique du développement du processus de modélisation en début secondaire, l'analyse nous a permis de mettre en évidence des caractéristiques que l'on gagnerait à retrouver dans des problèmes combinatoires, d'identifier des routines d'appui et d'échanges à installer puis à maintenir dans la classe et ce pour installer une culture de modélisation (Tanner et Jones, 1994). Ce travail sur la modélisation s'inscrlt dans une pragmatique de la résolution de problèmes questionnant à la fois la prépondérance dans l'enseignement des problèmes d'application et la recherche à tout prix de l'efficacité chez les élèves. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Ressources, Interprétation, Action, Développement, Modélisation.
45

L'anneau de cohomologie des résolutions crépantes de certaines singularités-quotient

Garino, Sébastien 25 June 2007 (has links) (PDF)
Le quotient géométrique d'une variété lisse par l'action d'un groupe fini préservant le volume est une variété singulière. La correspondance de McKay relie la géométrie des résolutions crépantes du quotient et la géométrie de l'action sur la variété lisse. Sous certaines hypothèses, le schéma de Hilbert équivariant de la variété lisse est une résolution crépante. Nous interprétons ce schéma en terme de grassmannienne d'algèbres équivariante, afin d'en déduire une description explicite. D'après la conjecture de Ruan, modulo une déformation quantique, l'anneau de cohomologie d'une résolution crépante est isomorphe à l'anneau de cohomologie orbifold du quotient. Pour le quotient d'une variété de dimension trois locale (espace vectoriel avec action linéaire) ou compacte, nous calculons l'anneau de cohomologie des résolutions crépantes. Dans le cas local, un exemple montre la nécessité de la déformation quantique dans la conjecture. Dans le cas compact, l'analogie entre les deux anneaux conforte la conjecture.
46

Recalage multi-modal automatique : technique de multi-résolution parallèle appliquée à la TEP et l'IRM / Multi-modal automatic registration : A parallel multi-resolution approach applied to PET-MRI

Bernier, Michaël January 2012 (has links)
Résumé : Le recalage automatique des images issues de la tomographie par émission de positrons (TEP) et de l’imagerie par résonance magnétique (IRM) du petit animal pose un problème difficile à résoudre, tant sur l’aspect de la précision, du taux de réussite et de convergence que sur la rapidité d’exécution. En fait, la plupart des techniques de recalage actuelles sont développées et appliquées aux cerveaux humains, mais ne sont pas aussi efficaces lorsqu’appliquées sur des données animales. L’anisotropie impor¬tante des voxels (résolution fine dans le plan de l’acquisition, mais grande épaisseur de coupe) et la dégradation des images associée à ce type d’acquisition s’additionne au manque d’information d’intensité et de complexité anatomique de ce type de jeu de données. Ce mémoire met l’accent sur les techniques multimodales de recalage automatique et de leurs limites, appliquées particulièrement à la TEP et l’IRM du petit animal. Dans l’article principal présenté dans ce mémoire, nous proposons une mesure qui utilise un recalage multirésolution en parallèle (imbriqué dans la fonction d’énergie) au lieu d’une approche classique de multirésolution séquentielle, influen¬çant directement la procédure du recalage. En combinant les niveaux de basse et haute résolution des images, nous nous assurons une plus grande insensibilité par rapport au bruit, d’une ouverture accrue permettant une meilleure convergence et rapidité d’exécution. L’article démontre que notre nouvelle approche automatique est un algorithme de recalage robuste et efficace avec un taux de réussite élevé. Nous présentons également dans ce mémoire certains détails d’implantation de l’outil, qui a été créé par l’auteur de ce document, reposant sur le recalage classique et la nouvelle méthode décrite dans ce mémoire.||Abstract: Automatic registration of small animal Positron Emission Tomography (PET) and Magnetic Resonance Imaging (MRI) data represents a difficult problem in terms of convergence speed, accuracy and success rate. In fact, most existing registration methods are developed and applied to human brain volumes but these are not as effective for small animal data because of the lack of intensity information in the images and often the large anisotropy in voxel dimensions (very small in-plane resolution and large slice thickness). This master thesis focuses on multi-modal automatic registration techniques and their limitations, especially applied to PET-MRI registration. In the main article of this master thesis, we propose a new registration measure that combines multi-resolution in parallel (in the same energy function) instead of a classic sequential multi-resolution, which influence the procedure of the registration as well. By combining low and high resolution levels of images, we can gain from the low noise sensitivity and aperture at coarse levels and higher contrast and details at higher levels, which helps convergence accuracy and speed. The paper shows that our new approach is therefore an automatic, robust and efficient registration algorithm with a high success rate. We also present in this document some implementation details on the tool which was created by the author of this thesis based on the classic registration and the new approach described in this thesis.
47

La résolution de problèmes arithmétiques verbaux au primaire : microanalyse de la dialectique sujet/matériel

Cadet, Élysée Robert 16 April 2014 (has links)
La résolution de problèmes arithmétiques verbaux demeure très problématique pour l’élève du primaire. Les recherches dans ce domaine privilégient la compréhension de l’énoncé des problèmes. Une recension critique des écrits a confirmé une meilleure réussite avec un matériel disponible par rapport à une condition sans matériel sans pour autant expliciter avec finesse la genèse de cette différence. Dans cette recherche doctorale, six élèves d’une classe régulière de troisième année du primaire ont réalisé trois activités de résolution de problèmes arithmétiques verbaux de type additif dans un environnement familier avec des jetons disponibles comme matériel de manipulation. Une analyse de la réalisation de ces activités selon le prisme de la dialectique sujet/matériel a indiqué un rapport pictural ou symbolique de ces élèves avec un matériel autre que les jetons. Une microanalyse de ces activités a mis en relief l’évolution d’un matériel d’une forme plutôt personnelle à une forme plutôt conventionnelle dans la représentation de ces élèves. Cette évolution, souvent non consciente, présente un comportement de ces élèves dans cette activité qualifié d’être en mathématiques. Pourtant, la conscience de cette évolution peut mener à la réussite de la résolution de ces problèmes.
48

Superresolution fluorescence microscopy with structured illumination / Microscopie de fluorescence à super-résolution par éclairement structuré

Negash, Awoke 29 November 2017 (has links)
Récemment, de nombreuses techniques de microscopie de fluorescence de super-résolution ont été développées pour permettre d'observer de nombreuses structures biologiques au-delà de la limite de diffraction. La microscopie d'illumination structurée (SIM) est l'une de ces technologies. Le principe de la SIM est basé sur l'utilisation d'une grille de lumière harmonique qui permet de translater les hautes fréquences spatiales de l'échantillon vers la région d’observation du microscope. Les méthodes classiques de reconstruction SIM nécessitent une connaissance parfaite de l'illumination de l’échantillon. Cependant, l’implémentation d’un contrôle parfait de l’illumination harmonique sur le plan de l'échantillon n'est pas facile expérimentalement et il présente un grand défi. L’hypothèse de la connaissance parfaite de l’intensité de la lumière illuminant l’échantillon en SIM peut donc introduire des artefacts sur l’image reconstruite de l'échantillon, à cause des erreurs d’alignement de la grille qui peuvent se présenter lors de l’acquisition expérimentale. Afin de surmonter ce défi, nous avons développé dans cette thèse des stratégies de reconstruction «aveugle» qui sont indépendantes de d'illumination. À l'aide de ces stratégies de reconstruction dites «blind-SIM», nous avons étendu la SIM harmonique pour l’appliquer aux cas de «SIM-speckle» qui utilisent des illuminations aléatoires et inconnues qui contrairement à l’illumination harmonique, ne nécessitent pas de contrôle. / Recently, many superresolution fluorescence microscopy techniques have been developed which allow the observation of many biological structures beyond the diffraction limit. Structured illumination microscopy (SIM) is one of them. The principle of SIM is based on using a harmonic light grid which downmodulates the high spatial frequencies of the sample into the observable region of the microscope. The resolution enhancement is highly dependent on the reconstruction technique, which restores the high spatial frequencies of the sample to their original position. Common SIM reconstructions require the perfect knowledge of the illumination pattern. However, to perfectly control the harmonic illumination patterns on the sample plane is not easy in experimental implementations and this makes the experimental setup very technical. Reconstructing SIM images assuming the perfect knowledge of the illumination intensity patterns may, therefore, introduce artifacts on the estimated sample due to the misalignment of the grid that can occur during experimental acquisitions. To tackle this drawback of SIM, in this thesis, we have developed blind-SIM reconstruction strategies which are independent of the illumination patterns. Using the 3D blind-SIM reconstruction strategies we extended the harmonic SIM to speckle illumination microscopy which uses random unknown speckle patterns that need no control, unlike the harmonic grid patterns.
49

High Performance Computational Fluid Dynamics on Clusters and Clouds : the ADAPT Experience / Haute performance pour le calcul de la fluide dynamique sur les clusters et les clouds : l’expérience ADAPT

Kissami, Imad 28 February 2017 (has links)
Dans cette thèse, nous présentons notre travail de recherche dans le domaine du calcul haute performance en mécanique des fluides (CFD) pour architectures de type cluster et cloud. De manière générale, nous nous proposons de développer un solveur efficace, appelé ADAPT, pour la résolution de problèmes de CFD selon une vue classique correspondant à des développements en MPI et selon une vue qui nous amène à représenter ADAPT comme un graphe de tâches destinées à être ordonnancées sur une plateforme de type cloud computing. Comme première contribution, nous proposons une parallélisation de l’équation de diffusion-convection couplée àun système linéaire en 2D et en 3D à l’aide de MPI. Une parallélisation à deux niveaux est utilisée dans notre implémentation pour exploiter au mieux les capacités des machines multi-coeurs. Nous obtenons une distribution équilibrée de la charge de calcul en utilisant la décomposition du domaine à l’aide de METIS, ainsi qu’une résolution pertinente de notre système linéaire creux de très grande taille en utilisant le solveur parallèle MUMPS (Solveur MUltifrontal Massivement Parallèle). Notre deuxième contribution illustre comment imaginer la plateforme ADAPT, telle que représentée dans la premièrecontribution, comme un service. Nous transformons le framework ADAPT (en fait, une partie du framework)en DAG (Direct Acyclic Graph) pour le voir comme un workflow scientifique. Ensuite, nous introduisons de nouvelles politiques à l’intérieur du moteur de workflow RedisDG, afin de planifier les tâches du DAG, de manière opportuniste.Nous introduisons dans RedisDG la possibilité de travailler avec des machines dynamiques (elles peuvent quitter ou entrer dans le système de calcul comme elles veulent) et une approche multi-critères pour décider de la “meilleure”machine à choisir afin d’exécuter une tâche. Des expériences sont menées sur le workflow ADAPT pour illustrer l’efficacité de l’ordonnancement et des décisions d’ordonnancement dans le nouveau RedisDG. / In this thesis, we present our research work in the field of high performance computing in fluid mechanics (CFD) for cluster and cloud architectures. In general, we propose to develop an efficient solver, called ADAPT, for problemsolving of CFDs in a classic view corresponding to developments in MPI and in a view that leads us to represent ADAPT as a graph of tasks intended to be ordered on a cloud computing platform. As a first contribution, we propose a parallelization of the diffusion-convection equation coupled to a linear systemin 2D and 3D using MPI. A two-level parallelization is used in our a implementation to take advantage of thecurrent distributed multicore machines. A balanced distribution of the computational load is obtained by using the decomposition of the domain using METIS, as well as a relevant resolution of our very large linear system using the parallel solver MUMPS (Massive Parallel MUltifrontal Solver). Our second contribution illustrates how to imagine the ADAPT framework, as depicted in the first contribution, as a Service. We transform the framework (in fact, a part of the framework) as a DAG (Direct Acyclic Graph) in order to see it as a scientific workflow. Then we introduce new policies inside the RedisDG workflow engine, in order to schedule tasks of the DAG, in an opportunistic manner. We introduce into RedisDG the possibility to work with dynamic workers (they can leave or enter into the computing system as they want) and a multi-criteria approach to decide on the “best” worker to choose to execute a task. Experiments are conducted on the ADAPT workflow to exemplify howfine is the scheduling and the scheduling decisions into the new RedisDG.
50

Développement et caractérisation de techniques pour l’amélioration de la sensibilité et de la résolution spatiale des sources MALDI : désolvatation laser et masques / Development and characterization techniques for improving the sensitivity and spatial resolution of MALDI sources : laser desolvation and masks

Diologent, Laurent 18 July 2013 (has links)
La spectrométrie de masse MALDI est une technique devenue incontournable pour l’analyse des biomolécules et largement employée dans de nombreuses applications. Bien que les performances de cette source soient notoires, celles-ci restent encore limitées en particulier en termes de sensibilité ou encore de résolution spatiale pour des applications telles que l’imagerie MALDI MS. En effet, les rendements de production d’ions sont très faibles en MALDI et chutent encore lorsque la résolution spatiale est augmentée (diminution de l’aire irradiée). Ainsi, les objectifs de ces travaux de thèse ont été de développer et d’étudier deux systèmes permettant d’augmenter la sensibilité. La première partie de ces travaux a donc portée sur la réalisation d’un système permettant la désolvatation des agrégats formés dans le processus MALDI via l’utilisation d’un second faisceau laser interceptant la plume en expansion. Par utilisation d’un laser pulsé émettant à 1064 nm il a été ainsi possible de démontrer une augmentation d’un facteur 2 à 3 de l’intensité des signaux d’analyte. Dans une seconde partie, un système de masques de silicium permettant de réduire les dimensions de la zone irradiée (sans agir sur la focalisation du faisceau laser) a été développé. Les études réalisées pour différentes géométries de ces masques ont permis de démontrer d’une part l’efficacité de ces systèmes pour réduire l’aire de la zone irradiée en coupant le faisceau laser incident tout en maintenant l’intensité des signaux, et d’autre part que certaines géométries particulières permettaient d’obtenir un effet d’augmentation de la sensibilité et de la résolution spectrale. / MALDI Mass Spectrometry is an essential tool for biomolecules analysis and is largely employed in various applications. Albeit performances of this ion source are well known, there are still clear limitations in terms of sensitivity and spatial resolution for applications such as MALDI MS Imaging. Indeed, ion production yields are very low in MALDI and, moreover drop when spatial resolution is increased (decrease of irradiated area). Thus, objectives of this work were to develop and study two systems for improving sensitivity. First part of this work was dedicated to setup a system allowing desolvation of material clusters formed in the MALDI process by using a second laser to intercept the expanding plume. By using a pulsed laser emitting at 1064 nm, it was possible to demonstrate an increase of signal intensity by 2 to 3 folds. In a second part, Silicon mask systems allowing reduction of irradiated area (without involving any focusing of the laser beam) was developed. Studies of various geometries of the mask showed their efficiency to reduce irradiated area by cutting part of the laser beam while maintaining signal intensity. Moreover, for certain geometries it was demonstrated that masks could lead to an increase in sensitivity and spectral resolution.

Page generated in 0.4766 seconds