• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1009
  • 504
  • 139
  • 4
  • 2
  • 1
  • 1
  • Tagged with
  • 1643
  • 459
  • 446
  • 336
  • 328
  • 290
  • 262
  • 250
  • 234
  • 217
  • 203
  • 188
  • 178
  • 165
  • 162
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
721

Influence de la composition chimique des tissus humains sur les dépôts de dose en hadronthérapie

Batin, E. 23 June 2008 (has links) (PDF)
Les systèmes de planification dosimétrique utilisent pour calculer le dépôt de dose dans l'être humain d'une part une description des tissus basée sur l'imagerie scanographique et d'autre part une description de l'interaction du faisceau reposant sur une équivalence eau des tissus, à laquelle peut s'ajouter un facteur de diffusion. Du fait du type de rayonnement et de l'énergie utilisés en scanographie, les nombres CT doivent être convertis en facteurs d'équivalence eau avant d'être utilisés par le système de planification.<br />Une détermination par simulation GEANT4 du facteur d'équivalence eau en fonction des nombres CT est proposée. Les facteurs de 77 tissus humains ont été déterminés pour un faisceau de protons de 135 MeV et de 12C de 290 MeV/A et comparés à ceux rapportés dans la littérature. Aux erreurs de détermination (<1.5%) s'ajoutent les incertitudes liées à l'acquisition des nombres CT, ces dernières pouvant atteindre 2%.<br />Les facteurs d'équivalence eau ont ensuite été utilisés pour convertir les courbes d'énergie déposée obtenues dans un tissu à celles obtenues dans l'eau et inversement. Ces courbes d'énergie déposée recalées ont été comparées aux courbes d'énergie déposée issues de la simulation. Pour les deux faisceaux, un accord en position inférieur à 0.5 mm est atteint. Des différences selon les tissus apparaissent au niveau de l'énergie maximale déposée. Elles peuvent atteindre 3% pour les tissus osseux et le faisceau de protons et varient entre 1.5% et 3.5% pour le faisceau de 12C, quel que soit le tissu. Une amélioration significative des recalages de l'énergie déposée en deux dimensions est obtenue en introduisant un facteur supplémentaire permettant de corriger de la diffusion.
722

Localisation et cartographie simultanées par ajustement de faisceaux local : propagation d'erreurs et réduction de la dérive à l'aide d'un odomètre

Eudes, Alexandre 14 March 2011 (has links) (PDF)
Les travaux présentés ici concernent le domaine de la localisation de véhicule par vision artificielle. Dans ce contexte, la trajectoire d'une caméra et la structure3D de la scène filmée sont estimées par une méthode d'odométrie visuelle monoculaire basée sur l'ajustement de faisceaux local. Les contributions de cette thèse sont plusieurs améliorations de cette méthode. L'incertitude associée à la position estimée n'est pas fournie par la méthode d'ajustement de faisceaux local. C'est pourtant une information indispensable pour pouvoir utiliser cette position, notamment dans un système de fusion multi-sensoriel. Une étude de la propagation d'incertitude pour cette méthode d'odométrie visuelle a donc été effectuée pour obtenir un calcul d'incertitude temps réel et représentant l'erreur de manière absolue (dans le repère du début de la trajectoire). Sur de longues séquences (plusieurs kilomètres), les méthodes monoculaires de localisation sont connues pour présenter des dérives importantes dues principalement à la dérive du facteur d'échelle (non observable). Pour réduire cette dérive et améliorer la qualité de la position fournie, deux méthodes de fusion ont été développées. Ces deux améliorations permettent de rendre cette méthode monoculaire exploitable dans le cadre automobile sur de grandes distances tout en conservant les critères de temps réel nécessaire dans ce type d'application. De plus, notre approche montre l'intérêt de disposer des incertitudes et ainsi de tirer parti de l'information fournie par d'autres capteurs.
723

Modélisation et analyse de la sécurité dans un système de stockage pair-à-pair

Chaou, Samira 11 January 2013 (has links) (PDF)
Le sujet de ma thèse consiste à analyser la sécurité d'un système de stockage pair à pair. Durant la première phase j'ai commencé par me familiariser avec le système existant (que du code), par la suite j'ai analysé la résistance du système en la présence d'attaques internes (que j'ai implémenté) en utilisant la simulation (travaux publiés dans HPCS'11). Le simulateur utilisé est un simulateur propriétaire qui reprend le code initial du système et modulable. Les résultats de cette analyse (perte de données) m'ont conduit à mettre en place un mécanisme de détection pour détecter ces attaques avant qu'elles ne causent la perte des données. Ce mécanisme de détection consiste à mettre en place un système de notation à deux niveaux : niveau 1:notation des échanges entre pair, niveau 2: notation des notes accordées à chaque pair (confiance en ces notes). Le principe de ce système est basé sur l'historique des échanges et la diffusion des notes entre les pairs. Dans un premier temps un système de notation à un niveau à été modélisé, implémenté et son efficacité analysée en utilisant deux méthodes (simulation pour les résultats quantitatifs et le model-checking pour les résultats qualitatifs. Pour la partie modélisation et vérification j'ai utilisé le formalisme ABCD [1], et les compilateurs SNAKES[2] et NICO[3,4]. Les résultats ont montrés la limite de ce système de notation à un seul niveau. (Travaux publiés dans TMS'12). A noter que jusque là seulement quelques attaques ont été détectées. En parallèle de tout ça un travail de modélisation dans un contexte de génie logiciel à été fait. Modélisation de l'application (Java) en utilisant le formalisme ABCD.
724

Modélisation µPEEC : représentation des matériaux magnétiques par des courants de surface. Application aux noyaux ferrites 2D

Bui ngoc, Hai 03 May 2012 (has links) (PDF)
Le but de cette thèse est donc de mettre en œuvre la méthode µPEEC pour évaluer, sans avoir recours à des simulations ni à des mesures, la réluctance de circuits magnétiques simples en 2D et ce, afin de prédire leur comportement électromagnétique dès les phases de conception. Cela revient à chercher le champ créé par un brin conducteur rectiligne placé dans une fenêtre ronde ou rectangulaire de circuit magnétique comportant ou non un entrefer. Cette étude s'inscrit dans le cadre d'une recherche plus vaste, visant à élaborer le circuit équivalent de transformateurs, avant la réalisation de prototypes, afin d'optimiser ces composants au sein de leurs applications. Avant d'atteindre ce but, différentes étapes ont été franchies progressivement, en s'aidant de solutions analytiques et de simulations par éléments finis pour valider nos approches.
725

Nouvelles méthodes de modélisation neutronique des réacteurs rapides de quatrième Génération

Jacquet, Philippe 23 May 2011 (has links) (PDF)
Les critères de sureté qui régissent le développement de coeurs de réacteurs dequatrième génération implique l'usage d'outils de calcul neutronique performants. Unepremière partie de la thèse reprend toutes les étapes de modélisation neutronique desréacteurs rapides actuellement d'usage dans le code de référence ECCO. La capacité desmodèles à décrire le phénomène d'autoprotection, à représenter les fuites neutroniques auniveau d'un réseau d'assemblages combustibles et à générer des sections macroscopiquesreprésentatives est appréciée sur le domaine des réacteurs rapides innovants respectant lescritères de quatrième génération. La deuxième partie de ce mémoire se consacre à lamodélisation des coeurs rapides avec réflecteur acier. Ces derniers nécessitent ledéveloppement de méthodes avancées de condensation et d'homogénéisation. Plusieursméthodes sont proposées et confrontées sur un problème de modélisation typique : le coeurZONA2B du réacteur maquette MASURCA.
726

Observabilité et reconstitution d'état des réseaux de distribution du futur

Biserica, Monica ionela 16 September 2011 (has links) (PDF)
Dans le futur, les réseaux de distribution deviendront intelligents et actifs et seront utilisés au plus près de leurs limites car l'avènement de la dérégulation avec l'introduction massive de la production décentralisée induira une optimisation des infrastructures de l'énergie pour des besoins environnementaux d'une part, mais aussi par l'introduction de la concurrence dans un secteur autrefois monopolistique. Si on veut utiliser pleinement le potentiel des productions décentralisées dans les réseaux de distribution, on devra rendre ces réseaux observables au moyen de mesures qui seront intégrées dans les systèmes de supervision et de contrôle car sans observabilité et reconstruction d'état du réseau, le contrôle du réseau est impossible. Pour un grand réseau de distribution (quelques milliers de nœuds), avec un taux d'insertion important de productions décentralisées, l'observabilité en temps-réel devient très difficile. Dans la littérature scientifique, on ne trouve pas de travaux prenant en compte les réseaux intelligents et reconfigurables de demain avec production décentralisée massive. L'enjeu du projet sera donc de développer des algorithmes de reconstruction d'état prenant en compte les spécificités des réseaux du futur, à les valider et à les intégrer dans les outils de gestion des réseaux du distributeur. La reconstruction d'état permettra d'aider à l'automatisation et donc à l'introduction d'intelligence dans les réseaux de distribution du futur ainsi qu'à l'insertion massive de productions décentralisées.________________________________________
727

Outils Formels pour la Modélisation en Mécanique

Papegay, Yves 13 November 1992 (has links) (PDF)
Les outils présentés dans ce mémoire ont pour but d'améliorer, par l'apport de méthodes et de techniques de calcul formel, les performances et les capacités de calcul des logiciels qui modélisent et le comportement dynamique de systèmes de corps mécaniques reliés entre eux. On s'intéresse à la possibilité d'écrire de manière automatique un ensemble d'équations différentielles régissant la dynamique de tels systèmes à partir de leurs descriptions physiques. Dans le premier chapitre, on décrit soigneusement les objets mécaniques et mathématiques qui interviennent dans l'étude dynamique des systèmes multicorps, et on met en évidence un problème fondamental : la nature de l'ensemble des configurations admissibles des mécanismes à structures bouclées. Le deuxième chapitre est une étude détaillée, sur un exemple, des différentes méthodes de génération des équations du mouvement de systèmes multicorps, dans l'optique de leur implémentation dans un logiciel de calcul symbolique. Il montre l'intérêt des techniques formelles et permet de spécifier les outils qui doivent être créés pour mener à bien cette implémentation. Dans le troisième chapitre, on présente les outils formels qui ont été développés pour aider à construire un générateur automatique des équations de la dynamique de systèmes polyarticulés. On se consacre, dans le quatrième chapitre, à apporter des éléments de solutions au problème de la détermination de la dimension des variétés de configurations de mécanismes à structures bouclées. Plusieurs méthodes faisant appel à des techniques algébriques, probabilistes et géométriques sont exposées, ainsi que leurs implémentations, et leurs expérimentations.
728

Qualification du calcul de l'échauffement photonique dans les réacteurs nucléaires

Ravaux, Simon 25 March 2013 (has links) (PDF)
Ce travail de thèse répond à un besoin de qualification des outils permettant decalculer les échauffements photoniques dans les réacteurs nucléaires. En effet, laproblématique des échauffements g dans les matériaux de structure a pris de l'importanceces dernières années, notamment pour la sûreté des réacteurs de 3ème génération danslesquels un réflecteur lourd en acier est introduit.Les photons présents dans le coeur sont tous directement ou indirectement issus desinteractions des neutrons avec la matière. Ils sont créés au moment de l'interaction ou endifféré par l'intermédiaire de noyaux créés au moment de l'interaction. Par conséquent, lepremier axe de travail a été d'effectuer une analyse critique des données de productionphotonique dans les bibliothèques de données nucléaires standards. La découverted'omissions dans la bibliothèque JEFF-3.1.1 nous a amené à proposer une méthode deproduction de nouvelles évaluations contenant de nouveaux spectres d'émission de photong. Ces nouvelles évaluations ont ensuite été proposées et en partie acceptées pour lanouvelle version de la bibliothèque JEFF.Il existe deux codes de transport de particules développés au CEA : TRIPOLI4 etAPOLLO2. Le deuxième axe de travail a été de qualifier ces deux codes. Pour cela, nousavons interprété les mesures d'échauffement g effectuées dans le cadre du programmeexpérimental PERLE. Des détecteurs thermoluminescents (TLD) ont été introduits dans unréflecteur lourd en acier entourant un réseau de crayons combustibles. Nous avons dûproposer un schéma de calcul spécifique aux deux codes afin de calculer la réponse desTLD.Les comparaisons calcul-mesure ont montré que TRIPOLI4 permettait decorrectement estimer l'échauffement dans le réflecteur relativement à l'échauffement dans lazone fissile. En effet, les écarts calcul-mesure sont inférieurs à l'incertitude expérimentale à1s. Pour le calcul APOLLO2, nous avons tout d'abord commencé par une phase devalidation par rapport à TRIPOLI4 afin d'estimer les biais liés aux approximations imposéespar le traitement déterministe du transport des particules. Après cette phase de validation,nous avons pu montrer qu'APOLLO2, comme TRIPOLI4, permettait d'estimer correctementl'échauffement dans le réflecteur avec des écarts calcul-mesure comparables à l'incertitudeexpérimentale.
729

Tolérance aux pannes dans des environnements de calcul parallèle et distribué : optimisation des stratégies de sauvegarde/reprise et ordonnancement

Bouguerra, Mohamed slim 02 April 2012 (has links) (PDF)
Le passage de l'échelle des nouvelles plates-formes de calcul parallèle et distribué soulève de nombreux défis scientifiques. À terme, il est envisageable de voir apparaître des applications composées d'un milliard de processus exécutés sur des systèmes à un million de coeurs. Cette augmentation fulgurante du nombre de processeurs pose un défi de résilience incontournable, puisque ces applications devraient faire face à plusieurs pannes par jours. Pour assurer une bonne exécution dans ce contexte hautement perturbé par des interruptions, de nombreuses techniques de tolérance aux pannes telle que l'approche de sauvegarde et reprise (checkpoint) ont été imaginées et étudiées. Cependant, l'intégration de ces approches de tolérance aux pannes dans le couple formé par l'application et la plate-forme d'exécution soulève des problématiques d'optimisation pour déterminer le compromis entre le surcoût induit par le mécanisme de tolérance aux pannes d'un coté et l'impact des pannes sur l'exécution d'un autre coté. Dans la première partie de cette thèse nous concevons deux modèles de performance stochastique (minimisation de l'impact des pannes et du surcoût des points de sauvegarde sur l'espérance du temps de complétion de l'exécution en fonction de la distribution d'inter-arrivées des pannes). Dans la première variante l'objectif est la minimisation de l'espérance du temps de complétion en considérant que l'application est de nature préemptive. Nous exhibons dans ce cas de figure tout d'abord une expression analytique de la période de sauvegarde optimale quand le taux de panne et le surcoût des points de sauvegarde sont constants. Par contre dans le cas où le taux de panne ou les surcoûts des points de sauvegarde sont arbitraires nous présentons une approche numérique pour calculer l'ordonnancement optimal des points de sauvegarde. Dans la deuxième variante, l'objectif est la minimisation de l'espérance de la quantité totale de temps perdu avant la première panne en considérant les applications de nature non-préemptive. Dans ce cas de figure, nous démontrons tout d'abord que si les surcoûts des points sauvegarde sont arbitraires alors le problème du meilleur ordonnancement des points de sauvegarde est NP-complet. Ensuite, nous exhibons un schéma de programmation dynamique pour calculer un ordonnancement optimal. Dans la deuxième partie de cette thèse nous nous focalisons sur la conception des stratégies d'ordonnancement tolérant aux pannes qui optimisent à la fois le temps de complétion de la dernière tâche et la probabilité de succès de l'application. Nous mettons en évidence dans ce cas de figure qu'en fonction de la nature de la distribution de pannes, les deux objectifs à optimiser sont tantôt antagonistes, tantôt congruents. Ensuite en fonction de la nature de distribution de pannes nous donnons des approches d'ordonnancement avec des ratios de performance garantis par rapport aux deux objectifs.
730

UN ENVIRONNEMENT PARALLÈLE DE DÉVELOPPEMENT HAUT NIVEAU POUR LES ACCÉLÉRATEURS GRAPHIQUES : MISE EN OEUVRE À L'AIDE D'OPENMP

Noaje, Gabriel 07 March 2013 (has links) (PDF)
Les processeurs graphiques (GPU), originellement dédiés à l'accélération de traitements graphiques, ont une structure hautement parallèle. Les innovations matérielles et de langage de programmation ont permis d'ouvrir le domaine du GPGPU, où les cartes graphiques sont utilisées comme des accélérateurs de calcul pour des applications HPC généralistes. L'objectif de nos travaux est de faciliter l'utilisation de ces nouvelles architectures pour les besoins du calcul haute performance ; ils suivent deux objectifs complémentaires. Le premier axe de nos recherches concerne la transformation automatique de code, permettant de partir d'un code de haut niveau pour le transformer en un code de bas niveau, équivalent, pouvant être exécuté sur des accélérateurs. Dans ce but nous avons implémenté un transformateur de code capable de prendre en charge les boucles " pour " parallèles d'un code OpenMP (simples ou imbriquées) et de le transformer en un code CUDA équivalent, qui soit suffisamment lisible pour permettre de le retravailler par des optimisations ultérieures. Par ailleurs, le futur des architectures HPC réside dans les architectures distribuées basées sur des noeuds dotés d'accélérateurs. Pour permettre aux utilisateurs d'exploiter les noeuds multiGPU, il est nécessaire de mettre en place des schémas d'exécution appropriés. Nous avons mené une étude comparative et mis en évidence que les threads OpenMP permettent de gérer de manière efficace plusieurs cartes graphiques et les communications au sein d'un noeud de calcul multiGPU.

Page generated in 0.0336 seconds