• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1009
  • 504
  • 139
  • 4
  • 2
  • 1
  • 1
  • Tagged with
  • 1643
  • 459
  • 446
  • 336
  • 328
  • 290
  • 262
  • 250
  • 234
  • 217
  • 203
  • 188
  • 178
  • 165
  • 162
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1051

Incidence de la torsion sur la résistance sismique de bâtiments courants avec diaphragmes horizontaux rigides. Application aux structures en bois

Vu, Thanh Kien 08 December 2011 (has links) (PDF)
Les secousses sismiques sont des catastrophes naturelles, affectant la croûte terrestre, qui peuvent avoir des effets destructeurs majeurs dans les zones urbanisées. Même si des méthodes précises de calcul d'ouvrages en situation sismique existent, il est nécessaire de disposer de méthodes adaptées aux ingénieries mises en oeuvre. L'évolution de la réglementation parasismique (Eurocode 8 et annexes nationales) et du zonage sismique en France fait évoluer de manière significative la nécessité de prise en compte de l'action sismique dans la conception des bâtiments. Dans un calcul sismique, il est indispensable de prendre en compte des effets de la torsion qui peuvent conduire à des conséquences graves, en termes de dommages affectant les ouvrages de génie civil. Le présent travail expose une démarche incluant différents niveaux d'approches pour prendre en compte ce phénomène. Les structures particulièrement visées par ce travail sont les ossatures dites souples et plus spécifiquement les constructions en bois. Une étude paramétrique est menée avec une méthode de combinaison multidimensionnelle pour analyser l'influence de différentes configurations de contreventement sur la sensibilité de l'ouvrage aux phénomènes de torsion. Cette étape est basée sur l'adaptation pour des structures en bois, dans le contexte des Eurocodes (torsion structurale et torsion accidentelle), d'une méthode néozélandaise développée par Priestley et Paulay initialement proposée pour des bâtiments en béton armé. L'étude du comportement des bâtiments en bois en situation sismique s'inscrit dans une approche utilisant la méthode de linéarisation équivalente par coefficient de comportement. L'action sismique peut ainsi être modélisée par des forces statiques équivalentes qui sont ensuite transmises aux éléments structuraux verticaux par des diaphragmes horizontaux. Ce travail permet de définir des distributions d'efforts sismiques sur chaque contreventement avec la prise en compte de la torsion à partir d'une cartographie d'implantation des contreventements et des masses. Cette méthode originale de prise en compte de la torsion est mise en application et l'ensemble des résultats obtenus conduit à la réalisation d'une base de données conséquente sur les effets de la torsion, pour une situation sismique, dans le cas d'un dimensionnement en capacité, avec contreventements ductiles à comportement linéarisé par coefficient de comportement et diaphragmes horizontaux rigides. Après mise en application de cette méthode, une approche numérique du comportement de structures génériques est conduite afin d'illustrer les effets de différents niveaux de simplification inhérents à la méthode originale mise en place. Dans cette étape, les calculs utilisent la méthode des éléments finis en s'appuyant sur le logiciel Cast3m. Les calculs dynamiques sont réalisés sur la base de comportements linéaires ou linéarisés afin d'analyser les effets de différentes méthodes de calcul proposées par l'Eurocode 8, partie 1. Les calculs menés dans cette phase permettent notamment de valider des conditions d'application de méthodes simplifiées pour des structures en bois, et d'approcher les effets de la torsion sur ces structures avec différents degrés de précision.
1052

Les réseaux de neurones formels et de leurs réalisations optoélectroniques : génération optique de tableau de nombres aléatoires

Lalanne, Philippe 05 October 1989 (has links) (PDF)
Nous étudions la réalisation optique de réseaux neuronaux simples. La réalisation optique de tels modèles passe par l'étude d'éléments non linéaires et de connecteurs holographiques. Nous proposons un schéma global faisant appel a une architecture optoélectronique pour réaliser des modèles d'ordre élevé. Cette approche est validée par une expérience en laboratoire. Dans la seconde partie, nous abordons une étude préliminaire de faisabilité d'un générateur optique de tableaux de nombres aléatoires. Nous proposons un montage optimise permettant la réalisation d'un prototype compact, rapide et fiable
1053

Méthode de modélisation et de raffinement pour les systèmes hétérogènes. Illustration avec le langage System C-AMS

Paugnat, Franck 25 October 2012 (has links) (PDF)
Les systèmes sur puces intègrent aujourd'hui sur le même substrat des parties analogiques et des unités de traitement numérique. Tandis que la complexité de ces systèmes s'accroissait, leur temps de mise sur le marché se réduisait. Une conception descendante globale et coordonnée du système est devenue indispensable de façon à tenir compte des interactions entre les parties analogiques et les partis numériques dès le début du développement. Dans le but de répondre à ce besoin, cette thèse expose un processus de raffinement progressif et méthodique des parties analogiques, comparable à ce qui existe pour le raffinement des parties numériques. L'attention a été plus particulièrement portée sur la définition des niveaux analogiques les plus abstraits et à la mise en correspondance des niveaux d'abstraction entre parties analogiques et numériques. La cohérence du raffinement analogique exige de détecter le niveau d'abstraction à partir duquel l'utilisation d'un modèle trop idéalisé conduit à des comportements irréalistes et par conséquent d'identifier l'étape du raffinement à partir de laquelle les limitations et les non linéarités aux conséquences les plus fortes sur le comportement doivent être introduites. Cette étape peut être d'un niveau d'abstraction élevé. Le choix du style de modélisation le mieux adapté à chaque niveau d'abstraction est crucial pour atteindre le meilleur compromis entre vitesse de simulation et précision. Les styles de modélisations possibles à chaque niveau ont été examinés de façon à évaluer leur impact sur la simulation. Les différents modèles de calcul de SystemC-AMS ont été catégorisés dans cet objectif. Les temps de simulation obtenus avec SystemC-AMS ont été comparés avec Matlab Simulink. L'interface entre les modèles issus de l'exploration d'architecture, encore assez abstraits, et les modèles plus fin requis pour l'implémentation, est une question qui reste entière. Une bibliothèque de composants électroniques complexes décrits en SystemC-AMS avec le modèle de calcul le plus précis (modélisation ELN) pourrait être une voie pour réussir une telle interface. Afin d'illustrer ce que pourrait être un élément d'une telle bibliothèque et ainsi démontrer la faisabilité du concept, un modèle d'amplificateur opérationnel a été élaboré de façon à être suffisamment détaillé pour prendre en compte la saturation de la tension de sortie et la vitesse de balayage finie, tout en gardant un niveau d'abstraction suffisamment élevé pour rester indépendant de toute hypothèse sur la structure interne de l'amplificateur ou la technologie à employer.
1054

Modèles et algorithmes de partage de données cohérents pour le calcul parallèle et distribué à haut débit.

Hernane, Soumeya 20 June 2013 (has links) (PDF)
Data Handover, Dho est une librairie de fonctions adaptée aux systèmes distribués à grande échelle. Dho offre des routines qui permettent d'acquérir des ressources en lecture ou en écriture de façon cohérente et transparente pour l'utilisateur. Nous avons modélisé le cycle de vie de Dho par un automate d'état fini puis, constaté expérimentalement, que notre approche produit un recouvrement entre le calcul de l'application et le contrôle de la donnée. Les expériences ont été menées en mode simulé en utilisant la libraire GRAS de SimGrid puis, en exploitant un environnement réel sur la plate-forme Grid'5000. Par la théorie des files d'attente, la stabilité du modèle a été démontrée dans un contexte centralisé. L'algorithme distribué d'exclusion mutuelle de Naimi et Tréhel a été enrichi pour offrir les fonctionnalités suivantes: (1) Permettre la connexion et la déconnexion des processus (ADEMLE), (2) admettre les locks partagés (AEMLEP) et enfin (3) associer les deux propriétés dans un algorithme récapitulatif (ADEMLEP). Les propriétés de sûreté et de vivacité ont été démontrées théoriquement. Le système peer-to-peer proposé combine nos algorithmes étendus et le modèle originel dho. Les gestionnaires de verrou et de ressource opèrent et interagissent mutuellement dans une architecture à trois niveaux. Suite à l'étude expérimentale du système sous-jacent menée sur Grid'5000, et des résultats obtenus, nous avons démontré la performance et la stabilité du modèle Dho face à une multitude de paramètres.
1055

Modélisation de populations neuronales pour l'intégration visuo-motrice : Dynamiques et décisions

Taouali, Wahiba, Taouali, Wahiba 26 September 2012 (has links) (PDF)
Dans le contexte de l'énaction et dans une approche globale de la perception, nous nous sommes intéressés à étudier calcul neuronal permettant de comprendre les relations entre les structures dans le cerveau et leurs fonctions. Nous avons d'abord examiné les problèmes calculatoires liés à la discrétisation des équations différentielles qui régissent les systèmes étudiés et aux schémas d'évaluation synchrones et asynchrones. Nous nous sommes, ensuite, intéressés à un niveau fonctionnel élémentaire: la transformation de représentations sensorielles spatiales en actes moteurs temporels dans le cadre du système visuo-moteur. Nous avons proposé un modèle minimaliste d'encodage automatique des cibles visuelles de saccades qui se concentre sur le le flux visuel de la rétine vers le colliculus supérieur. Ce modèle, basé sur sur des règles locales simples au sein d'une population homogène, permet de reproduire et d'expliquer plusieurs résultats d'expériences biologiques ce qui en fait un modèle de base efficace et robuste. Enfin, nous avons abordé un niveau fonctionnel plus global en proposant un modèle de la boucle motrice des ganglions de la base permettant d'intégrer des flux sensoriels, moteurs et motivationnels en vue d'une décision globale reposant sur des évaluations locales. Ce modèle met en exergue un processus adaptatif de sélection de l'action et d'encodage de contexte via des mécanismes originaux lui permettant en particulier de constituer la brique de base pour les autres boucles cortico-basales. Les deux modèles présentent des dynamiques intéressantes à étudier que ce soit d'un point de vue biologique ou d'un point de vue informatique computationnel.
1056

Modélisation électromagnétique des surfaces sélectives en fréquence finies uniformes et non-uniformes par la technique de changement d'échelle (SCT)

Tchikaya, Euloge Budet 22 October 2010 (has links) (PDF)
Les structures planaires de tailles finies sont de plus en plus utilisées dans les applications des satellites et des radars. Deux grands types de ces structures sont les plus utilisés dans le domaine de la conception RF à savoir Les Surfaces Sélectives en Fréquence (FSS) et les Reflectarrays. Les FSSs sont un élément clé dans la conception de systèmes multifréquences. Elles sont utilisées comme filtre en fréquence, et trouvent des applications telles que les radômes, les réflecteurs pour antenne Cassegrain, etc. Les performances des FSSs sont généralement évaluées en faisant l'hypothèse d'une FSS de dimension infinie et périodique en utilisant les modes de Floquet, le temps de calcul étant alors réduit quasiment à celui de la cellule élémentaire. Plusieurs méthodes permettant la prise en compte de la taille finie des FSSs ont été développées. La méthode de Galerkin basée sur l'approche rigoureuse permet la prise en compte des interactions entre les différents éléments du réseau, mais cette technique ne fonctionne que pour les FSSs de petite taille, typiquement 3x3 éléments. Pour les grands réseaux, cette méthode n'est plus adaptée, car le temps de calcul et l'exigence en mémoire deviennent trop grands. Donc, une autre approche est utilisée, celle basée sur la décomposition spectrale en onde plane. Elle permet de considérer un réseau fini comme un réseau périodique infini, illuminé partiellement par une onde plane. Avec cette approche, des FSSs de grande taille sont simulées, mais elle ne permet pas dans la plupart des cas, de prendre en compte les couplages qui existent entre les différentes cellules du réseau, les effets de bord non plus. La simulation des FSSs par les méthodes numériques classiques basées sur une discrétisation spatiale (méthode des éléments finis, méthode des différences finies, méthode des moments) ou spectrale (méthodes modales) aboutit souvent à des matrices mal conditionnées, des problèmes de convergence numérique et/ou des temps de calcul e xcessifs. Pour éviter tous ces problèmes, une technique appelée technique par changements d'échelle tente de résoudre ces problèmes. Elle est basée sur le partitionnement de la géométrie du réseau en plusieurs sous-domaines imbriqués, définis à différents niveaux d'échelle du réseau. Le multi-pôle de changement d'échelle, appelé Scale-Changing Networks (SCN), modélise le couplage électromagnétique entre deux échelles successives. La cascade de ces multi-pôles de changement d'échelle, permet le calcul de la matrice d'impédance de surface de la structure complète et donc la modélisation globale du réseau. Ceci conduit à une réduction significative en termes de temps de calcul et d'espace mémoire par rapport aux méthodes numériques classiques. Comme le calcul des multi-pôles de changement d'échelle est mutuellement indépendant, les temps d'exécution peuvent encore être réduits de manière significative en parallélisant le calcul. La SCT permet donc de modéliser des FSSs Finies tout en prenant en compte le couplage entre les éléments adjacents du réseau.
1057

Modélisation Géométrique et Reconstruction de Surfaces

Biard, Luc 30 November 2009 (has links) (PDF)
L'ensemble des thématiques abordées s'inscrivent dans le contexte de la modélisation et du calcul géométrique.
1058

Ondelettes pour la détection de caractéristiques en traitement d'images. Application à la détection de région d'intérêt.

Damerval, Christophe 07 May 2008 (has links) (PDF)
Cette thèse en traitement d'images aborde le problème de la mise en évidence de certaines structures remarquables, comme des objets que nous percevons visuellement. Celles-ci peuvent être autant monodimensionnelles, comme des contours, que bidimensionnelles, ce qui correspond des objets plus complexes. Un problème important issu de la vision par ordinateur est de détecter de telles structures, ainsi que d'extraire des grandeurs caractéristiques de celles-ci. Dans diverses applications, comme la reconnaissance d'objets, l'appariement d'images, le suivi de mouvement ou le rehaussement de certains éléments particuliers, il s'agit d'une première étape avant d'autres opérations de plus haut niveau. Ainsi, la formulation de détecteurs performants apparaît comme essentielle. Nous montrons que cela peut être réalisé grâce des décompositions en ondelettes ; en particulier, il est possible de définir certaines lignes de maxima, qui s'avèrent pertinentes vis à vis de ce problème : d'une part, pour détecter des objets (par des régions d'intérêt), et, d'autre part, afin de les caractériser (calculs de régularité Lipschitzienne et d'échelle caractéristique). Cette approche originale de détection fondée sur des lignes de maxima peut alors être comparée aux approches classiques.
1059

Optimisation quadratique et géométrique de problèmes de dosimétrie inverse

Menguy, Yann 25 January 1996 (has links) (PDF)
La radiothérapie utilise les densités massiques d'énergie (appelées doses) que délivrent les rayonnements ionisants, afin de détruire des tumeurs : cette technique présente l'énorme avantage d'être non invasive. Elle nécessite cependant une grande prudence car lors d'une irradiation, toutes les parties du corps reçoivent une certaine dose. Le travail de dosimétrie est confié aux radiophysiciens qui, par essais successifs, déterminent une balistique de traitement permettant de concentrer la dose sur la tumeur en épargnant autant que possible les tissus sains. Le but de notre travail, qui se limite à la radiothérapie de la prostate, est d'automatiser cette étape. Le problème de dosimétrie directe consiste, pour une balistique donnée, à calculer la dose en un point du corps. Nous rappelons les principales méthodes déjà existantes, et détaillons l'une d'elles, la méthode de Clarkson. Nous construisons ensuite, pour un faisceau circulaire, un modèle basé sur le lissage par fonctions spline de données expérimentales tridimensionnelles et le comparons à une interpolation multilinéaire sur les données. Nous traitons, afin de cibler au mieux la prostate, le problème posé par la recherche de la plus petite boule englobant un ensemble de points. Nous développons ainsi un algorithme basé sur des notions géométriques, généralisation au cas multidimensionnel de l'algorithme de Chrystal-Peirce. Nous montrons que cet algorithme converge en un nombre fini d'itérations et effectuons de nombreux tests numériques afin de prouver son efficacité. Nous exposons enfin son côté analytique et montrons qu'il s'agit d'un algorithme de sous-gradient. La dernière partie de cette thèse est consacrée à l'optimisation dosimétrique. En nous plaçant dans le cadre d'un protocole multi-faisceaux, nous définissons ce problème comme minimisation d'une fonctionnelle sur un ensemble de contraintes et comparons les résultats pour différentes géométries de faisceaux. De manière générale, nous notons une réelle amélioration par rapport aux traitements actuels.
1060

Partitionnement dans les Systèmes de Gestion de Données Parallèles

Liroz-Gistau, Miguel 17 December 2013 (has links) (PDF)
Au cours des dernières années, le volume des données qui sont capturées et générées a explosé. Les progrès des technologies informatiques, qui fournissent du stockage à bas prix et une très forte puissance de calcul, ont permis aux organisations d'exécuter des analyses complexes de leurs données et d'en extraire des connaissances précieuses. Cette tendance a été très importante non seulement pour l'industrie, mais a également pour la science, où les meilleures instruments et les simulations les plus complexes ont besoin d'une gestion efficace des quantités énormes de données. Le parallélisme est une technique fondamentale dans la gestion de données extrêmement volumineuses car il tire parti de l'utilisation simultanée de plusieurs ressources informatiques. Pour profiter du calcul parallèle, nous avons besoin de techniques de partitionnement de données efficaces, qui sont en charge de la division de l'ensemble des données en plusieurs partitions et leur attribution aux nœuds de calculs. Le partitionnement de données est un problème complexe, car il doit prendre en compte des questions différentes et souvent contradictoires telles que la localité des données, la répartition de charge et la maximisation du parallélisme. Dans cette thèse, nous étudions le problème de partitionnement de données, en particulier dans les bases de données parallèles scientifiques qui sont continuellement en croissance. Nous étudions également ces partitionnements dans le cadre MapReduce. Dans le premier cas, nous considérons le partitionnement de très grandes bases de données dans lesquelles des nouveaux éléments sont ajoutés en permanence, avec pour exemple une application aux données astronomiques. Les approches existantes sont limitées à cause de la complexité de la charge de travail et l'ajout en continu de nouvelles données limitent l'utilisation d'approches traditionnelles. Nous proposons deux algorithmes de partitionnement dynamique qui attribuent les nouvelles données aux partitions en utilisant une technique basée sur l'affinité. Nos algorithmes permettent d'obtenir de très bons partitionnements des données en un temps d'exécution réduit comparé aux approches traditionnelles. Nous étudions également comment améliorer la performance du framework MapReduce en utilisant des techniques de partitionnement de données. En particulier, nous sommes intéressés par le partitionnement efficient de données d'entrée avec l'objectif de réduire la quantité de données qui devront être transférées dans la phase intermédiaire, connu aussi comme " shuffle ". Nous concevons et mettons en œuvre une stratégie qui, en capturant les relations entre les tuples d'entrée et les clés intermédiaires, obtient un partitionnement efficace qui peut être utilisé pour réduire de manière significative le surcharge de communications dans MapReduce.

Page generated in 0.0418 seconds