Spelling suggestions: "subject:"algorithme A*"" "subject:"lalgorithme A*""
211 |
Analyse d'une méthode de couplage entre un fluide compressible et une structure déformableMonasse, Laurent 10 October 2011 (has links) (PDF)
Dans cette thèse, nous avons étudié la simulation numérique des phénomènes d'interaction fluide-structure entre un fluide compressible et une structure déformable. En particulier, nous nous sommes intéressés au couplage par une approche partitionnée entre une méthode de Volumes Finis pour résoudre les équations de la mécanique des fl uides compressibles et une méthode d'Éléments discrets pour le solide, capable de prendre en compte la fissuration. La revue des méthodes existantes de domaines fictifs ainsi que des algorithmes partitionnés couramment utilisés pour le couplage conduit à choisir une méthode de frontières immergées conservative et un schéma de couplage explicite. Il est établi que la méthode d'Éléments Discrets utilisée permet de retrouver le comportement macroscopique du matériau et que le schéma symplectique employé assure la préservation de l'énergie du solide. Puis nous avons développé un algorithme de couplage explicite entre un fluide compressible non-visqueux et un solide indéformable. Nous avons montré des propriétés de conservation exacte de masse, de quantité de mouvement et d'énergie du système ainsi que de consistance du schéma de couplage. Cet algorithme a été étendu au couplage avec un solide déformable, sous la forme d'un schéma semi-implicite. Cette méthode a été appliquée à l'étude de problèmes d'écoulements non-visqueux autour de structures mobiles : les comparaisons avec des résultats numériques et expérimentaux existants démontrent la très bonne précision de notre méthode.
|
212 |
Application de la théorie des jeux à l'optimisation du routage réseau - solutions algorithmiquesBoussaton, Octave 16 February 2010 (has links) (PDF)
Il existe de nombreuses méthodes d'optimisation du routage réseau en général. Dans cette thèse nous nous intéressons au développement d'algorithmes distribués permettant une stabilisation, au sens de Nash, des flux réseaux. Nous rappelons tout d'abord brièvement le contexte général d'Internet aujourd'hui et quelques notions de théorie des jeux. Nous présentons un jeu de tarification simple à deux joueurs, que la méthode des joueurs fictifs permet de faire converger. Puis nous présentons un jeu de routage plus complexe, à n joueurs, basé sur le modèle de Wardrop, ainsi qu'un algorithme de comportement distribué qui permet au système de converger vers un équilibre de Wardrop (équilibre social). Ces équilibres sont confondus avec les équilibres de Nash dans le cas limite où un joueur représente une partie infinitésimale du trafic. Nous présentons ensuite un raffinement de notre représentation initiale du problème, qui permet une diminution de sa complexité, en terme de dimension des espaces de stratégies et de temps de calcul. Nous montrons qu'il s'agit d'une bonne heuristique d'approximation de la première méthode trop coûteuse, sa qualité dépend d'un unique paramètre. Enfin, nous concluons par la présentation de résultats de simulation qui montrent que notre méthode distribuée est effectivement capable d'apprendre les meilleurs équilibres du système.
|
213 |
Méthodes probabilistes pour l'analyse exploratoire de données textuellesRigouste, Loïs 11 1900 (has links) (PDF)
Nous abordons le problème de la classification non supervisée de documents par des méthodes probabilistes. Notre étude se concentre sur le modèle de mélange de lois multinomiales avec variables latentes thématiques au niveau des documents. La construction de groupes de documents thématiquement homogènes est une des technologies de base de la fouille de texte, et trouve de multiples applications, aussi bien en recherche documentaire qu'en catégorisation de documents, ou encore pour le suivi de thèmes et la construction de résumés. Diverses propositions récentes ont été faites de modèles probabilistes permettant de déterminer de tels regroupements. Les modèles de classification probabilistes peuvent également être vus comme des outils de construction de représentations numériques synthétiques d'informations contenues dans le document. Ces modèles, qui offrent des facilités pour la généralisation et l'interprétation des résultats, posent toutefois des problèmes d'estimation difficiles, dûs en particulier à la très grande dimensionnalité du vocabulaire. Notre contribution à cette famille de travaux est double: nous présentons d'une part plusieurs algorithmes d'inférence, certains originaux, pour l'estimation du modèle de mélange de multinomiales; nous présentons également une étude systématique des performances de ces algorithmes, fournissant ainsi de nouveaux outils méthodologiques pour mesurer les performances des outils de classification non supervisée. Les bons résultats obtenus par rapport à d'autres algorithmes classiques illustrent, à notre avis, la pertinence de ce modèle de mélange simple pour les corpus regroupant essentiellement des documents monothématiques.
|
214 |
Sur la capacité opérationnelle des modèles d'affectation dynamique du trafic, et la convergence des algorithmes d'équilibrageMai, Hai Dang 18 December 2006 (has links) (PDF)
Cette thèse porte sur les modèles d'affectation dynamique du trafic et l'équilibre offre-demande du trafic, afin d'en évaluer la capacité opérationnelle et d'en développer certains aspects. L'analyse porte essentiellement sur le modèle LADTA de Leurent (2003), dont les hypothèses physiques et économiques sont proches de l'affectation statique tout en ajoutant la dimension chronologique et un traitement par file d'attente de la congestion sur les arcs du réseau de transport. Nous reprenons la formulation analytique de ce modèle dans une expression abstraite qui est générique pour l'affectation dynamique, ce qui nous permet d'élaborer des approches algorithmiques variées en termes de formulation mathématique et de variables endogènes basiques. Nous discutons des algorithmes d'équilibrage et proposons un algorithme hybride qui traite conjointement des volumes et des temps par arcs. Nous donnons une analyse formalisée du mesurage de convergence, et nous élaborons des critères de convergence rigoureux et parcimonieux. Le modèle dans une version simplifiée, les algorithmes d'équilibrage et les critères de convergence ont été programmés dans un prototype, et expérimentés sur des cas d'école, afin d'établir le comportement des algorithmes et des critères, et de procéder à des réglages pour certains paramètres.
|
215 |
Influence of the nonlinear behaviour of soft soils on strong ground motionsde Martin, Florent 07 June 2010 (has links) (PDF)
Le comportement nonlinéaire des sols observé lors des mouvements sismiques forts est maintenant bien admis et le déploiement des puits accélérométriques a permis des analyses détaillées de la propagation des ondes ainsi qu'une évaluation quantitative des paramètres physiques tels que la vitesse de cisaillement et de compression des ondes et les facteurs d'amortissements en fonction de la déformation. En dépit du nombre grandissant d'études sur ce phénomène, sa connaissance est encore récente et les recherches sur les données de puits accélérométriques restent une étape importante vers la compréhension du comportement complexe in-situ des sédiments soumis à des mouvements sismiques forts.L'objectif de ces travaux est triple. Premièrement, un code d'inversion par algorithme génétique est développé afin d'inverser des données de puits accélérométriques via la théorie des matrices de propagation de Thomson-Haskell. Cette technique nous permet dans un premier temps de valider la structure en une dimension (1D) (e.g., vitesse des ondes de cisaillement, facteurs d' amortissements) d'un puits accélérométrique dans le domaine linéaire et dans un second temps de mettre en évidence de manière quantitative le comportement nonlinéaire des sédiments lors du séisme de Fukuoka, 2005, Japon. Deuxièmement, les résultats de l'inversion sont utilisés pour tester des lois de comportement simples et avancées en utilisant la Méthode des éléments Finis. Les résultats montrent clairement que l'hypothèse bi-linéaire de la loi de comportement simple produit des séries temporelles non réalistes en vitesse et en accélération. L'utilisation d'une loi de comportement avancée mène à de meilleurs résultats, cependant, le nombre de paramètres ajustables pour obtenir des résultats consistants avec l'observation est un obstable inévitable. Troisièmement, afin d'étendre l'étude des effets de site à des dimensions supérieures, des codes 2D et 3D de la Méthode en éléments Spectraux sont développés et validés en comparant leurs résultats dans le domaine linéaire avec ceux obtenus théoriquement ou via d'autres méthodes numériques.
|
216 |
Détection des rayons gamma et reconstruction d'images pour la caméra Compton : Application à l'hadronthérapie.Frandes, Mirela 16 September 2010 (has links) (PDF)
Une nouvelle technique de radiothérapie, l'hadronthérapie, irradie les tumeurs à l'aide d'un faisceau de protons ou d'ions carbone. L'hadronthérapie est très efficace pour le traitement du cancer car elle permet le dépôt d'une dose létale très localisée, en un point dit ‘pic de Bragg', à la fin du trajet des particules. La connaissance de la position du pic de Bragg, avec une précision millimétrique, est essentielle car l'hadronthérapie a prouvé son efficacité dans le traitement des tumeurs profondes, près des organes vitaux, ou radio-résistantes. Un enjeu majeur de l'hadronthérapie est le contrôle de la délivrance de la dose pendant l'irradiation. Actuellement, les centres de traitement par hadron thérapie effectuent un contrôle post-thérapeutique par tomographie par émission de positron (TEP). Les rayons gamma utilisés proviennent de l'annihilation de positons émis lors la désintégration bêta des isotopes radioactifs créés par le faisceau de particules. Ils ne sont pas en coïncidence directe avec le pic de Bragg. Une alternative est l'imagerie des rayons gamma nucléaires émis suites aux interactions inélastiques des hadrons avec les noyaux des tissus. Cette émission est isotrope, présentant un spectre à haute énergie allant de 100 keV à 20 MeV. La mesure de ces rayons gamma énergétiques dépasse la capacité des systèmes d'imagerie médicale existants. Une technique avancée de détection des rayons gamma, basée sur la diffusion Compton avec possibilité de poursuite des électrons diffusés, a été proposée pour l'observation des sources gamma en astrophysique (télescope Compton). Un dispositif, inspiré de cette technique, a été proposé avec une géométrie adaptée à l'Imagerie en Hadron Thérapie (IHT). Il se compose d'un diffuseur, où les électrons Compton sont mesurés et suivis (‘tracker'), et d'un calorimètre, où les rayons gamma sont absorbés par effet photoélectrique. Nous avons simulé un scénario d'hadronthérapie, la chaîne complète de détection jusqu'à la reconstruction d'événements individuels et la reconstruction d'une image de la source de rayons gamma. L'algorithme ‘Expectation Maximisation' (EM) à été adopté dans le calcul de l'estimateur du maximum de vraisemblance (MLEM) en mode liste pour effectuer la reconstruction d'images. Il prend en compte la réponse du système d'imagerie qui décrit le comportement complexe du détecteur. La modélisation de cette réponse nécessite des calculs, en fonction de l'angle d'incidence de tous les photons détectés, de l'angle Compton dans le diffuseur et de la direction des électrons diffusés. Dans sa forme la plus simple, la réponse du système a un événement est décrite par une conique, intersection du cône Compton et du plan dans lequel l'image est reconstruite. Une forte corrélation a été observée, entre l'image d'une source gamma reconstruite et la position du pic de Bragg. Les performances du système IHT dépendent du détecteur, en termes d'efficacité de détection, de résolution spatiale et énergétique, du temps d'acquisition et de l'algorithme utilisé pour reconstituer l'activité de la source de rayons gamma. L'algorithme de reconstruction de l'image a une importance fondamentale. En raison du faible nombre de photons mesurés (statistique de Poisson), des incertitudes induites par la résolution finie en énergie, de l'effet Doppler, des dimensions limitées et des artefacts générés par l'algorithme itératif MLEM, les images IHT reconstruites sont affectées d'artefacts que l'on regroupe sous le terme ‘bruit'. Ce bruit est variable dans l'espace et dépend du signal, ce qui représente un obstacle majeur pour l'extraction d'information. Ainsi des techniques de dé-bruitage ont été utilisées. Une stratégie de régularisation de l'algorithme MLEM (WREM) en mode liste a été développée et appliquée pour reconstituer les événements Compton. Cette proposition est multi-résolution sur une base d'ondelettes orthogonales. A chaque itération, une étape de seuillage des coefficients d'ondelettes a été intégrée. La variance du bruit a été estimée à chaque itération par la valeur médiane des coefficients de la sous-bande de haute fréquence. Cette approche stabilise le comportement de l'algorithme itératif, réduit l'erreur quadratique moyenne et améliore le contraste de l'image.
|
217 |
Caractérisation des procédés de fabrication de pièces de securité automobile. optimisation multiobjectifs de la mise en formeGildemyn, Eric 19 November 2008 (has links) (PDF)
Les pièces de sécurité automobile fabriquées en acier comme les ferrures d'ancrage de ceinture de sécurité ont vu leur coût de fabrication augmenter ces dernières années du fait de l'augmentation du prix des matières premières. De plus, ces pièces sont soumises à des normes européennes de plus en plus exigeantes. C'est pourquoi les équipementiers automobiles comme l'entreprise DEVILLÉ S.A. cherchent aujourd'hui à développer des outils numériques permettant d'optimiser et de prédire le comportement de ces pièces à l'usage en intégrant l'ensemble du processus de fabrication. Le travail proposé ici s'efforce d'apporter une contribution à ce développement. L'utilisation de méthodes d'optimisation, en particulier un algorithme génétique NSGA-2, couplées avec des logiciels de conception et de calculs par éléments finis a permis d'améliorer différentes fonctions coût comme le dommage maximum subit par la pièce lors de sa conception ou encore l'effort maximal nécessaire à son dépliage... L'utilisation de réseaux de neurones pour réduire le temps d'optimisation global a également fait l'objet d'une étude. Ces méthodes numériques nécessitent la modélisation du comportement du matériau avec des lois de comportement et d'endommagement qui ont fait l'objet d'une étude expérimentale ainsi que d'une identification. Une méthode d'identification inverse a notamment permis de réduire l'erreur commise lors de la simulation numérique.
|
218 |
Méthodes de Bootstrap en population finieChauvet, Guillaume 14 December 2007 (has links) (PDF)
Cette thèse est consacrée aux méthodes de Bootstrap pour unepopulation ?nie. Le premier chapitre introduit quelques rappels sur l'échantillonnage et propose une présentation synthétique des principales méthodes d'estimation de précision. Le chapitre 2 rappelle les méthodes de Bootstrap proposées pour un sondage aléatoire simple et introduit deux nouvelles mé thodes. Le chapitre 3 donne un nouvel algorithme de Bootstrap, consistant pour l'estimation de variance d'un estimateur par substitution dans le cas d'un tirage à forte entropie. Dans le chapitre 4, nous introduisons la notion d'échantillonnage équilibré et proposons un algorithme rapide. Nous montrons que l'algorithme de Bootstrap proposé est également consistant pour l'estimation de variance d'un tirage équilibré à entropie maximale. Le cas d'un échantillonnage complexe et celui d'un redressement est traité au chapitre 5. Une application au Nouveau Recensement de la population est donnée dans le chapitre 6.
|
219 |
Application des nouvelles méthodes d'apprentissage à la détection précoce d'anomalies cardiaques en électrocardiographieDubois, R. 27 January 2004 (has links) (PDF)
L'enregistrement Holter (enregistrement électrocardiographique de 24 heures) est un examen très fréquemment utilisé en cardiologie. Parmi les 100 000 battements enregistrés, seul un petit nombre d'entre eux peut traduire la présence d'une pathologie sous-jacente; l'analyse automatique est donc indispensable. Les outils actuels fonctionnent sur le principe d'un système expert, robuste, mais peu adaptatif et essentiellement limité à la détection et la classification des signaux de dépolarisation ventriculaire. Une analyse plus détaillée des signaux cardiaques permet une bien meilleure détection de nombreuses pathologies, en particulier grâce à l'extraction des signaux d'origine auriculaire et des ondes de repolarisation. Nous proposons dans cette thèse une méthode de décomposition mathématique originale des battements cardiaques sur une base de fonctions appelées "bosses". Contrairement aux régresseurs classiques utilisés en modélisation (ondelettes, RBF...), les bosses sont des fonctions prévues pour modéliser chaque onde caractéristique du battement cardiaque (les ondes P, Q, R, S et T). Chaque battement de l'enregistrement est ainsi décomposé en bosses; puis les labels médicaux P, Q, R, S et T leur sont attribués par des classifieurs (réseaux de neurones). Disposant alors de l'emplacement et de la forme des toutes les ondes caractéristiques pour l'ensemble de l'ECG, nous pouvons désormais repérer automatiquement des anomalies comme l'inversion de l'onde P, jusqu'alors non détectées par les algorithmes sur les enregistrements de longues durées. Cette approche a été testée sur de nombreuses bases de données et a montré toute son efficacité par rapport aux méthodes actuelles dem détection d'anomalies
|
220 |
Stratégies de calcul pour l'optimisation multiobjectif des structures compositesIrisarri, François-Xavier 23 January 2009 (has links) (PDF)
Ce travail de thèse s'inscrit dans le cadre de la recherche de solutions composites innovantes pour l'allègement des structures aéronautiques. Les matériaux composites stratifiés offrent, de par leur architecture interne, de nouveaux degrés de liberté pour la conception et l'optimisation des structures. L'objectif est ici de proposer une méthodologie pour l'optimisation robuste des empilements, à l'échelle de petits sous-ensembles structuraux composites. La démarche est décomposée en trois éléments imbriqués : algorithme d'optimisation, stratégie de calcul et prise en compte des incertitudes. L'algorithme multiobjectif développé retourne au concepteur un ensemble de compromis optimaux. Il s'agit d'un algorithme évolutionnaire, dont l'efficacité est considérablement accrue, par rapport aux outils génériques, par l'introduction de considérations mécaniques multiéchelles spécifiques aux composites stratifiés. Il est en particulier adapté à la prise en compte des recommandations industrielles pour le choix des séquences d'empilements. Afin de réduire les coûts de calcul, des stratégies de calcul sont mises en oeuvre, articulant modélisations fines et approximation des modèles. Une méthode d'optimisation robuste est proposée, pour la prise en compte des incertitudes, méconnaissances ou erreurs potentielles. La première application proposée traite du flambement et post-flambement de panneaux raidis. La seconde application traite de l'optimisation des assemblages boulonnés composites, dont le calcul reste aujourd'hui problématique. Un modèle de la rupture en matage est développé, basé sur une approche progressive de la rupture du stratifié et de l'amorce des délaminages, avec d'excellents résultats par rapport à l'expérience. Ce modèle est appliqué pour l'optimisation d'un assemblage élémentaire à une fixation, et intégré dans une approche multiniveau pour le calcul d'une jonction complexe à plusieurs centaines de fixations.
|
Page generated in 0.0553 seconds