• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 55
  • 16
  • 5
  • Tagged with
  • 80
  • 80
  • 26
  • 25
  • 21
  • 19
  • 14
  • 12
  • 12
  • 10
  • 10
  • 9
  • 9
  • 8
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Analyse Dynamique d'Algorithmes Euclidiens et Théorèmes Limites

Hachemi, Aïcha 09 July 2007 (has links) (PDF)
Dans cette thèse, nous nous intéressons au comportement asymptotique des distributions de coûts associés à des algorithmes d'Euclide de la classe rapide. Nous commençons dans un premier chapitre par des rappels sur les propriétés dynamiques des systèmes euclidiens et introduisons la propriété de moments forts pour les coûts additifs non-réseau. Nous établissons ensuite la condition de coût fortement diophantien et montrons sa généricité. Dans le deuxième chapitre, nous analysons, en adaptant des techniques de Dolgopyat-Melbourne, des perturbations d'opérateurs de transfert associés à des applications de la bonne classe. Ces résultats sont utilisés dans le troisième chapitre pour obtenir des estimations sur la fonction génératrice des moments où nous montrons sa quasi-décroissance exponentielle. <br /><br />Le dernier chapitre est consacré aux démonstrations de téorèmes de la limite locale. Le premier théorème est sans vitesse de convergence et concerne tous les coùts non-réseau ayant des moments forts à l'ordre trois. La condition diphantienne nous permet ensuite d'établir un théorème de la limite locale avec contrôle de la vitesse de convergence. Pour des observables suffisament régulières, nous obtenons une vitesse de convergence optimale.
12

Etude de la stabilité de systèmes aéroélastiques en présence d'excitations aléatoires multiplicatives

Zentner, Irmela 09 1900 (has links) (PDF)
Cette recherche s'inscrit dans le cadre de la prévision des instabilités de flottement qui joue un rôle majeur dans la conception et la certification des avions civils. Les instabilités sont liées au couplage aéroélastique qui est dû aux efforts induits générés par les mouvements de la structure au sein de l'écoulement. On considère dans ce travail plus particulièrement l'influence de la turbulence atmosphérique qui apporte, elle aussi, une contribution aux forces aérodynamiques. Dans ce but, la turbulence est modélisée par un processus stochastique introduisant une excitation multiplicative dans le système aéroélastique. Il est alors nécessaire de développer des méthodologies permettant l'étude de la stabilité des aéronefs en présence d'un bruit aléatoire multiplicatif. On propose d'étudier la stabilité dans le cadre général des systèmes dynamiques aléatoires et plus précisément à l'aide des exposants de Lyapunov qui donnent les taux de (dé-)croissance des trajectoires. Ces derniers généralisent ainsi la notion de partie réelle des valeurs propres. Malgré le développement de modèles réduits, les systèmes couplés aéroélastïques restent relativement complexes et de dimension élevée. On opte alors pour un calcul du plus grand exposant de Lyapunov par des méthodes numériques. Néanmoins, la stabilité des systèmes aéroélastiques est également très sensible à la présence de non-linéarités structurales concentrées, comme un jeu dans la liaison aile-gouverne. On pro pose alors une méthode qui a recours d'une part à la formulation du problème par inclusions différentielles et d'autre part à une technique de sous-structuration permettant d'isoler les parties non régulières introduites par le jeu.
13

Polynômes orthogonaux simultanés et systèmes dynamiques infinis

Bourreau, Emmanuel 10 May 2002 (has links) (PDF)
Je définis tout d'abord les polynômes vectoriels orthogonaux relativement à une matrice r x s de mesures ou de poids et je rappelle les propriétés habituelles : la récurrence à r+s+1 termes, le théorème de Shohat-Favard ou l'égalité de Christoffel-Darboux. Ces polynômes permettent, par l'utilisation d'approximants de Padé, de caractériser l'ensemble résolvant de l'opérateur aux différences associé aux récurrences. Cette caractérisation a déjà été donnée par Duren mais la démonstration utilisée ici est novatrice. Je définis ensuite des fonctions homographiques sur l'ensemble des matrices $r\times s$. J'uniformise ainsi tous les cas connus de fractions continues: scalaire, vectoriel ou matriciel. Elles permettent aussi de démontrer un théorème d'accélération de convergence de fractions continues matricielles, généralisation d'un théorème similaire pour les fractions généralisées donné par de Bruin et Jacobsen. J'utilise alors les polynômes vectoriels pour calculer les coefficients de récurrence d'autres polynômes par l'algorithme de Chebyshev modifié vectoriel, généralisation du cas scalaire pour lequel nous démontrons des critères de stabilité. Finalement, l'algorithme de Chebyshev modifié est utilisé pour étudier l'évolution temporelle du système dynamique semi-infini de Toda-Langmuir. Dans ce système, les particules sont sur le semi-axe réel et elles interagissent suivant une loi exponentielle décroissante. L'approche utilisée pour résoudre le problème est, encore une fois, innovante. En effet, j'étudie seulement les n premières particules et je m'intéresse à l'erreur commise sur l'évolution lorsque l'on tronque le système à N>>n quantités c'est-à-dire que l'on travaille avec un système fini. Je présente l'étude théorique de l'erreur, où je réutilise nos résultats sur la stabilité de l'algorithme de Chebyshev modifié, ainsi que des exemples numériques.
14

Analyses de sensibilité et d'identifiabilité globales. Application à l'estimation de paramètres photophysiques en thérapie photodynamique

Dobre, Simona 22 June 2010 (has links) (PDF)
La thérapie photodynamique (PDT) est un traitement médical destiné à certains types de cancer. Elle utilise un agent photosensibilisant qui se concentre dans les tissus pathologiques est qui sera. Cet agent est ensuite activé par une lumière d'une longueur d'onde précise produisant, après une cascade de réactions, des espèces réactives de l'oxygène qui endommagent les cellules cancéreuses. Cette thèse aborde les analyses d'identifiabilité et de sensibilité des paramètres du modèle dynamique non linéaire retenu. Après avoir précisé différents cadres d'analyse d'identifiabilité, nous nous intéressons plus particulièrement à l'identifiabilité a posteriori, pour des conditions expérimentales fixées, puis à l'identifiabilité pratique, prenant en plus en compte les bruits de mesure. Pour ce dernier cadre, nous proposons une méthodologie d'analyse locale autour de valeurs particulières des paramètres. En ce qui concerne l'identifiabilité des paramètres du modèle dynamique de la phase photocytotoxique de la PDT, nous montrons que parmi les dix paramètres localement identifiables a posteriori, seulement l'un d'entre eux l'est en pratique. Néanmoins, ces résultats locaux demeurent insuffisants en raison des larges plages de variation possibles des paramètres du modèle et nécessitent d'être complétés par une analyse globale. Le manque de méthode visant à tester l'identifiabilité globale a posteriori ou pratique, nous a orientés vers l'analyse de sensibilité globale de la sortie du modèle par rapport à ses paramètres. Une méthode d'analyse de sensibilité globale fondée sur l'étude de la variance a permis de mettre en évidence trois paramètres sensibilisants. Nous abordons ensuite les liens entre les analyses globales d'identifiabilité et de sensibilité des paramètres, en employant une décomposition de Sobol'. Nous montrons alors que les liens suivants existent : une fonction de sensibilité totale nulle implique un paramètre non-identifiable; deux fonctions de sensibilité colinéaires impliquent la non-identifiabilité mutuelle des paramètres en question ; la non-injectivité de la sortie par rapport à un de ses paramètres peut aussi entrainer la non-identifiabilité du paramètre en question mais ce dernier point ne peut être détecté en analysant les fonctions de sensibilité uniquement. En somme, la détection des paramètres non globalement identifiables dans un cadre expérimental donné à partir de résultats d'analyse de sensibilité globale ne peut être que partielle. Elle permet d'observer deux (sensibilité nulle ou négligeable et sensibilités corrélées) des trois causes de la non-identifiabilité.
15

Analyse et optimisation d'une classe de systèmes dynamiques hybrides à commutations autonomes

Quemard, Céline 04 December 2007 (has links) (PDF)
Les travaux de recherche de ce mémoire porte sur l'étude d'une classe particulière de systèmes dynamiques hybrides (s.d.h.) à commutations autonomes, ces dernières étant engendrées par un phénomène d'hystérésis. Plus particulièrement, après avoir introduit le système mathématique étudié, une analyse de cette classe de s.d.h. est réalisée avec notamment une étude des cycles limites (équations qui les déterminent, stabilité) et des phénomènes de bifurcations (noeud-selle, doublement de période). L'existence de propriétés caractéristiques des systèmes chaotiques comme la sensibilité aux conditions initiales est également mise en avant de façons graphique et calculatoire (exposant de Lyapunov). Enfin, une partie optimisation paramétrique a aussi été traitée dans le but d'améliorer certaines performances du système. Tous ces résultats théoriques sont appliqués à un système thermique (thermostat à résistance d'anticipation) et à un système électronique (convertisseur statique) à l'aide du calcul forme (Maple), de l'analyse par intervalles (Proj2D) et de simulations numériques (Matlab)
16

Décodeurs Haute Performance et Faible Complexité pour les codes LDPC Binaires et Non-Binaires

Li, Erbao 19 December 2012 (has links) (PDF)
Cette thèse se consacre à l'étude de décodeurs itératifs, pour des codes correcteurd'erreurs binaires et non-binaires à faible densité (LDPC). Notre objectif est de modéliserdes décodeurs de complexité faibles et de faible latence tout en garantissantde bonne performances dans la région des très faibles taux d'erreur (error floor).Dans la première partie de cette thèse, nous étudions des décodeurs itératifssur des alphabets finis (Finite Alphabet iterative decoders, FAIDs) qui ont étérécemment proposés dans la littérature. En utilisant un grand nombre de décodeursFAIDs, nous proposons un nouvel algorithme de décodage qui améliore la capacité decorrections d'erreur des codes LDPC de degré dv = 3 sur canal binaire symétrique.La diversité des décodeurs permet de garantir une correction d'erreur minimale sousdécodage itératif, au-delà de la pseudo-distance des codes LDPC. Nous donnonsdans cette thèse un exemple detailé d'un ensemble de décodeur FAIDs, qui corrigetous les évènements d'erreur de poids inférieur ou égal à 7 avec un LDPC de petitetaille (N=155,K=64,Dmin=20). Cette approche permet de corriger des évènementsd'erreur que les décodeurs traditionnels (BP, min-sum) ne parviennent pas à corriger.Enfin, nous interprétons les décodeurs FAIDs comme des systèmes dynamiques etnous analysons les comportements de ces décodeurs sur des évènements d'erreur lesplus problématiques. En nous basant sur l'observation des trajectoires périodiquespour ces cas d'étude, nous proposons un algorithme qui combine la diversité dudécodage avec des sauts aléatoires dans l'espace d'état du décodeur itératif. Nousmontrons par simulations que cette technique permet de s'approcher des performancesd'un décodage optimal au sens du maximum de vraisemblance, et ce pourplusieurs codes.Dans la deuxième partie de cette thèse, nous proposons un nouvel algorithmede décodage à complexité réduite pour les codes LDPC non-binaires. Nous avonsappellé cet algorithme Trellis-Extended Min-Sum (T-EMS). En transformant le domainede message en un domaine appelée domaine delta, nous sommes capable dechoisir les déviations ligne par ligne par rapport à la configuration la plus fiable,tandis que les décodeurs habituels comme le décodeur EMS choisissent les déviationscolonne par colonne. Cette technique de sélection des déviations ligne parligne nous permet de réduire la complexité du décodage sans perte de performancepar rapport aux approches du type EMS. Nous proposons également d'ajouter une colonne supplémentaire à la représentation en treillis des messages, ce qui résoudle problème de latence des décodeurs existants. La colonne supplémentaire permetde calculer tous les messages extrinséque en parallèle, avec une implémentationmatérielle dédiée. Nous présentons dans ce manuscrit, aussi bien les architecturesmatérielles parallèle que les architectures matérielles série pour l'exécution de notrealgorithme T-EMS. L'analyse de la complexité montre que l'approche T-EMS estparticulièrement adapté pour les codes LDPC non-binaires sur des corps finis deGalois de petite et moyenne dimensions.
17

La prévision de l'inflation au Canada

Moisan, Myriam January 2010 (has links) (PDF)
Ce travail vise à présenter un modèle de prévision de l'inflation au Canada à l'aide de données mensuelles. Notre motivation vient du fait que la prévision de l'inflation, au moyen de données historiques de plusieurs années, constitue une nécessité dans le secteur financier. Contrairement aux modèles économétriques classiques, qui n'utilisent que des données macroéconomiques pour prévoir l'inflation, notre modèle utilisera des facteurs dynamiques intégrant le maximum d'information disponible. Cette modélisation, avec beaucoup de données et avec l'ajout de données financières, permettra de contrer le problème de la surparamétrisation et aussi d'augmenter le potentiel de prévision hors échantillon. Malgré que ce travail vise la prévision de l'inflation au Canada, il pourrait être appliqué à d'autres pays industrialisés avec ou sans cible explicite d'inflation. La principale raison motivant notre choix de sujet passe par le besoin de fonder et de calibrer des pondérations d'actifs avec l'information disponible sur les marchés financiers. L'analyse mensuelle de portefeuilles ou de produits structurés, sur un terme de plusieurs années, a besoin d'être pondérée par un modèle de prévision de l'inflation. Le but poursuivi par ce travail sera d'élaborer un tel modèle pour faire la prévision de l'inflation au Canada. Pour former ce modèle, quatre facteurs sont choisis pour capter le contexte d'une économie ouverte: financiers, économiques, prix et travail. Les limitations font que l'inflation des autres pays qui auraient aussi pu être considérés ne le seront pas, étant donné la disponibilité des données et des problèmes de calibration d'une telle étendue. Ce travail ciblera essentiellement la création d'un modèle pour des données canadiennes. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Inflation, Facteurs dynamiques, Surparamétrisation, Conditions de non arbitrage, Marchés financiers, Prévisions hors échantillon.
18

Capacité d'une mémoire associative à fonction de sortie chaotique

Cherif, Mounia 12 1900 (has links) (PDF)
Un des thèmes de recherche privilégié pour les sciences cognitives et l'intelligence artificielle est l'étude des capacités d'association du cerveau humain. L'objectif est de développer des modèles de mémoires dotés de caractéristiques similaires, que ce soit en termes d'adaptabilité, d'efficacité, ou de robustesse. Plusieurs modèles de mémoires associatives ont été développés et présentés dans la littérature, parmi eux le modèle de mémoire associative bidirectionnelle BAM de Kosko (Kosko, 1988). Ce modèle utilise une règle d'apprentissage hebbienne qui le rend plausible biologiquement, mais il possède plusieurs limitations cependant. En effet, sa règle d'apprentissage impose des contraintes d'orthogonalité entre les différents motifs appris qui entraine une faible capacité de mémorisation et une faible résilience face au bruit. De plus, le modèle peut apprendre uniquement des patrons encodés en binaire et linéairement séparables. De nombreux efforts ont été, et continuent aujourd'hui à être déployés pour tenter d'améliorer le modèle de Kosko. La plupart visent l'augmentation de la capacité de stockage et l'amélioration de la performance de rappel. Quelques-uns des modèles proposés réussissent à classifier des problèmes non séparables linéairement, mais s'éloignent de l'architecture originale de Kosko ou parfois, utilisent des méthodes d'apprentissage qui s'écartent du principe de Hebb, ce qui les rend moins plausibles biologiquement. Dans le présent mémoire, nous approfondissons l'étude d'un modèle récent de BAM, proposé par Chartier et Boukadoum (2006a) et caractérisé par une fonction de sortie chaotique, une architecture asymétrique, et une règle d'apprentissage hebbienne modifiée. Plus spécifiquement, nous étudions l'impact de modifier la fonction de sortie, en lui ajoutant un paramètre d'asymétrie, sur la capacité du réseau à traiter des tâches de classification non linéairement séparables. Nous nous inspirons de la théorie des catastrophes pour le cadre théorique de notre étude. Nous expérimentons sur le modèle en vue d'améliorer sa performance de classification sans complexifier son architecture ou nous écarter de la plausibilité biologique de la règle d'apprentissage. Pour ce faire, nous utilisons et comparons plusieurs algorithmes de recherche heuristiques, dont certains inspirés de l'évolution naturelle, afin de concevoir des modèles de classification puissants, potentiellement capables de reproduire l'efficacité des processus cognitifs naturels. Les principes exposés dans ce mémoire, se sont montrés efficaces pour le modèle BAM et peuvent faire l'objet de recherches intéressantes, notamment pour l'amélioration du potentiel des modèles connexionnistes récurrents. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : mémoire associative bidirectionnelle, réseaux de neurones artificiels, classification, dynamique chaotique, catastrophe fronce.
19

Les piles de sable Kadanoff

Perrot, Kévin 27 June 2013 (has links) (PDF)
Les modèles de pile de sable sont une sous-classe d'automates cellulaires. Bak et al. les ont introduit en 1987 comme une illustration de la notion intuitive d'auto-organisation critique.Le modèle de pile de sable Kadanoff est un système dynamique discret non-linéaire imagé par des grains cubiques se déplaçant de colonne parfaitement empilée en colonne parfaitement empilée. Pour un paramètre p fixé, une règle d'éboulement est appliquée jusqu'à atteindre une configuration stable, appelée point fixe : si la différence de hauteur entre deux colonnes consécutives est strictement supérieure à p, alors p grains chutent de la colonne de gauche, un retombant sur chacune des p colonnes adjacentes sur la droite.A partir d'une règle locale simple, décrire et comprendre le comportement macroscopique des piles de sable s'avère très rapidement compliqué. La difficulté consiste en la prise en compte simultanée des modalités discrète et continue du système : vue de loin, une pile de sable s'écoule comme un liquide ; mais de près, lorsque l'on s'attache à décrire exactement une configuration, les effets de la dynamique discrète doivent être pris en compte. Si par exemple nous ajoutons un unique grain à une configuration stable, celui-ci déclenche une avalanche qui ne modifie que la couche supérieure de la pile, mais dont la taille est très difficile à prédire car sensible au moindre changement sur la configuration.En analogie avec un sablier, nous nous intéressons en particulier à la séquence des points fixes atteints par l'ajout répété d'un nombre fini de grains à une même position, et à l'émergence de structures étonnamment régulières.Après avoir établi une conjecture sur l'émergence de motifs de vague sur les points fixes, nous nous pencherons dans un premier temps sur une procédure inductive de calcul des points fixes. Chaque étape de l'induction correspond au calcul d'une avalanche provoquée par l'ajout d'un nouveau grain, et nous en proposerons une description simple. Cette étude sera prolongée par la définition de trace des avalanches sur une colonne i, qui capture dans un mot d'un alphabet fini l'information nécessaire à la reconstitution du point fixe pour les colonnes à la droite de l'indice i. Des liens entre les traces à des indices successifs seront alors exploités, liens qui permettent de conclure l'émergence de traces régulières, pour lesquelles la reconstitution du point fixe implique la formation des motifs de vague observés. Cette première approche est concluante pour le plus petit paramètre conjecturé jusqu'ici, p=2.L'étude du cas général que nous proposons passe par la construction d'un nouveau système mêlant différentes représentations des points fixes, qui sera analysé par l'association d'arguments d'algèbre linéaire et combinatoires (liés respectivement aux modalités continue et discrète des piles de sable). Ce résultat d'émergence de régularités dans un système dynamique discret fait appel à des techniques nouvelles, dont la compréhension d'un élément de preuve reste en particulier à raffiner, ce qui permet d'envisager un cadre plus général d'appréhension de la notion d'émergence.
20

Contrôle réactif d'écoulements décollés à l'aide de PIV temps réel / Closed-loop control separated flows using real-time PIV

Varon, Eliott 13 October 2017 (has links)
Les écoulements décollés sont omniprésents dans la nature comme dans les écoulements industriels (aérodynamique externe des véhicules, des bâtiments, écoulements autour d’aubes de turbines, aérodynamique interne dans des tuyaux...) où ils sont en général sources de nuisances (vibrations, bruit aéroacousitque, forces de traînée ou de portance). Les enjeux associés à la compréhension et à la maîtrise de tels écoulements, caractérisés par une bulle de recirculation, sont donc considérables.Un capteur "visuel" non invasif développé au laboratoire PMMH est d'abord amélioré afin d'accéder en temps réel aux champs de vitesses - et à leurs grandeurs dérivées - des écoulements rencontrés en soufflerie industrielle. Basé sur un algorithme de flot optique issu de la vision par ordinateur, cette approche expérimentale novatrice permet de faciliter les études paramétriques et peut être implémenté dans des boucles de contrôle réactif.Ensuite, les mesures obtenues pour un écoulement sur une plaque plane sont analysées dans le cadre de l'identification de système. Un modèle d’ordre réduit est alors construit par apprentissage, permettant de prédire la dynamique de la transition de la couche limite laminaire vers la turbulence.Enfin, le sillage pleinement turbulent derrière une géométrie modélisant une voiture simplifiée est caractérisé, de façon classique et en tant que système dynamique. Différentes modifications de l'écoulement à l'aide de micro-jets sont testées. Une loi de contrôle réactif consistant à suivre et forcer la recirculation est mise en œuvre avec succès. / Separated flows are ubiquitous in nature and industrial systems, such as diffusers, airfoils, air conditioning plants, moving vehicles... As the separation can strongly influence the performances of such devices, investigating their dynamics and their control is of great interest.A visual sensor developed at PMMH laboratory is first improved to measure in real time the velocity fields and its derived values for flows available in wind tunnels. Based on an optical flow algorithm from the computer vision domain, this new experimental approach makes easier parametric studies and may be used in closed-loop controls.The dynamics of the flow over a flat plate are then investigated. A system identification method - the dynamic observer - is successfully implemented to build a reduced-order model of the transient flow, which captures and predicts well the instabilities generated.Finally, the fully turbulent wake of the square-back Ahmed body is described. Dynamical system tools are applied to characterize it. Using continuous and pulsed micro-jets, different forcing strategies are analyzed. An opposition closed-loop control is implemented, tracking and driving the recirculation.

Page generated in 0.0436 seconds