• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 85
  • 35
  • 7
  • 2
  • 1
  • Tagged with
  • 130
  • 35
  • 31
  • 28
  • 28
  • 28
  • 25
  • 18
  • 15
  • 14
  • 13
  • 12
  • 12
  • 12
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
121

Excited States in U(1)2+1 Lattice Gauge Theory and Level Spacing Statistics in Classical Chaos

Hosseinizadeh, Ahmad 17 April 2018 (has links)
Cette thèse est organisé en deux parties. Dans la première partie nous nous adressons à un problème vieux dans la théorie de jauge - le calcul du spectre et des fonctions d'onde. La stratégie que nous proposons est de construire une base d'états stochastiques de liens de Bargmann, construite à partir d'une distribution physique de densité de probabilité. Par la suite, nous calculons les amplitudes de transition entre ces états par une approche analytique, en utilisant des intégrales de chemin standards ainsi que la théorie des groupes. Également, nous calculons numériquement matrices symétrique et hermitienne des amplitudes de transition, via une méthode Monte Carlo avec échantillonnage pondéré. De chaque matrice, nous trouvons les valeurs propres et les vecteurs propres. En appliquant cette méthode â la théorie de jauge U(l) en deux dimensions spatiales, nous essayons d'extraire et de présenter le spectre et les fonctions d'onde de cette théorie pour des grilles de petite taille. En outre, nous essayons de faire quelques ajustement dynamique des fenêtres de spectres d'énergie et les fonctions d'onde. Ces fenêtres sont outiles de vérifier visuellement la validité de l'hamiltonien Monte Carlo, et de calculer observables physiques. Dans la deuxième partie nous étudions le comportement chaotique de deux systèmes de billard classiques, par la théorie des matrices aléatoires. Nous considérons un gaz périodique de Lorentz à deux dimensions dans des régimes de horizon fini et horizon infini. Nous construisons quelques matrices de longueurs de trajectoires de un particule mobile dans ce système, et réalisons des études des spectres de ces matrices par l'analyse numérique. Par le calcul numérique des distributions d'espacement de niveaux et rigidité spectral, nous constatons la statistique des espacements de niveaux suggère un comportement universel. Nous étudions également un tel comportement pour un système optique chaotique. En tant que quasi-système de potentiel, ses fluctuations dans l'espacement de ses niveaux suivent aussi un comportement GOE, ce qui est une signature d'universalité. Dans cette partie nous étudions également les propriétés de diffusion du gaz de Lorentz, par la longueur des trajectoires. En calculant la variance de ce quantité, nous montrons que dans le cas d'horizons finis, la variance de longueurs est linéaire par rapport au nombre de collisions de la particule dans le billard. Cette linéarité permet de définir un coefficient de diffusion pour le gaz de Lorentz, et dans un schéma général, elle est compatible avec les résultats obtenus par d'autres méthodes.
122

Etude des effets thermiques dans des joints collés. Application à des structures renforcées par patchs composites

Deheeger, Antoine 30 September 2009 (has links) (PDF)
Des patchs en matériaux composites sont classiquement utilisés dans l'aéronautique pour réparer ou renforcer des structures métalliques. Ces deux types de matériaux présentent cependant des coefficients de dilatation très différents. De ce fait, leur assemblage, soumis à de grandes variations de température en cours de fonctionnement, est le siège de contraintes pouvant provoquer la rupture ou le décollement du patch. Afin d'évaluer précisement les distributions de contraintes dans l'assemblage collé, différents modèles de calcul ont été proposés : d'abord un modèle analytique bidimensionnel mettant en évidence des effets liés à la géométrie plane de la structure, puis un modèle thermo-viscoélastique intégrant le comportement non-linéaire de la colle en fonction du temps et de la température. Ces modèles ont été ensuite partiellement validés expérimentalement sur des éprouvettes patchées en utilisant des méthodes de mesure de champs.
123

Analyse numérique de méthodes performantes pour les EDP stochastiques modélisant l'écoulement et le transport en milieux poreux / Numerical analysis of performant methods for stochastic PDEs modeling flow and transport in porous media

Oumouni, Mestapha 06 June 2013 (has links)
Ce travail présente un développement et une analyse des approches numériques déterministes et probabilistes efficaces pour les équations aux dérivées partielles avec des coefficients et données aléatoires. On s'intéresse au problème d'écoulement stationnaire avec des données aléatoires. Une méthode de projection dans le cas unidimensionnel est présentée, permettant de calculer efficacement la moyenne de la solution. Nous utilisons la méthode de collocation anisotrope des grilles clairsemées. D'abord, un indicateur de l'erreur satisfaisant une borne supérieure de l'erreur est introduit, il permet de calculer les poids d'anisotropie de la méthode. Ensuite, nous démontrons une amélioration de l'erreur a priori de la méthode. Elle confirme l'efficacité de la méthode en comparaison avec Monte-Carlo et elle sera utilisée pour accélérer la méthode par l'extrapolation de Richardson. Nous présentons aussi une analyse numérique d'une méthode probabiliste pour quantifier la migration d'un contaminant dans un milieu aléatoire. Nous considérons le problème d'écoulement couplé avec l'équation d'advection-diffusion, où on s'intéresse à la moyenne de l'extension et de la dispersion du soluté. Le modèle d'écoulement est discrétisée par une méthode des éléments finis mixtes, la concentration du soluté est une densité d'une solution d'une équation différentielle stochastique, qui sera discrétisée par un schéma d'Euler. Enfin, on présente une formule explicite de la dispersion et des estimations de l'erreur a priori optimales. / This work presents a development and an analysis of an effective deterministic and probabilistic approaches for partial differential equation with random coefficients and data. We are interesting in the steady flow equation with stochastic input data. A projection method in the one-dimensional case is presented to compute efficiently the average of the solution. An anisotropic sparse grid collocation method is also used to solve the flow problem. First, we introduce an indicator of the error satisfying an upper bound of the error, it allows us to compute the anisotropy weights of the method. We demonstrate an improvement of the error estimation of the method which confirms the efficiency of the method compared with Monte Carlo and will be used to accelerate the method using the Richardson extrapolation technique. We also present a numerical analysis of one probabilistic method to quantify the migration of a contaminant in random media. We consider the previous flow problem coupled with the advection-diffusion equation, where we are interested in the computation of the mean extension and the mean dispersion of the solute. The flow model is discretized by a mixed finite elements method and the concentration of the solute is a density of a solution of the stochastic differential equation, this latter will be discretized by an Euler scheme. We also present an explicit formula of the dispersion and an optimal a priori error estimates.
124

Optimizing data management for MapReduce applications on large-scale distributed infrastructures / Optimisation de la gestion des données pour les applications MapReduce sur des infrastructures distribuées à grande échelle

Moise, Diana Maria 16 December 2011 (has links)
Les applications data-intensive sont largement utilisées au sein de domaines diverses dans le but d'extraire et de traiter des informations, de concevoir des systèmes complexes, d'effectuer des simulations de modèles réels, etc. Ces applications posent des défis complexes tant en termes de stockage que de calcul. Dans le contexte des applications data-intensive, nous nous concentrons sur le paradigme MapReduce et ses mises en oeuvre. Introduite par Google, l'abstraction MapReduce a révolutionné la communauté intensif de données et s'est rapidement étendue à diverses domaines de recherche et de production. Une implémentation domaine publique de l'abstraction mise en avant par Google, a été fournie par Yahoo à travers du project Hadoop. Le framework Hadoop est considéré l'implémentation de référence de MapReduce et est actuellement largement utilisé à des fins diverses et sur plusieurs infrastructures. Nous proposons un système de fichiers distribué, optimisé pour des accès hautement concurrents, qui puisse servir comme couche de stockage pour des applications MapReduce. Nous avons conçu le BlobSeer File System (BSFS), basé sur BlobSeer, un service de stockage distribué, hautement efficace, facilitant le partage de données à grande échelle. Nous étudions également plusieurs aspects liés à la gestion des données intermédiaires dans des environnements MapReduce. Nous explorons les contraintes des données intermédiaires MapReduce à deux niveaux: dans le même job MapReduce et pendant l'exécution des pipelines d'applications MapReduce. Enfin, nous proposons des extensions de Hadoop, un environnement MapReduce populaire et open-source, comme par example le support de l'opération append. Ce travail inclut également l'évaluation et les résultats obtenus sur des infrastructures à grande échelle: grilles informatiques et clouds. / Data-intensive applications are nowadays, widely used in various domains to extract and process information, to design complex systems, to perform simulations of real models, etc. These applications exhibit challenging requirements in terms of both storage and computation. Specialized abstractions like Google’s MapReduce were developed to efficiently manage the workloads of data-intensive applications. The MapReduce abstraction has revolutionized the data-intensive community and has rapidly spread to various research and production areas. An open-source implementation of Google's abstraction was provided by Yahoo! through the Hadoop project. This framework is considered the reference MapReduce implementation and is currently heavily used for various purposes and on several infrastructures. To achieve high-performance MapReduce processing, we propose a concurrency-optimized file system for MapReduce Frameworks. As a starting point, we rely on BlobSeer, a framework that was designed as a solution to the challenge of efficiently storing data generated by data-intensive applications running at large scales. We have built the BlobSeer File System (BSFS), with the goal of providing high throughput under heavy concurrency to MapReduce applications. We also study several aspects related to intermediate data management in MapReduce frameworks. We investigate the requirements of MapReduce intermediate data at two levels: inside the same job, and during the execution of pipeline applications. Finally, we show how BSFS can enable extensions to the de facto MapReduce implementation, Hadoop, such as the support for the append operation. This work also comprises the evaluation and the obtained results in the context of grid and cloud environments.
125

Rôle du cortex entorhinal médian dans le traitement des informations spatiales : études comportementales et électrophysiologiques / Role of the medial entorhinal cortex in spatial information processing : behavioral and electrophysiological studies

Jacob, Pierre-Yves 24 January 2014 (has links)
Le travail de recherche réalisé au cours de cette thèse s'intéresse à la nature des représentations spatiales formées par le cortex entorhinal médian (CEM). Tout d'abord, nous montrons que le CEM code spécifiquement une information de distance, l'une des composantes nécessaires pour que l'animal puisse réaliser un type de navigation reposant sur les informations idiothétiques, appelé intégration des trajets. Puis, nous observons que le système vestibulaire, une source importante d'informations idiothétiques, influence l'activité thêta du CEM et permet la modulation de ce rythme thêta par la vitesse de déplacement des animaux. Ensuite, nous montrons que l'activité du CEM est nécessaire à la stabilité de l'activité des cellules de lieu. Parallèlement, nous observons que l'activité des cellules grilles du CEM est modifiée par les informations contenues dans l'environnement (allothétiques).Dans leur ensemble, nos résultats montrent que le CEM traite et intègre des informations idiothétiques mais aussi des informations allothétiques. Ces données suggèrent que la carte spatiale du CEM ne fournit pas une métrique universelle reposant sur les informations idiothétiques, mais possède un certain degré de flexibilité en réponse aux changements environnementaux. De plus, cette carte spatiale entorhinale n'est pas requise pour la formation de l'activité spatiale des cellules de lieu, contrairement à ce que suggère l'hypothèse dominante. / The work conducted during my PhD thesis was aimed at understanding the nature of the spatial representation formed by the the medial entorhinal cortex (MEC). First, we show that the MEC codes specifically distance information which is necessary for a type of navigation based on idiothetic cues, called path integration. Then, we observe that the vestibular system, an important source of idiothetic information in the brain, influences the MEC theta rhythm and its modulation by the animal velocity. In addition, we show that MEC activity is necessary for the stability of place cells activity. Finally, we observe that entorhinal grid cells activity is modified by the information available in the environment (allothetic information).Together, our results show that the MEC processes and integrates idiothetic information as well as allothetic information. These data suggest that the entorhinal map is not a universal metric based on idiothetic information, but is flexible and dependant on the information present in the environment. In addition, the entorhinal map is not required for the generation of place cells activity, contrary to the dominant hypothesis.
126

Étude et exploitation de bolomètres de nouvelle génération à électrodes concentriques pour la recherche de matière noire froide non-baryonique dans l’expérience Edelweiss II / Study of new germanium bolometers with interleaved concentric electrodes fot non-baryonic cold dark matter direct detection in the Edelweiss-II experiment

Domange, Jocelyn 30 September 2011 (has links)
EDELWEISS est une expérience de détection directe de matière noire froide non-baryonique sous forme de particules massives et faiblement interagissantes (connues sous l'acronyme de WIMPs), qui constituent actuellement les candidats les plus populaires pour rendre compte de la masse manquante de l'Univers. Dans ce but, EDELWEISS utilise des bolomètres de germanium opérés à température cryogénique (20 mK environ) dans le Laboratoire Souterrain de Modane (LSM) à la frontière franco-italienne. En particulier, depuis 2008, un nouveau type de détecteur est en fonctionnement, équipé d'électrodes concentriques pour optimiser le rejet des évènements de surface (détecteurs à grilles coplanaires). Cette thèse se décompose en plusieurs axes de recherche. Tout d'abord, nous avons réalisé des mesures concernant la collecte des charges dans les cristaux. Les lois de vitesse des porteurs (électrons et trous) ont été déterminées dans le germanium à 20 mK dans la direction <100>, et une étude complète de la répartition des charges a été menée, avec une évaluation de l'anisotropie du transport et de la diffusion transverse des porteurs. Ces résultats permettent d'avoir une meilleure compréhension du fonctionnement interne des détecteurs d'Edelweiss. Ensuite, des études portant sur l'amélioration des performances ont été effectuées. Nous avons en particulier permis d'optimiser la procédure de régénération des cristaux et améliorer le rejet passif des évènements de surface (β). Le volume utile de détection des détecteurs a été évalué en utilisant les raies de deux radio-isotopes activés cosmiquement, le 68Ge et le 65Zn. Enfin, une étude exhaustive portant sur l'étude des spectres à basse énergie a été menée, ce qui permet de mettre au point une méthode d'analyse systématique pour la recherche de WIMPs de basse masse dans EDELWEISS. / EDELWEISS is a direct non-baryonic cold dark matter detection experiment in the form of weakly interacting massive particles (also known as WIMPs), which currently constitute the most popular candidates to account for the missing mass in the Universe. To this purpose, EDELWEISS uses germanium bolometers at cryogenic temperature (20 mK approximately) in the Underground Laboratory of Modane (LSM) at the French-Italian border. Since 2008, a new type of detector is operated, equipped with concentric electrodes to optimize the rejection of surface events (coplanar-grid detectors). This thesis work is divided into several research orientations. First, we carried out measurements concerning charge collection in the crystals. The velocity laws of the carriers (electrons and holes) have been determined in germanium at 20 mK in the <100> orientation, and a complete study of charge sharing has been done, including an evaluation of the transport anisotropy and of the straggling of the carriers. These results lead to a better understanding of the inner properties of the EDELWEISS detectors. Then, studies relating to the improvement of the performances were carried out. In particular, we have optimized the space-charge cancellation procedure in the crystals and improved the passive rejection of surface events (β). The fiducial volume of the detectors has been evaluated using two X-ray lines from cosmically activated radionuclides: 68Ge and 65Zn. Lastly, an exhaustive study of the low energy spectra has been carried out, which makes it possible to develop a systematic analysis method for the search of low-mass WIMPs in EDELWEISS.
127

Distribution et Stockage de Contenus dans les Réseaux

Modrzejewski, Remigiusz 24 October 2013 (has links) (PDF)
Dans cette thèse, nous étudions divers problèmes dont l'objectif est de gérer la croissance d'internet plus efficacement. En effet celle-ci est très vive : 41% pour le pic en 2012. Afin de répondre aux défis posés par cette évolution aux divers acteurs du réseau, des protocoles de gestion et de communication plus intelligents sont nécessaires. Les protocoles de l'Internet furent conçus comme des protocoles point à point. Or, la part de la diffusion de média dans le trafic est prépondérante et en nette hausse, et des projections indiquent qu'en 2016 80-90% du trafic sera engendré par de la diffusion vidéo. Cette divergence entraîne des inefficacités, car des multiples copies d'un message transitent par un lien. Dans cette thèse, nous étudions comment remediér á cette inefficacité. Nos contributions sont organisées selon les couches et les phases de déploiement du réseau. Nous étudions le placement de caches lors de la conception du réseau. Ensuite, pour la gestion d'un réseau, nous regardons quand placer des appareils en veille, en utilisant un mécanisme de cache et en coopération avec des réseaux de distribution. Puis, au niveau de la couche application, nous étudions un problème de maintenance d'arbres équilibrés pour la diffusion de média. Enfin, nous analysons la probabilité de survie des données dans un système de sauvegarde distribuée. Notre travail se fonde à la fois sur des méthodes théoriques (Chaînes de Markov, Programmation Linéaire), mais aussi sur des outils empiriques tels que la simulation et l'expérimentation.
128

Exécution d'applications parallèles en environnements hétérogènes et volatils : déploiement et virtualisation / Parallel applications execution in heterogeneous and volatile environnments : mapping and virtualization

Miquée, Sébastien 25 January 2012 (has links)
La technologie actuelle permet aux scientifiques de divers domaines d'obtenir des données de plus en plus précises et volumineuses, Afin de résoudre ces problèmes associés à l'obtention de ces données, les architectures de calcul évoluent, en fournissant toujours plus de ressources, notamment grâce à des machines plus puissantes et à leur mutualisation. Dans cette thèse, nous proposons d’étudier dans un premier temps le placement des tâches d'applications itératives asynchrones dans des environnements hétérogènes et volatils. Notre solution nous permet également de s'affranchir de l(hétérogénéité des machines hôtes tout en offrent une implantation facilitée de politiques de tolérance aux pannes, les expérimentations que nous avons menées sont encourageantes et montrent qu'il existe un réel potentiel quand à l'utilisation d'une telle plateforme pour l'exécution d'applications scientifiques. / The current technology allows scientists of several domains to obtain more precise and large data. In the same time, computing architectures evolve too, by providing even more computing resources, with more powerful machines and the pooling of them. In this thesis, in a first time we propose to study the problem of the mapping of asynchronous iterative applications tasks into heterogeneous and volatile environments. Our solution allows also to overcome the heterogeneity of host machines while offering an easier implementation of policies for fault tolerance. The experiments we have conducted are encouraging ad show that there is real potential for the use of such a platform for running scientific applications.
129

Détection de polluants dans l'eau potable. Développement d'un immunocapteur sur la base d'un transistor organique à effet de champ à grille électrolytique. / Detection of Water Pollutants using Label-free Electrochemical Immunosensors and Electrolyte Gated Organic Field-Effect Transistors

Nguyen, Thi Thuy Khue 22 October 2018 (has links)
Aujourd'hui, avec l'augmentation de la population, la consommation de médicaments et de produits phytosanitaires dans l'agriculture a considérablement augmenté. Cela devient inquiétant car une grande partie de ces molécules, rejetée dans l'environnement, ne sont pas bien éliminées par les stations d'épuration (lorsqu'elles existent). En trop grande quantité, ces produits deviennent des poisons pour tous les organismes vivants, y compris l’Homme.Des méthodes analytiques classiques pour la mesure de ces produits chimiques existent déjà (méthodes séparatives classiques telles que la chromatographie en phase gazeuse, la chromatographie liquide à haute performance, éventuellement couplée à la spectrométrie de masse, etc.). Cependant, même si elles sont extrêmement précises et fiables, ces techniques sont difficiles à appliquer pour la surveillance sur site et sont généralement coûteuses. Pour cette raison, ma thèse se concentre sur de nouvelles approches analytiques pour détecter de petites molécules en milieu aqueux, telles que ces polluants. Dans une première partie de mon travail, j’ai développé un immunocapteur basé sur une complexation compétitive originale et sur une transduction électrochimique (ampérométrique), pour la détection du diclofénac, un anti - inflammatoire non stéroïdien généralement utilisé pour réduire l’inflammation et soulager la douleur. L'électrode de travail a été fonctionnalisée par deux sels de diazonium, l'un utilisé comme sonde moléculaire (un dérivé du diclofénac couplé à une arylamine) et l'autre comme sonde redox (une quinone) également couplée à une arylamine, capable de transduire l'association haptène-anticorps par une variation de son électroactivité ; en particulier, la transduction a été conçue pour délivrer une augmentation de courant lors de la détection du diclofénac (soit une détection « signal-on »). J’ai montré une limite de détection d’environ 20 fM dans l'eau du robinet, ce qui rend ce type de capteur très compétitif. Dans la suite de mon travail, j'ai conservé la même approche de transduction originale (immunoreconnaissance compétitive) mais appliquée à un transistor à effet de champ organique à grille électrolytique (EGOFET) dont le semiconducteur est le poly (N-alkyldiketopyrrolo-pyrrole dithiénylthiéno [3,2-b ] thiophène) (DPP-DTT) et dont l'électrode de grille a été fonctionnalisée par électrogreffage d'un sel de diazonium fonctionnel capable de lier un anticorps spécifique de l'acide 2,4-dichlorophénoxyacétique (2,4-D), un herbicide courant. Le design de la sonde moléculaire a été rationalisée par modélisation moléculaire afin d’optimiser la capture de l’anticorps en surface de grille. Dans la dernière partie de mon travail, je propose une approche qui met à profit à la fois le couplage capacitif de l'EGOFET mais aussi sa sensibilité aux charges électrostatiques accumulées en surface de grille. J'ai immobilisé en surface de grille un peptide court (Gly-Gly-His) connu pur avoir une forte affinité envers les ions cuivre Cu2+. Le peptide a été immobilisé par électro-oxydation directe de l'amine primaire du premier fragment glycine. J’ai démontré que les dispositifs EGOFET, modifiés par GGH, peuvent transduire la complexation de Cu2+ par des variations significatives de leurs caractéristiques de sortie et de transfert, en particulier par un décalage de la tension de seuil (VTh). / Today, with the increase of population, the consumption of drugs and of chemicals in agriculture has dramatically increased. It becomes a worrisome issue because a large amount of these molecules, excreted to the environment, are not well eliminated by water-treatment plants (when they exist) and are therefore released without control into the ecosystem. In too large quantities, these drugs are poisons for living organisms, including humans. Classical analytical methods for the measurement of these chemicals already exist (classical separative methods such as gas chromatography, high-performance liquid chromatography, possibly coupled with mass spectrometry, etc). However, even if extremely precise and reliable, these techniques are difficult to apply for on-site monitoring and are usually costly. For this reason, my thesis focuses on novel analytical approaches to detect small organic molecules such as these pollutants. In a first part of my work, I developped an original immunosensor based on a competitive complexation and on an electrochemical (amperometric) transduction, for detection of diclofenac, which is a non – steroidal anti – inflammatory drug generally employed to protect patients from inflammation and relieve pain. The working electrode was electrografted with two functional diazonium salts, one as molecular probe (a diclofenac derivative coupled with an arylamine) and the other as redox probe (a quinone) also coupled with an arylamine, able to transduce the hapten-antibody association into a change in electroactivity. The transduction was designed to deliver a current increase upon detection of diclofenac (“signal-on” detection). The detection limit is ca. 20 fM in tap water, which is competitive compared to other label-free immunosensors. In the following part of my thesis, I kept the same original transduction approach (competitive immunoassay) but applied to an Electrolyte-Gated Organic Field-Effect Transistor (EGOFET) based on poly(N-alkyldiketopyrrolo-pyrrole dithienylthieno[3,2-b]thiophene) as organic semiconductor whose gate electrode was functionalized by electrografting a functional diazonium salt capable to bind an antibody specific to 2,4-dichlorophenoxyacetic acid (2,4-D), an herbicide well-known to be a soil and water pollutant. Molecular docking computations were performed to design the functional diazonium salt to rationalize the antibody capture on the gate surface. In the last part of my work, I propose an approach which takes profit not only of the capacitive coupling of the EGOFET but also on its sensitivity to electrostatic charges accumulated on the gate surface. To illustrate this in the field of sensors, I used a short peptide (Gly-Gly-His), known to selectively bind copper ions Cu2+. The peptide was immobilized by direct electrooxidation of the primary amine of the first glycine moiety. I demonstrated that GGH-modified EGOFETs can transduce Cu2+ complexation through significant changes of their output and transfer characteristics, in particular their threshold voltage (VTh).
130

−1 polynômes orthogonaux

Pelletier, Jonathan 09 1900 (has links)
Ce mémoire est composé de deux articles qui ont pour but commun de lever le voile et de compléter le schéma d’Askey des q–polynômes orthogonaux dans la limite q = −1. L’objectif est donc de trouver toutes les familles de polynômes orthogonaux dans la limite −1, de caractériser ces familles et de les connecter aux autres familles de polynômes orthogonaux −1 déjà introduites. Dans le premier article, une méthode basée sur la prise de limites dans les relations de récurrence est présentée. En utilisant cette méthode, plusieurs nouvelles familles de polynômes orthogonaux sur des intervals continus sont introduites et un schéma est construit reliant toutes ces familles de polynômes −1. Dans le second article, un ensemble de polynômes, orthogonaux sur l’agencement de quatre grilles linéaires, nommé les polynômes de para-Bannai-Ito est introduit. Cette famille de polynômes complète ainsi la liste des parapolynômes. / This master thesis contains two articles with the common goal of unveiling and completing the Askey scheme of q–orthogonal polynomials in the q = −1 limit. The main objective is to find and characterize new families of -1 orthogonal polynomials and connect them to other already known families. In the first article, a method based on applying limits in recurrence relations is presented. This method is used to find many new families of polynomials orthogonal with respect to continuous measure. A −1 scheme containing them is constructed and a compendium containing the properties of all such families is included. In the second article, a new set of polynomials named the para–Bannai–Ito polynomials is introduced. This new set, orthogonal on a linear quadri–lattice, completes the list of parapolynomials, but it is also a step toward the finalization of the -1 scheme of polynomials orthogonal on finite grids.

Page generated in 0.0437 seconds