• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 695
  • 319
  • 99
  • 2
  • 1
  • Tagged with
  • 1129
  • 414
  • 251
  • 244
  • 203
  • 183
  • 183
  • 154
  • 129
  • 126
  • 110
  • 109
  • 109
  • 102
  • 98
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
191

Calcul formel et nombre de racines d'un polynôme dans le disque unité : applications en automatique et biochimie

Gleyse, Bernard 30 June 1986 (has links) (PDF)
Présentation de différentes méthodes de calcul du nombre de racines des polynômes dans le disque-unité, utilisant les transformations de Schur, de Sturn et de Schelin. Mise en évidence du rôle des polynômes à facteurs autoréciproques. Etude de la complexité des algorithmes et développement d'une méthode générale dépendant d'un paramètre. Applications à la commande automatique et à la biochimie
192

Contribution à l'étude des algorithmes de l'optimisation non convexe et non différentiable

Benacer, Rachid 02 July 1986 (has links) (PDF)
Etude théorique et algorithmique des problèmes d'optimisation non convexes et non différentiables des types suivants: maximiser f(x) sur C, minimiser f(x)-g(x) sur C, minimiser f(x) lorsque x appartient à C et g(x) positive, où f, g sont convexes définies sur rn et C est une partie compacte convexe non vide de rn. Un étudie les conditions nécessaires d'optimalité du premier ordre la dualité, les méthodes de sous-gradients qui convergent vers des solutions optimales locales et les algorithmes qui permettent d'obtenir les solutions globales. On donne, quelques résultats numériques et applications des algorithmes présentés
193

De quelques méthodes de calcul de valeurs propres de matrices de grande taille

Diamoutani, Mamadou 27 October 1986 (has links) (PDF)
Etude de quelques algorithmes de calcul d'éléments propres de matrices de grande taille : méthode des puissances, itérations de Tchébychev simultanées et algorithme de Lanczos, base orthonormée du sous-espace dominant construite à partir de la forme de Schur de la matrice de projection. Présentation des résultats numériques
194

Algorithmique parallèle : réseaux d'automates, architectures systoliques, machines SIMD et MIMD

Robert, Yves 06 January 1986 (has links) (PDF)
.
195

Une méthodologie du calcul des fonctions élémentaires

Muller, Jean-Michel 13 September 1985 (has links) (PDF)
On approfondit la notion de bases discrètes présentée dans un rapport précédent, en montrant en particulier son extension possible à d'autres bases de numérotation que la base 2. On élabore des algorithmes de calcul des fonctions mathématiques usuelles dans n'importe quelle base de numérotation. On établit un résultat de complexité
196

Algorithmes pour la décomposition primaire des idéaux polynomiaux de dimension nulle donnés en évaluation

Durvye, Clémence 09 June 2008 (has links) (PDF)
Les algorithmes de résolution polynomiale sont impliqués dans des outils sophistiqués de calcul en géométrie algébrique aussi bien quen ingénierie. Les plus populaires dentre eux reposent sur des bases de Gröbner, des matrices de Macaulay ou des décompositions triangulaires. Dans tous ces algorithmes, les polynômes sont développés dans une base des monômes et les calculs utilisent essentiellement des routines dalgèbre linéaire. L'inconvénient majeur de ces méthodes est lexplosion exponentielle du nombre de monômes apparaissant dans des polynômes éliminants. De manière alternative, lalgorithme Kronecker manie des polynômes codés comme la fonction qui calcule ses valeurs en tout point.<br />Dans cette thèse, nous donnons une présentation concise de ce dernier algorithme, ainsi qu'une preuve autonome de son bon fonctionnement. Toutes nos démonstrations sont intimement liées aux algorithmes, et ont pour conséquence des résultats classiques en géométrie algébrique, comme un théorème de Bézout. Au delà de leur intérêt pédagogique, ces preuves permettent de lever certaines hypothèses de régularité, et donc d'étendre l'algorithme au calcul des multiplicités sans coût supplémentaire.<br />Ensuite, nous présentons un algorithme de décomposition primaire pour les idéaux de polynômes de dimension nulle. Nous en donnerons également une étude de complexité précise, complexité qui est polynomiale en le nombre de variables, en le coût dévaluation du système, et en un nombre de Bézout.
197

Contribution à l'algorithmique distribuée de contrôle : arbres couvrants avec et sans containtes

Butelle, Franck 01 March 1994 (has links) (PDF)
Nous présentons dans cette thèse une étude sur des<br />algorithmes distribués asynchrones et déterministes de<br />contröle. Un système distribué consiste en un réseau<br />de sites (processeurs, ordinateurs ou réseaux locaux). Dans cette<br />thèse, nous ne considérons que des réseaux de sites<br />communicants n'ayant ni mémoire partagée ni horloge globale.<br />De nombreux problèmes de l'algorithmique distribuée sont<br />réductibles à la construction d'un Arbre Couvrant qui est la<br />structure de contrôle qui nous intéresse.<br /><br />Nous étudions deux types d'algorithmes~: ceux utilisant<br />la notion de phase logique et les autres qui ne considèrent aucun<br />mécanisme de synchronisation. Ces derniers ont des comportements<br />imprévisibles améliorant la tolérance aux fautes. Nous<br />présentons un nouvel algorithme de ce type associé à une<br />élection qui n'est pas une recherche d'extremum contrairement<br />à l'usage. Cet algorithme est comparable au meilleur<br />algorithme connu qui utilise des jetons et des phases logiques<br />induisant un comportement plus "séquentiel".<br /><br />D'autres algorithmes, construisant des AC contraints, sont<br />considérés. En particulier l'AC de Diamètre Minimum qui<br />est, à notre connaissance, un problème qui n'a jamais<br />été étudié dans ce domaine. Le diamètre d'un<br />graphe est la somme des poids des arêtes du plus long des plus<br />courts chemins. Si nous considérons la complexité temporelle,<br />cette contrainte est d'un intérêt &vident. Nous proposons<br />différents algorithmes suivant que la tolérance aux fautes est<br />nécessaire ou non.<br /><br />Finalement, l'étude pratique des algorithmes distribués sur<br />des réseaux de grande taille nous a conduit à la construction<br />d'un simulateur. Il permet l'exécution d'un même code source<br />sur des machines séquentielles ou parallèles.
198

Estimation récursive de la mesure invariante d'un processus de diffusion.

Lemaire, Vincent 08 December 2005 (has links) (PDF)
L'objet de la thèse est l'étude d'un algorithme, simple d'implémentation et récursif, permettant de calculer l'intégrale d'une fonction par rapport à la probabilité invariante d'un processus solution d'une équation différentielle stochastique de dimension finie. <br /> La principale hypothèse sur ces solutions (diffusions) est l'existence d'une fonction de Lyapounov garantissant une condition de stabilité. Par le théorème ergodique on sait que les mesures empiriques de la diffusion convergent vers une mesure invariante. Nous étudions une convergence similaire lorsque la diffusion est discrétisée par un schéma d'Euler de pas décroissant. Nous prouvons que les mesures empiriques pondérées de ce schéma convergent vers la mesure invariante de la diffusion, et qu'il est possible d'intégrer des fonctions exponentielles lorsque le coefficient de diffusion est suffisamment petit. De plus, pour une classe de diffusions plus restreinte, nous prouvons la convergence presque sûre et dans Lp du schéma d'Euler vers la diffusion.<br /> Nous obtenons des vitesses de convergence pour les mesures empiriques pondérées et donnons les paramètres permettant une vitesse optimale. Nous finissons l'étude de ce schéma lorsqu'il y a présence de multiples mesures invariantes. Cette étude se fait en dimension 1, et nous permet de mettre en évidence un lien entre classification de Feller et fonctions de Lyapounov.<br /> Dans la dernière partie, nous exposons un nouvel algorithme adaptatif permettant de considérer des problèmes plus généraux tels que les systèmes Hamiltoniens ou les systèmes monotones. Il s'agit de considérer les mesures empiriques d'un schéma d'Euler construit à partir d'une suite de pas aléatoires adaptés dominée par une suite décroissant vers 0.
199

Mesure des sections efficaces inclusives de jets dans les collisions photon-proto à HERA

Ferron, Stéphane 20 December 2001 (has links) (PDF)
Cette thèse présente une mesure des sections efficaces pour la production inclusive de jets à grand E_T (>= 21 GeV) en photoproduction, à partir d'un lot d'événements enregistrés par H1 en 1996 et 1997 et correspondant à une luminosité intégrée de 24.1 pb-1. Le domaine cinématique de la mesure est défini par Q^2 < 1 GeV^2 et 95 < W < 285 GeV. Les jets sont reconstruits dans le référentiel du laboratoire dans la région en pseudo-rapidité -1 < eta^jet < 2.5 avec l'algorithme inclusif k_T. Les mesures sont corrigées au niveau hadron et comparées à des calculs QCD au LO et NLO. Les distributions mesurées sont bien prédites, en normalisation et en forme, par les prédictions de QCD au NLO obtenues avec les différentes densités de parton (PDFs) du photon et du proton disponibles. Les corrections d'hadronisation appliquées aux calculs QCD améliore légèrement l'accord avec les données. La précision actuelle des résultats expérimentaux aussi bien que des prédictions théoriques ne permettent pas de distinguer entre les différentes PDFs. Une nouvelle mesure des sections efficaces à petit E_T (>=5 GeV), réalisée à partir d'un lot d'événements étiquetés (Q^2 < 0.01 GeV^2) « tout venants » correspondant à une luminosité intégrée de 0.47 pb-1 est également présentée. Le spectre en E_T obtenue en combinant les données à petit et grand E_T est bien décrite par les calculs QCD au NLO. Son ajustement par une loi de puissance inspirée de QCD donne un résultats consistant avec ceux obtenus précédemment dans des mesures similaires. Les calculs Monte-Carlos au LO, incluant une simulation des ordres supérieurs, de l'hadronisation et de l'événement sous-jacent dans les processus résolus, décrivent la forme des distributions mesurées. Finalement, les données sont comparées aux résultats similaires obtenus auprès des collisionneurs p-pbar.
200

Architecture dédiée au traitement d'image base sur les équations aux dérivées partielles

Dejnozkova, Eva January 2004 (has links) (PDF)
Les méthodes de traitement d'images fondées sur les équations aux dérivées partielles (EDP) bénéficient d'une attention particulière de la part de la communauté scientifique. Le nombre d'applications a considérablement augmenté après la formulation du problème sous forme d'ensembles de niveaux. Les EDPs s'appliquent dans de nombreux domaines tels le filtrage des images (diffusion non-linéaire), les contours actifs utilisés pour la segmentation des images statiques (graphe de Voronoï, Ligne de Partage des Eaux, plus court chemin, détection d'objets), aussi bien que des séquences d'images (suivi d'objets) ou encore des méthodes plus récentes tel le shape-from-shading. Les applications industrielles de ces méthodes sont néanmoins très limitées, d'une part par une complexité considérable de calculs (nombre d'itérations très élevé, par ex.), d'autre part par des difficultés rencontrées lors d'implantation embarquées (consommation d'énergie, exigences mémoire). Quelques expériences temps-réel ont été publiées avec des super-calculateurs ou des accélérateurs graphiques. Quant aux applications embarquées, elles sont à notre connaissance quasi-inexistantes. Notre but est de proposer une architecture dédiée, facilitant tant l'implantation temps-réel qu'embarquée. En vue de cet objectif nous proposons un nouvel algorithme de solution de l'équation Eikonale/calcul de fonction distance qui procède en parallèle, élimine l'usage des files d'attente hiérarchiques et permet d'obtenir la solution sur la totalité ou seulement sur une partie de l'image (le narrow band). La complexité de cet algorithme, nommé Massive Marching, est linéaire. Nous estimons que l'impact de Massive Marching est d'autant plus important pour la communauté de Morphologie Mathématique, qu'il s'agit du premier algorithme permettant d'obtenir en parallèle la ligne de partage des eaux non-biaisée. Ensuite, nous proposons deux types d'architecture (i) SIMD et (ii) plusieurs coeurs de processeurs embarqués implantant Massive Marching en parallèle ou semi-parallèle. Ces mêmes types d'architecture peuvent être utilisés pour implanter un filtrage aussi bien que des méthodes à évolution d'interface. La même architecture peut donc être utilisée pour implanter une application complète, composée de différents types d'algorithmes comme par exemple filtrage suivi par segmentation.

Page generated in 0.0756 seconds