• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 140
  • 50
  • 46
  • 22
  • 10
  • 6
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 1
  • Tagged with
  • 345
  • 83
  • 66
  • 64
  • 63
  • 44
  • 39
  • 37
  • 37
  • 36
  • 35
  • 31
  • 30
  • 29
  • 28
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
161

Ré-investigation de la photo-dynamique du salicylidène aniline par spectroscopie d'absorption transitoire femtoseconde et analyse multivariée des données

Mouton, Nicolas 13 December 2011 (has links) (PDF)
Cette thèse s'intéresse à la photo-dynamique du photochromisme du salicylidène aniline (SA) en solution afin d'en proposer un mécanisme général. Le photochromisme du SA faisant intervenir un transfert de proton intramoléculaire ultra-rapide, l'étude expérimentale a été principalement conduite par spectroscopie d'absorption transitoire femtoseconde à différentes longueurs d'onde d'excitation. L'observation de processus photo-induits ultra-rapides par les techniques de spectroscopie de type pompe-sonde requiert la mesure et la prise en compte de la fonction de réponse instrumentale. En effet, des effets physiques peuvent affecter la structure des données spectrocinétiques, voire provoquer certaines distorsions, et la convolution limite la résolution temporelle des acquisitions. La première étape de ce travail a donc été d'adapter des méthodes chimiométriques de résolution des données multivariées à cette spécificité. L'approche proposée a consisté à implémenter une contrainte cinétique adaptée dans une résolution multivariée de courbes par moindres carrés alternés (MCR-ALS). Les développements méthodologiques ont été validés sur des données simulées avant d'être appliqués à l'étude spectroscopique du SA. Les principaux résultats obtenus concernent 1) le transfert de proton intramoléculaire, qui a été estimé à 60 fs, 2) la compétition avec un mécanisme de rotation qui a pu être caractérisé, 3) la dépendance des rendements quantiques avec la longueur d'onde d'excitation. Cette thèse propose ainsi une caractérisation complète des processus photo-induits pour le SA, c'est-à-dire les vitesses de réaction et les spectres de toutes les espèces transitoires.
162

Représentations hiérarchiques de la visibilité pour le contrôle de l'erreur en simulation de l'éclairage

Soler, Cyril 18 December 1998 (has links) (PDF)
Le contrôle de l'erreur est une nécessité dans un grand nombre d'applications de la simulation de l'éclairage. Il offre la possibilité d'assurer un degré de précision particulier dans la solution calculée, et permet également un compromis entre le temps de calcul et la qualité du résultat. Lors du calcul de l'éclairage par les méthodes hiérarchiques de radiosité, l'évaluation des relations de visibilité représente la majeure partie de l'effort de calcul, et constitue donc la cible désignée de diverses approximations, qui influent ensuite sur la qualité du résultat. Dans ce travail nous étudions tout d'abord l'impact des approximations de la visibilité lors du calcul des facteurs de forme sur la précision d'une simulation de l'éclairage. Associée à un algorithme de contrôle de l'erreur pour le calcul de chaque facteur de forme, cette approche permet de contrôler la précision de la simulation. Nous proposons ensuite un tel algorithme, basé sur le pré-calcul et le stockage d'informations multi-échelles de visibilité. Suivant les applications, la notion de qualité n'est cependant pas la même : alors qu'une borne mathématique sur l'erreur d'approximation d'une solution convient aux applications à caractère quantitatif, la simulation de l'éclairage en synthèse d'images nécessite une mesure de l'erreur adaptée au mode de perception humain. Une telle mesure doit notamment attacher une importance particulière aux artefacts visuels qui conditionnent la qualité des images produites. Dans ce cadre, nous proposons des algorithmes de synthèse des ombres, et décrivons une méthode basée sur l'opération de convolution entre des images d'une source et d'un obstacle, permettant le contrôle de l'erreur dans les ombres produites. Finalement, nous présentons un algorithme hiérarchique de simulation de l'éclairage contrôlant, par des méthodes spécifiques, la précision de l'équilibre global de l'énergie lumineuse et la qualité des détails d'ombre très fins.
163

Sistemas difusos dinámicos para el tratamiento de información temporal imprecisa

Mas i Casals, Orestes 10 April 1997 (has links)
Desde su aparición a mediados de los años 60, la Teoría de Conjuntos Difusos se ha venido aplicando con éxito a la resolución de problemas en ámbitos muy diversos, que resultan difíciles de tratar con los métodos clásicos, principalmente por la presencia de incertidumbres no aleatorias en su descripción. En estos casos, el problema no tiene una solución cerrada en forma de expresión matemática, pero sí suele tenerla en forma de un conjunto de reglas expresadas en lenguaje natural y, por consiguiente, impreciso. Un ejemplo típico es el problema de conducir un automóvil.En el ámbito de la ingeniería, el núcleo de cualquier solución difusa actual es un sistema lógico difuso, encargado de obtener las salidas a partir de las entradas en un proceso de tres etapas: füzzificación, inferencia y desfuzzifícación. Hasta la fecha, la totalidad de sistemas difusos efectúan sus razonamientos basándose solamente en los valores actuales de las entradas. Ello ha dado como resultado que los sistemas de inferencia difusa sean, desde el punto de vista matemático, sistemas no lineales algebraicos. Este hecho contrasta fuertemente con el entorno en que dichos sistemas suelen emplearse. En efecto, la mayoría de aplicaciones se construyen y utilizan en entornos dinámicos, los cuales son capaces de presentar comportamientos mucho más complejos que los sistemas estáticos. Cabe entonces preguntarse si el uso de sistemas difusos dinámicos -es decir, aquellos en que sus salidas dependan no sólo de los valores presentes de las entradas sino también de los pasados-, aportaría mejoras respecto a las soluciones difusas actuales.En esta tesis se ha desarrollado una metodología para incorporar conceptos temporales difusos a los sistemas de inferencia difusa tradicionales. Para ello se ha propuesto una forma simple y eficaz de representar los citados conceptos en un entorno de ingeniería. Posteriormente se ha mostrado cómo introducirlos en las reglas difusas tradicionales, y se ha desarrollado un algoritmo para efectuar la inferencia en esta nueva situación. Se obtienen finalmente dos algoritmos distintos para dos casos diferenciados, pero ambas expresiones presentan la interesante propiedad de poder interpretarse como una convolución, tradicional en uno de los casos y una nueva forma que hemos denominado convolution difusa para el otro caso. Estas expresiones se pueden realizar por tanto de una forma muy elegante mediante circuitos analógicos o digitales.La metodología desarrollada requiere que los conceptos temporales difusos que se manejan deban realizarse mediante la respuesta impulsional de un circuito lineal. Ello remite al problema del diseño de filtros desde el punto de vista temporal, mucho menos estudiado que desde el punto de vista frecuencial. A resultas de ello se dedica una parte de la presente tesis a establecer las pautas a seguir en el proceso de diseño de dichos filtros, valiéndose de técnicas de aproximación y de optimización. Finalmente se presentan un ejemplo de aplicación, de interés tanto teórico como práctico. En él se presenta un sistema de reconocimiento simple de comandos verbales, basado en las técnicas propuestas en la presente tesis. Los resultados obtenidos han mostrado que con una estructura muy simple es posible obtener una discriminación más que suficiente entre las órdenes programadas, con la ventaja que presenta el realizar el sistema de forma totalmente analógica.
164

A general filter for stretched-grid models

Surcel, Dorina 10 1900 (has links) (PDF)
Un modèle climatique mondial qui utilise une grille à résolution variable constitue une méthode moderne et efficace pour la modélisation régionale, principalement parce qu'elle évite le problème de pilotage aux frontières latérales caractéristique aux modèles sur aire limitée. L'approche de grille étirée s'inscrit parmi les méthodes de réduction d'échelle dynamique (dynamical downscaling) qui permettent naturellement des interactions réciproques entre les échelles régionales et globales du mouvement. Une augmentation de la résolution seulement dans une région spécifique augmente la précision du modèle, gardant en même temps les coûts de calcul inférieurs aux modèles mondiaux qui utilisent une haute résolution uniforme sur toute la grille. Cependant, l'étirement de la grille conduit à des problèmes liés à l'anisotropie de la grille dans les zones adjacentes à la zone de haute résolution uniforme. Dans le cadre de cette thèse, un filtre numérique construit à l'aide d'un produit de convolution a été développé pour répondre aux questions associées à l'étirement et à l'anisotropie de la grille de calcul. La caractéristique principale de ce filtre est d'enlever toutes les échelles inférieures à une échelle prescrite par l'utilisateur. L'efficacité et la précision du filtrage représentent un compromis acceptable entre la réponse de filtrage et les coûts de calcul impliqués. Cette approche a été testée sur des grilles étirées unidimensionnelles et bidimensionnelles cartésiennes. Les résultats ont montré que le filtre est efficace même pour une distance de troncature limitée et que la réponse de filtrage est presque isotrope. Le filtre initialement appliqué sur une grille cartésienne a été adapté dans un deuxième temps pour la grille polaire. Cette étape constitue une démarche nécessaire pour passer ensuite à une grille sphérique latitude-longitude. Les deux grilles, polaire et sphérique, rencontrent le même « problème du pôle » causé par la convergence des méridiens vers les pôles. Des détails sur l'adaptation du filtre pour la grille polaire, ainsi que son application sur une grille polaire uniforme et sur une grille polaire étirée sont présentés. Dans cette partie de la thèse, la performance du filtre près des pôles et dans les régions d'étirement a été testée. Les résultats ont montré que l'opérateur de filtrage est capable d'enlever l'excès de résolution dans les régions polaires, avec des coûts de calculs qui sont inférieurs aux filtres polaires usuels. Le filtre a bien fonctionné en dehors de la région d'intérêt où les échelles qui ne sont pas supportées par la grille ont été enlevées sans déformation ou atténuation des grandes échelles. L'opérateur de filtrage développé a été appliqué sur une grille polaire étirée pour des variables scalaires et pour des vecteurs. Cette étude a montré des résultats prometteurs, la réponse de filtrage pouvant être optimisée pour différentes fonctions-test ainsi que pour différents types de bruit qui devraient être enlevés. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : filtrage numérique, produit de convolution, fonction de pondération, grille étirée, anisotropie.
165

Numerische Behandlung zeitabhängiger akustischer Streuung im Außen- und Freiraum

Gruhne, Volker 23 April 2013 (has links) (PDF)
Lineare hyperbolische partielle Differentialgleichungen in homogenen Medien, beispielsweise die Wellengleichung, die die Ausbreitung und die Streuung akustischer Wellen beschreibt, können im Zeitbereich mit Hilfe von Randintegralgleichungen formuliert werden. Im ersten Hauptteil dieser Arbeit stellen wir eine effiziente Möglichkeit vor, numerische Approximationen solcher Gleichungen zu implementieren, wenn das Huygens-Prinzip nicht gilt. Wir nutzen die Faltungsquadraturmethode für die Zeitdiskretisierung und eine Galerkin-Randelement-Methode für die Raumdiskretisierung. Mit der Faltungsquadraturmethode geht eine diskrete Faltung der Faltungsgewichte mit der Randdichte einher. Bei Gültigkeit des Huygens-Prinzips konvergieren die Gewichte exponentiell gegen null, sofern der Index hinreichend groß ist. Im gegenteiligen Fall, das heißt bei geraden Raumdimensionen oder wenn Dämpfungseffekte auftreten, kann kein Verschwinden der Gewichte beobachtet werden. Das führt zu Schwierigkeiten bei der effizienten numerischen Behandlung. Im ersten Hauptteil dieser Arbeit zeigen wir, dass die Kerne der Faltungsgewichte in gewisser Weise die Fundamentallösung im Zeitbereich approximieren und dass dies auch zutrifft, wenn beide bezüglich der räumlichen Variablen abgeleitet werden. Da die Fundamentallösung zudem für genügend große Zeiten, etwa nachdem die Wellenfront vorbeigezogen ist, glatt ist, schließen wir Gleiches auch in Bezug auf die Faltungsgewichte, die wir folglich mit hoher Genauigkeit und wenigen Interpolationspunkten interpolieren können. Darüber hinaus weisen wir darauf hin, dass zur weiteren Einsparung von Speicherkapazitäten, insbesondere bei Langzeitexperimenten, der von Schädle et al. entwickelte schnelle Faltungsalgorithmus eingesetzt werden kann. Wir diskutieren eine effiziente Implementierung des Problems und zeigen Ergebnisse eines numerischen Langzeitexperimentes. Im zweiten Hauptteil dieser Arbeit beschäftigen wir uns mit Transmissionsproblemen der Wellengleichung im Freiraum. Solche Probleme werden gewöhnlich derart behandelt, dass der Freiraum, wenn nötig durch Einführen eines künstlichen Randes, in ein unbeschränktes Außengebiet und ein beschränktes Innengebiet geteilt wird mit dem Ziel, eventuelle Inhomogenitäten oder Nichtlinearitäten des Materials vollständig im Innengebiet zu konzentrieren. Wir werden eine Lösungsstrategie vorstellen, die es erlaubt, die aus der Teilung resultierenden Teilprobleme so weit wie möglich unabhängig voneinander zu behandeln. Die Kopplung der Teilprobleme erfolgt über Transmissionsbedingungen, die auf dem ihnen gemeinsamen Rand vorgegeben sind. Wir diskutieren ein Kopplungsverfahren, das auf verschiedene Diskretisierungsschemata für das Innen- und das Außengebiet zurückgreift. Wir werden insbesondere ein explizites Verfahren im Innengebiet einsetzen, im Gegensatz zum Außengebiet, bei dem wir ein auf ein Mehrschrittverfahren beruhendes Faltungsquadraturverfahren nutzen. Die Kopplung erfolgt nach der Strategie von Johnson und Nédélec, bei der die direkte Randintegralmethode zum Einsatz kommt. Diese Strategie führt auf ein unsymmetrische System. Wir analysieren das diskrete Problem hinsichtlich Stabilität und Konvergenz und unterstreichen die Einsatzfähigkeit des Kopplungsalgorithmus mit der Durchführung numerischer Experimente.
166

Quelques contributions à l'estimation fonctionnelle par méthodes d'ondelettes

Chesneau, Christophe 07 December 2006 (has links) (PDF)
Nous présentons quelques contributions à l'estimation fonctionnelle par méthodes d'ondelettes.<br />Deux axes de recherches orientent notre travail. Premier axe: étude de modèles statistiques complexes. Le point de départ de notre étude est le modèle de bruit blanc gaussien généralisé et le modèle de régression à pas aléatoires.<br />Ceux-ci font intervenir une fonction perturbant l'estimation de la fonction inconnue.<br />Notre objectif est de montrer l'influence exacte de cette fonction parasite via l'approche minimax sous le risque Lp. Dans un premier temps,<br />nous utilisons des méthodes en ondelettes pour cerner les limites de cette approche lorsque l'on se place sur des boules de Besov standards. Dans un deuxième temps, nous étudions l'alternative des boules de Besov pondérées et des méthodes en ondelettes déformées.<br />Deuxième axe: estimation adaptative. Nous étudions les performances de plusieurs estimateurs de seuillage par blocs en ondelettes sous le risque Lp.<br />Nous montrons leurs excellentes propriétés minimax et maxisets pour un large panel de modèles statistiques. En guise d'applications, nous traitons le modèle de régression à pas aléatoires et le modèle de convolution en bruit blanc gaussien.
167

Invertibility of a Class of Toeplitz Operators over the Half Plane

Vasilyev, Vladimir 07 February 2007 (has links) (PDF)
This dissertation is concerned with invertibility and one-sided invertibility of Toeplitz operators over the half plane whose generating functions admit homogenous discontinuities, and with stability of their pseudo finite sections. The invertibility criterium is given in terms of invertibility of a family of one dimensional Toeplitz operators with piecewise continuous generating functions. The one-sided invertibility criterium is given it terms of constraints on the partial indices of certain Toeplitz operator valued function.
168

Generalised analytic queueing network models : the need, creation, development and validation of mathematical and computational tools for the construction of analytic queueing network models capturing more critical system behaviour

Almond, John January 1988 (has links)
Modelling is an important technique in the comprehension and management of complex systems. Queueing network models capture most relevant information from computer system and network behaviour. The construction and resolution of these models is constrained by many factors. Approximations contain detail lost for exact solution and/or provide results at lower cost than simulation. Information at the resource and interactive command level is gathered with monitors under ULTRIX'. Validation studies indicate central processor service times are highly variable on the system. More pessimistic predictions assuming this variability are in part verified by observation. The utility of the Generalised Exponential (GE) as a distribution parameterised by mean and variance is explored. Small networks of GE service centres can be solved exactly using methods proposed for Generalised Stochastic Petri Nets. For two centre. systems of GE type a new technique simplifying the balance equations is developed. A very efficient &quot;building bglloocbka&quot;l. is presented for exactly solving two centre systems with service or transfer blocking, Bernoulli feedback and load dependent rate, multiple GE servers. In the tandem finite buffer algorithm the building block illustrates problems encountered modelling high variability in blocking networks. A parametric validation study is made of approximations for single class closed networks of First-Come-First-Served (FCFS) centres with general service times. The multiserver extension using the building block is validated. Finally the Maximum Entropy approximation is extended to FCFS centres with multiple chains and implemented with computationally efficient convolution.
169

Algorithmique du Network Calculus

Jouhet, Laurent 07 November 2012 (has links) (PDF)
Le Network Calculus est une théorie visant à calculer des bornes pire-cas sur les performances des réseaux de communication. Le réseau est modélisé par un graphe orienté où les noeuds représentent des serveurs, et les flux traversant le réseau doivent suivre les arcs. S'ajoutent à cela des contraintes sur les courbes de trafic (la quantité de données passées par un point depuis la mise en route du réseau) et sur les courbes de service (la quantité de travail fournie par chaque serveur). Pour borner les performances pire-cas, comme la charge en différents points ou les délais de bout en bout, ces enveloppes sont combinées à l'aide d'opérateurs issus notamment des algèbres tropicales : min, +, convolution-(min, +)... Cette thèse est centrée sur l'algorithmique du Network Calculus, à savoir comment rendre effectif ce formalisme. Ce travail nous a amené d'abord à comparer les variations présentes dans la littérature sur les modèles utilisés, révélant des équivalences d'expressivité comme entre le Real-Time Calculus et le Network Calculus. Dans un deuxième temps, nous avons proposé un nouvel opérateur (min, +) pour traiter le calcul de performances en présence d'agrégation de flux, et nous avons étudié le cas des réseaux sans dépendances cycliques sur les flux et avec politique de service quelconque. Nous avons montré la difficulté algorithmique d'obtenir précisément les pires cas, mais nous avons aussi fourni une nouvelle heuristique pour les calculer. Elle s'avère de complexité polynomiale dans des cas intéressants.
170

Méthodes d'amélioration pour le diagnostic de câble par réflectométrie

El Sahmarany, Lola 17 December 2013 (has links) (PDF)
L'utilisation de câbles électriques et leurs longueurs dans certains systèmes électriques ont fortement augmenté au cours des dernières années. Or, la fiabilité de ces systèmes repose en partie sur la fiabilité des réseaux électriques. On constate en pratique qu'une part non négligeable des pannes et des dysfonctionnements de ces systèmes proviennent des défauts dans les liaisons filaires et non des équipements électriques. La connaissance de ces réseaux filaires et en particulier la détection de leurs défauts est donc importante. De nombreuses méthodes ont été développées pour tester l'état des câbles. Parmi ces méthodes on peut distinguer les méthodes de réflectométrie largement utilisées et facilement embarquables. Généralement ces méthodes sont très bien adaptées pour détecter et localiser les défauts francs mais les défauts non francs sont pratiquement transparents à ces méthodes car ils ont des conséquences électriques très faibles. Pour s'affranchir de ces limitations des améliorations en termes de mesure et traitement sont nécessaires. Dans cette thèse, trois nouvelles méthodes de diagnostic filaire ont été développées pour améliorer et faciliter la détection et la localisation de tous types de défauts filaires. Chacune des ces méthodes répond à un obstacle que nous avons rencontré pendant les trois années de recherche. Un premier obstacle concerne le phénomène de dispersion du signal dans les câbles qui rend la détection des défauts et du vieillissement des câbles très difficile. Un autre obstacle lié à la détection des défauts non-francs présente un enjeu actuel majeur du diagnostic filaire car leurs signatures sont très faibles et parfois noyées dans le bruit ou masquées par la proximité d'une autre impulsion d'amplitude plus importante. Les trois méthodes sont les suivantes : - La première méthode proposée, baptisée " corrélation adaptative " fournit un nouvel algorithme pour compenser la dispersion du signal. Elle permet de mieux localiser et mieux détecter les singularités sur des câbles de n'importe quelle longueur. - La deuxième méthode proposée, baptisée TRR (en anglais Time reversal Reflectometry) est basée sur le principe de la réflectométrie et du retournement temporel. Elle permet de caractériser le vieillissement des câbles électriques. - La troisième méthode proposée, baptisée RART (Réflectométrie associée à un processus de retournement temporel) est basée sur les principes de la réflectométrie et du retournement temporel et permet d'améliorer la détection des défauts électriques liés à une dégradation de l'isolant. Ces travaux de thèse ont montré les performances et la facilité de ces méthodes visant à assurer la sureté de fonctionnement des systèmes électriques que ce soit dans des moyens de transport, un bâtiment ou même des réseaux de communication.

Page generated in 0.0732 seconds