• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 255
  • 138
  • 33
  • 27
  • 13
  • 12
  • 9
  • 9
  • 4
  • 4
  • 4
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 516
  • 188
  • 97
  • 51
  • 47
  • 42
  • 38
  • 37
  • 36
  • 35
  • 34
  • 33
  • 30
  • 27
  • 24
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
171

Vers des spécifications formelles : Fondements Mathématiques et Informatiques pour la Géométrie Dynamique

Genevès, Bernard 21 December 2004 (has links) (PDF)
Ce travail est une étude algorithmique et mathématique préparant une axiomatisation ou une spécification de la géométrie dynamique. Le comportement dynamique des intersections de courbes, dans le cas où elles sont multiples, et la gestion algorithmique d'objets géométriques sous-déterminés posent problème. Il est connu depuis peu que la continuité des déplacements et le déterminisme des comportements dynamiques ne sont pas entièrement compatibles ; ce travail précise ce point essentiel : par des procédés globaux qui sortent du cadre de la géométrie discrète, il est montré que le comportement dynamique des intersections de cercles présente des singularités inévitables, qui sont énumérées. Une tentative est faite pour étendre ce résultat aux intersections de coniques. Des propositions pour unifier le traitement algorithmique d'objets sous-déterminés, comme les points sur objet, sont présentées, depuis le cadre mathématique jusqu'à l'implémentation effective. Ce travail montre aussi qu'il existe des concepts mathématiques de base, comme la notion d'aire non signée, dont la justification ultime ne supporte pas le mouvement, au contraire de la notion d'aire signée. En permettant la spécification des algorithmes traitant du comportement dynamique des intersections de cercles, ce travail établit un premier niveau de qualité pour les logiciels de géométrie dynamique, permettant de juger leur cohérence mathématique. Plusieurs des implémentations réalisées sont présentes dans Cabri2 Plus, logiciel largement diffusé par l'entreprise Cabrilog. Au niveau théorique, ce travail repose différemment la question de la nature des figures dynamiques, en particulier de la nature mathématique précise des lieux géométriques en géométrie dynamique.
172

Cohérence de copies multiples avec latence de détection d'erreur et test fonctionnel de micro-processeurs

Postigo, Carlos 14 June 1983 (has links) (PDF)
Modification d'algorithmes classiques utilises dans le maintien de la cohérence de copies multiples en vue de prendre en compte une latence de détection de faute. Bref parallèle des algorithmes modifies de Kaneko et Herran et Verjus. Réalisation d'une nouvelle classification de pannes.
173

Structure sectorielle et fragilité financière dans les économies émergentes

Kalantzis, Yannick 03 1900 (has links) (PDF)
Les années 1990 ont été marquées par une succession de crises de balance des paiements d'une grande violence dans les économies en voie de développement récemment intégrées à la finance internationale. Ces crises se caractérisent par une brutale dépréciation réelle, une chute soudaine de l'investissement, un renversement des flux de financement externe et touchent plus particulièrement le secteur abrité de la concurrence internationale. Ce travail de recherche étudie l'impact de la structure sectorielle, en faisant la distinction entre le secteur abrité de la concurrence internationale et le secteur exposé, sur la possibilité de crises de balance des paiements dans une économie émergente. A cette fin, nous construisons quatre modèles théoriques différents d'une petite économie ouverte à deux secteurs. Nous modélisons une crise de balance des paiements comme une dépréciation réelle auto-réalisatrice qui repose sur des effets de bilan. Les modèles permettent également d'étudier les déterminants de la structure sectorielle ainsi que sa dynamique à la suite d'une libéralisation des mouvements de capitaux. Nos résultats montrent que les équilibres de crise existent lorsque la taille relative du secteur abrité est suffisamment grande. Ils montrent aussi qu'une forte libéralisation des mouvements de capitaux induit un accroissement de la taille relative de ce secteur et peut donc rendre l'économie financièrement fragile à long terme. Les conditions de cette fragilité financière à long terme font intervenir des facteurs internationaux, comme le taux d'intérêt mondial, mais aussi des facteurs structurels propres à chaque économie: intensité des contraintes d'endettement, progrès technique, niveaux sectoriels de développement technologique ou degré d'ouverture financière.
174

Modélisation Causale en vue de la Commande d'un translateur piézoélectrique plan pour une application haptique

Pigache, Francois 25 March 2005 (has links) (PDF)
Pour rendre compte physiquement de la manipulation d'un objet virtuel dans l'espace ou sur un plan, la plupart des dispositifs haptiques actuels font appel à des actionneurs à un seul degré de liberté, dont les actions sont couplées par diverses liaisons mécaniques (type pantographe). La technologie piézoélectrique est une solution avantageuse dans ce domaine d'utilisation, pour son important effort massique, le travail à faible vitesse, et surtout la capacité à motoriser plusieurs degrés de liberté à partir d'un seul actionneur. Pour cette raison, un translateur piézoélectrique plan à onde stationnaire est étudié. Un modèle simplifié est élaboré pour offrir une interprétation globale des phénomènes de contact. Il est établi selon le formalisme du graphe informationnel causal qui met en évidence deux asservissements applicables au domaine haptique : un retour d'effort actif par le contrôle en force, et une solution alternative comparable à un embrayage, qualifié de retour d'effort dissipatif.
175

Observations de paramètres d'ordre multiples dans les systèmes d'électrons 5f

Blackburn, Elizabeth 16 December 2005 (has links) (PDF)
Dans cette thèse, la coexistence de plusieurs paramètres d'ordre dans le même système électronique est étudiée. Les structures magnétiques, appelées multi-k, où plusieurs vecteurs de propagation, k, existent dans le même volume, sont considérés comme des systèmes modèles. L'effet de cette structure sur la réponse élastique et inélastique est étudié. <br /><br />Dans certains composés d'uranium, type NaCl, avec des structures 3-k, des pics de Bragg apparaissent à des positions imprévus dans l'espace réciproque. Ces pics sont identifiés avec des corrélations quantiques entre les trois paramètres de l'ordre magnétique. La structure 3-k joue également sur les dynamiques. Les fluctuations dans les ondes de spin dans le composé UO2 peuvent être expliquées seulement si la structure est 3-k, et les paramètres d'ordre sont correlés.<br /><br />Dans le supraconducteur antiferromagnétique UPd2Al3, l'ordre magnétique et l'état supraconducteur sont crée par les mêmes fermions lourds. L'effet d'un champ magnétique externe sur les états normal et supraconducteur est étudié. Dans l'état normal, le matériau agit comme un liquide de Fermi. La réponse inélastique, vue par les neutrons, est renormalisée en entrant l'état supraconducteur. Une étude de la region de basse energie confirme que le gap d'energie supraconducteur possède la symétrie du reseau antiferromagnétique.
176

Etude des effets collectifs dans les collisions d'ions lourds ultrarelativistes

Dinh, Phuong Mai 26 June 2002 (has links) (PDF)
Les collisions d'ions lourds ultrarelativistes, dont le but est la formation et l'étude du plasma de quarks et de gluons, recouvrent un<br />vaste domaine de la physique nucléaire et des hautes énergies. Nombreuses sont les observables proposées comme signature de la<br />formation du plasma de quarks et de gluons. Dans mon travail de thèse, je me suis penchée sur deux d'entre elles: la suppression du <br />J/Psi et les effets collectifs ou de ``flot''. <br /><br />Dans cet exposé, je ne discuterai que du flot, ce dernier occupant la majeure partie de ma thèse. Après avoir présenté la problématique<br />de l'analyse de flot, je montrerai les limitations méthodes ``standard'' utilisées depuis 1985, notamment sur les données publiées en<br />1998 par la collaboration NA49 du CERN. J'exposerai alors une nouvelle méthode d'analyse se basant sur un développement en<br />cumulants des corrélations azimutales multiples. Cette méthode non seulement généralise la méthode standard mais également permet<br />des mesures de flot plus fines, là où les méthodes conventionnelles échouent. Je présenterai enfin mes résultats sur l'analyse des<br />nouvelles données de NA49.
177

Vues Multiples non-calibrées : Applications et Méthodologies

Carrasco, Miguel 25 January 2010 (has links) (PDF)
La recherche de modèles d'intérêt contenus dans des s'séquences de vues multiples d'une scène reste l'un des principaux problèmes de la vision par ordinateur actuellement. En dépit des grands progrès observés au cours des 40 dernières années, la vision par ordinateur ne parvient pas encore à répondre adéquatement quant à la manière d'inférer et de détecter des modèles d'intérêt dans des scènes pour lesquelles un ou plusieurs objet(s) sont vus depuis différents points de vue. Afin de surmonter ce problème, cette thèse propose de nouveaux algorithmes et prototypes capables de caractériser, d'inférer et de détecter des modèles d'intérêt en séquences avec des vues multiples de manière non calibrée, c'est-'a-dire sans connaissance à priori de la position du/des objet(s) par rapport ła (aux) caméra(s). Le travail réalisé s'articule autour de trois axes, divis'es en six articles qui constituent le corps de la thèse. (1) L'analyse de correspondances point par point à travers de marqueurs explicites et implicites sur les objets. (2) L'estimation de correspondances point par point 'a travers de multiples relations géométriques indépendantes du/des objet(s) qui composent la scène. (3) La prédiction du flux dynamique du déplacement généré par le mouvement de la caméra autour de l'objet. L'objectif principal de cette thèse est d'appuyer la prise de décision 'a travers d'une analyse dynamique et/ou géométrique du mouvement du/des objet(s) ou de la (des) caméra(s) pendant que ceux-ci se déplacent. Grâce à cette analyse, il est possible d'accroitre l'information sur la scène et l'(les) objet(s) 'a travers d'un processus inférentiel spécifique pour chaque cas. Il ressort des thématiques exposées qu'il est possible, par exemple, d'assister le processus d'inspection réalisé par un opérateur humain, de déterminer la qualité d'un produit de manière autonome, ou d'exécuter une action spécifique dans un acteur robotique. Bien que ces thématiques présentent des approches différentes, celles-ci ont le même ensemble de pas en ce qui concerne: (1) la détermination de la relation de correspondance de points ou de régions sur plusieurs images, (2) la détermination de la relation géométrique et/ou dynamique existante entre les correspondances estimées précédemment, (3) l'inférence de nouvelles relations sur les points dont la correspondance est inconnue en vue de caractériser le mouvement. Les variations les plus fortes correspondent 'a la manière dont la correspondance est estimée; au calcul de la dynamique et la géométrie entre les points correspondants; et enfin 'a la manière dont nous inférons une action particulière suite 'a un mouvement spécifique. Parmi les principaux résultats, on trouve le développement d'une méthodologie d'inspection non calibrée 'a vues multiples appliquée 'a l'analyse de la qualité des jantes de véhicules, le développement d'un prototype fonctionnel appliqué à l'inspection des cols de bouteilles de vin, une méthodologie de correspondance point par point géométrique capable de résoudre le problème de correspondance en deux et trois vues pour tout point d'intérêt, et enfin la reconnaissance de l'intention humaine pour les tâches de 'grasping' 'a travers de l'analyse du mouvement des yeux et de la main. 'A l'avenir, il restera encore 'a analyser les correspondances dynamiques 'a travers de caractéristiques invariantes, employer des méthodes d'analyse géométriques en séquences d'images radiologiques, et utiliser des modèles de détection d'intentions pour évaluer la qualité des objets.
178

Impact de la dépendance dans les procédures de tests multiples en grande dimension

Friguet, Chloé 24 September 2010 (has links) (PDF)
Motivé par des applications dans le domaine de l'analyse de données génomiques, ce travail de thèse porte sur l'étude de l'impact de la dépendance sur les propriétés des procédures de tests multiples en grande dimension. Notre proposition consiste à considérer un modèle d'Analyse en Facteurs pour la structure de dépendance entre les variables. Un algorithme de type EM est présenté pour estimer les paramètres du modèle ainsi qu'une méthode ad hoc pour déterminer le nombre optimal de facteurs à inclure dans le modèle. De plus, ce modèle définit un cadre général pour la prise en compte de la dépendance dans les procédures de tests multiples. L'estimation du taux de faux-positifs (FDR) et de la proportion d'hypothèses nulles, paramètre important qui intervient dans le contrôle des taux d'erreurs, sont étudiés plus particulièrement. Ainsi, on montre que la dépendance entre tests entraîne une instabilité des procédures d'inférence simultanée. Une nouvelle approche est présentée : l'objectif est de réduire cette dépendance, procurant à la fois une augmentation de la puissance des tests et une diminution de la variabilité des taux d'erreurs. Enfin, ces résultats méthodologiques sont illustrés à partir de données génomiques et la procédure est implémentée dans le logiciel libre R au sein du package FAMT.
179

Stratégies de simulation rapides et algorithme adaptatif de contrôle de la tension et de la fréquence pour les MPSoCs basse consommation

Gligor, M. 09 September 2010 (has links) (PDF)
Les Systèmes sur Puce (SoC) ont vu leurs capacités en constante augmentation ce qui leur permet ainsi qu'aux applications s'exécutant dessus de devenir de plus en plus complexes grâce au pouvoir d'intégration de la technologie. Beaucoup de ces appareils fonctionnent sur batterie, mais puisque la technologie des batteries ne suit pas la même progression que l'intégration, à la fois le logiciel et le matériel de ces appareils doivent être économes en énergie. Nous proposons dans cette thèse un algorithme logiciel qui cherche à réduire la consommation énergétique en modifiant la fréquence et la tension des processeurs lorsque l'utilisation du système le permet. Cet algorithme n'a besoin d'aucune information sur les applications. Afin de tester et de déterminer l'efficacité de l'algorithme d'économie d'énergie proposé, nous avons besoin de plateformes de simulation rapides et précises qui supportent le changement de fréquence pour chaque processeur ou sous-système. Le bon niveau d'abstraction pour estimer la consommation d'énergie par la simulation n'est pas évident. Nous avons premièrement défini une stratégie de haut niveau de simulation qui combine la précision des simulateurs orientés matériel à la vitesse des simulateurs orientés comportement. Lorsque des estimations plus précises sont nécessaires, une simulation cycle accurate/bit accurate doit être utilisée. Toutefois, pour accélérer la simulation, des stratégies d'ordonnancement statique non compatibles avec le DVFS sont utilisées. Nous avons défini deux nouvelles approches supportant le DVFS dans ce contexte.
180

Optimization of multimedia flows over data networks : the core location problem and the peakedness characterization/Optimisation des flux multimédias sur les réseaux de données : le problème de sélection du noeud central et la caractérisation par peakedness

Macq, Jean-François 19 May 2005 (has links)
In the first part of the thesis, we address the optimization of multimedia applications such as videoconferences or multi-player games in which user-dependent information has to be sent from the users to a core node to be chosen, and then global information has to be multicast back from the core node to all users. For a given communication network, this optimization seeks a core node under two potentially competing criteria, one being the sum of the distances to a set of user terminals, the other being the cost of connecting this core node and the terminals with a multicast (or Steiner) tree. We first consider the problem of minimizing a weighted sum of the two criteria and propose a heuristic which rapidly computes a solution guaranteed to be within a few percent of the optimum. Then we characterize the worst-case trade-offs between approximation ratios for the two criteria. To state our result informally, we show that there always exists a core location for which each criterion is close to its minimum value (if we were to disregard the other criterion). In the second part, we focus on the protection of multimedia streaming applications against packet losses. Because of real-time constraints, error recovery is often achieved by Forward Error Correction (FEC) techniques which consist of partitioning the packet stream into blocks of consecutive packets and adding redundant data packets to each block. If the number of packets lost within a block is at most the number of redundant packets added, the receiver is able to recover the original data packets. Otherwise some data is irrecoverably lost. In communication networks, FEC techniques are typically impaired by the fact that packet losses are not evenly distributed among blocks but rather occur in long bursts of consecutive losses. However it has been observed that splitting the transmission of a FEC block onto several paths typically decreases the probability of an irrecoverable loss. Whereas current approaches rely on an exact computation of the probability and are consequently restricted to very small network instances, we propose to approximate this probability by measuring the impact of the chosen routing on the peakedness of the received packet stream. The peakedness of a stream may be seen as a measure of how packets are spread over time within the stream. Numerical experiments are presented and show that our method yields good approximations of the probability of irrecoverable loss./La première partie de cette thèse concerne l'optimisation d'applications multimédias, telles que des vidéoconférences ou des jeux en groupes, pour lesquels l'information propre à chaque utilisateur doit être envoyée vers un noeud central à sélectionner. L'information globale est ensuite diffusée en retour de ce noeud central vers chacun des utilisateurs. Pour un réseau de communication donné, cette optimisation consiste à choisir le noeud central selon deux critères potentiellement concurrents, le premier étant la somme des distances vers les utilisateurs, le second étant le coût de connecter ce noeud central et les utilisateurs avec un arbre multicast (ou arbre de Steiner). Nous considérons tout d'abord le problème de la minimisation d'une somme pondérée des deux critères et proposons une heuristique qui calcule rapidement une solution garantie d'être éloignée de l'optimum d'au plus quelques pour cent. Ensuite nous caractérisons les pires cas du compromis existant entre les rapports d'approximation pour les deux critères. De façon informelle, notre résultat peut se formuler comme suit : nous montrons qu'il est toujours possible de sélectionner le noeud central de telle sorte que chaque critère soit proche de sa valeur minimum (obtenue sans considérer l'autre critère). Dans la seconde partie, nous nous concentrons sur la protection des applications de diffusion multimédia (streaming) contre les pertes de paquets. A cause de contraintes temps réel, la récupération des erreurs pour ces applications est typiquement réalisée par des techniques de corrections d'erreurs dites "en avant" (Forward Error Correction ou FEC) qui consistent à partitionner le flux de paquets en blocs de paquets consécutifs et à ajouter des paquets de données redondantes à chacun de ces blocs. Si le nombre de paquets perdus au sein d'un bloc est inférieur ou égal au nombre de paquets ajoutés, le récepteur est capable de récupérer les paquets de données originaux. Dans le cas contraire, des données sont perdues de façon irrécupérable. Dans les réseaux de communication, l'efficacité des techniques FEC est typiquement dégradée par le fait que les pertes de paquets ne sont pas distribuées uniformément parmi les blocs de paquets mais apparaissent plutôt groupées par en rafales de pertes consécutives. Cependant il a été récemment observé que répartir la transmission d'un bloc FEC sur plusieurs chemins permet généralement de diminuer la probabilité de perte irrécupérable. Alors que les approches existantes se basent sur un calcul exact de cette probabilité et se limitent donc à des réseaux de très petite taille, nous proposons d'en calculer une approximation en mesurant l'impact du routage choisi sur la "peakedness" du flux de paquets. La peakedness d'un flux peut être vue comme un mesure de la répartition temporelle des paquets au sein de ce flux. Des résultats numériques sont présentés et montrent que notre méthode permet de calculer une bonne approximation de la probabilité de perte irrécupérable..

Page generated in 0.0431 seconds