• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 56
  • 31
  • 2
  • 1
  • Tagged with
  • 87
  • 34
  • 29
  • 20
  • 18
  • 17
  • 13
  • 13
  • 13
  • 12
  • 12
  • 11
  • 10
  • 9
  • 9
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

SUR QUELQUES MODELES ASYMPTOTIQUES DANS LA THEORIE DES ONDES HYDRODYNAMIQUES

Mammeri, Youcef 17 July 2008 (has links) (PDF)
Les équations de Kadomtsev-Petviashvili (KP) décrivent les ondes de faible amplitude et de grande longueur se déplaçant à la surface de l'eau, principalement dans la direction (Ox). Quant à l'équation de Benjamin-Ono (BO), elle décrit de telles ondes se déplaçant à l'intérieur de l'eau. On s'intéresse à ces équations vue en tant qu'équations de type Benjamin-Bona-Mahony (BBM).<br />Notre travail se divise alors en trois parties. Dans la première partie, on rappelle la modélisation des différentes équations. On montre plus particulièrement que les modèles BBM s'obtiennent à partir du principe fondamental de la dynamique via une analyse asymptotique. On compare alors les solutions des équations de KP, respectivement de BO, avec les solutions des équations de type BBM.<br />Dans la seconde partie, on s'intéresse à certaines propriétés qualitatives des équations généralisées de type BBM. Des résultats de prolongement en temps des bornes sur les normes de Sobolev, de décroissance en temps et de prolongement unique des solutions sont établis.<br />Enfin, on termine avec une étude numérique des solutions des équations KP généralisées en dimension 3 d'espace. Dans cette dernière partie, en collaboration avec F. Hamidouche et S. Mefire, on inspecte numériquement les phénomènes de dispersion, d'explosion en temps fini, de comportement solitonique et d'instabilité transversale.
42

Contribution à l'étude géologique du SE du Massif des Bornes: la partie méridionale de la chaîne des Aravis entre le col des Aravis et la cluse de Faverges-Ugine (Haute-Savoie, France)

Rivano Garciaz, Sergio 04 July 1978 (has links) (PDF)
Le secteur étudié correspond à la partie méridionale de la chaîne des ARAVIS, entre le Col des ARAVIS et la Cluse de FAVERGES-UGINE. Il concerne donc le "bord subalpin", dans la partie sud du massif subalpin des Bornes. Du point de vue stratigraphique , notre secteur fait classiquement partie de la "Zone dauphinoise ". Nous y avons étudié les terrains de l'Oxfordien au Nummulitique, Nous avons reconnu trois cycles sedimentaires marins successifs. Un premi er cycle va du Jurassique inférieur à l 'Aptien inféri eur il se termine par des faciès littoraux de plate-forme (faciès Urgonien) . - Un deuxième cycle débute avec le Gault et se poursuit durant tout le Crétacé supérieur. Il se termine par les "Couches de Wang", considérées comme un faciès régressif. - Un troisième cycle correspond au Nummulitique . Il débute après une longue période d'émersion au Lutétien et se termine sans doute dans l ' 0ligocène. L'ensemble du secteur étudié, mais surtout sa partie sud, paraît correspondre à la partie paléogéographiquement la plus interne des chaînes subalpines septentrionales. Du point de vue tectonique, nous avons pu distinguer : - Une phase antelutétienne, responsable de bombements grossièrement E-W, et d'importantes érosions anté nummulitiques. Une phase synsédimentaire intrapriabonienne, réactivant des reliefs par création ou rejeu de failles. - Une importante phase, sans doute Oligocène moyen ou supérieur , synchrone de la mise en place des Klippes de Savoie. Elle a créé au bord subalpin de grands plis couchés, accompagnés de schistosité de flux dans les niveaux inférieurs . Elle est responsable également d'écaillages du bord subalpin dans les niveaux supérieurs (Chevauchement de l'Unité du Charvin sur l'Unité de l'Etale), et de l'entraî nement de flyschs parautochtones sous la Klippe de Sulens. La direction de serrage paraît être SE- NW. - Une phase sans doute fini-miocène, dont la direction de serrage semble grossièrement E-W. Ell e a entraîné le bascul ement général du bord subalpin vers l 'W , et s'est accompagnée de rétroécailiages et retrodéversements multiples . Elle est à l'origine également de failles décrochantes sénestres N105 à N145 . Enfin une phase tardive post -miocène, à l'origine d'un réseau de failles normales subméridiennes et E- W .
43

Modélisation de signaux fortement non stationnaires à phase et à amplitude locales polynomiales.

Jabloun, Meryem 10 July 2007 (has links) (PDF)
Ce travail de recherche est consacré à l'élaboration et le développement d'une nouvelle méthode d'estimation<br />et de reconstruction de signaux fortement non-stationnaires, modulés non-linéairement à la fois<br />en amplitude et en fréquence. L'estimation de tels signaux dans un contexte trés bruité est un problème<br />délicat et les méthodes existantes de la littérature présentent plusieurs inconvénients dans ce cas.<br />Nous avons montré comment une approche locale permet une meilleure adaptabilité du modèle à la<br />nature des variations locales des amplitudes et des fréquences instantanées. Les résultats de l'estimation<br />sont par conséquent améliorés. L'originalité de la méthode proposée tient à l'application de modèles paramétriques bien adaptés sur des segments temporels de courtes durées extraits du signal étudié. Nous<br />avons proposé une stratégie de segmentation puis une stratégie de fusion des segments estimés permettant<br />la reconstruction du signal dans la totalité de sa durée. L'approche proposée permet de s'affranchir d'un<br />modèle global du signal requérant un ordre d'approximation élevé.<br />La validation de l'efficacité de l'estimation a été effectuée au préalable sur un segment temporel court.<br />Le modèle considéré localement consiste en une approximation polynomiale de la fréquence et de l'amplitude<br />exprimée dans une base polynomiale discrète et orthonormale que nous avons calculée. Cette base<br />permet de réduire le couplage entre les paramètres du modèle. Nous proposons et comparons deux techniques<br />différentes pour estimer ces derniers. La première est fondée sur la maximisation de la fonction<br />de vraisemblance en utilisant la technique d'optimisation stochastique le recuit simulé. Tandis que la<br />deuxième se base sur une approche Bayésienne employant les méthodes MCMC simulées par l'algorithme<br />de Metroplois-Hastings.<br />Nous montrons, sur des simulations et également sur des signaux réels, que l'approche proposée fournit<br />de bons résultats d'estimation par comparaison à celles de la HAF.
44

Conception d'un système d'aide à l'ordonnancement tenant<br />compte des impératifs économiques

Ihsen, Saad 12 July 2007 (has links) (PDF)
Nos travaux concernent la mise en œuvre de méthodologies pour la résolution et l'optimisation de la production en tenant compte des impératifs économiques, jouant aujourd'hui un rôle déterminant dans la conduite de la production industrielle. Pour le problème du job-shop flexible dans lequel les interactions entre les critères sont supposées disponibles, cinq critères ont été retenus : le Makespan, la charge critique, la charge totale, la pénalité de retards/avance et le coût de la production. Dans ce sens, nous avons, d'abord, traité le problème de décision et d'évaluation d'une solution et introduit ensuite trois approches intégrées, basées sur les algorithmes génétiques, améliorant les approches évolutionnistes existant dans la littérature : la méthode statique basée sur l'intégrale de Choquet, la méthode approchée basée sur le concept Paréto-optimalité ainsi que la méthode basée sur le concept de ε-dominance Paréto-optimalité. Les approches adoptées consistent à générer une variété de solutions optimales diversifiées dans l'espace de recherche de solutions, et d'aider le décideur, quand il ne peut pas donner une préférence particulière à l'une des fonctions objectif. Les résultats proposés, obtenus globalement pour l'ensemble des critères, ont été comparés, avec succès, avec ceux obtenus par d'autres approches existantes sur plusieurs benchmarks de complexités distinctes.
45

Complexité en requêtes et symétries

Nesme, Vincent 11 May 2007 (has links) (PDF)
Ces travaux portent sur l'étude de la complexité en requêtes de <br />problèmes symétriques, dans les cadres du calcul probabiliste classique <br />et du calcul quantique.<br /><br />Il est montré, dans le cas quantique, une application de la méthode de <br />bornes inférieures dite "polynomiale" au calcul de la complexité en <br />requêtes des problèmes de sous-groupes cachés abéliens, via la technique de "symétrisation".<br /><br />Dans le cas du calcul probabiliste, sous une hypothèse de "symétrie <br />transitive" des problèmes, il est donné une formule combinatoire <br />permettant de calculer la complexité en requêtes exacte du meilleur <br />algorithme non-adaptatif. De plus, il est mis en évidence que sous <br />certaines hypothèses de symétrie, ce meilleur algorithme non-adaptatif <br />est optimal même parmi les algorithmes probabilistes plus généraux, ce qui donne pour la classe de problèmes correspondante une expression exacte de la complexité en requêtes.
46

Contribution à l'analyse des performances d'estimation en traitement statistique du signal

Renaux, Alexandre 07 July 2006 (has links) (PDF)
Cette thèse porte sur l'étude des performances des estimateurs dans le cadre du traitement du signal et s'attache plus particulièrement à étudier et unifier les bornes minimales d'estimation. Nous caractérisons ainsi les limites des méthodes du maximum de vraisemblance en terme d'erreur quadratique moyenne (EQM).<br /><br />La difficulté majeure provient du fait que l'EQM de l'estimateur d'un paramètre à support borné se divise en trois régions : la plage asymptotique, souvent caractérisée par un grand nombre d'observations ou un faible niveau de bruit, où l'erreur d'estimation est faible, la plage de décrochement où l'EQM se dégrade rapidement et la zone a priori où les observations se réduisent principalement à la seule contribution du bruit et donc, n'apportent pratiquement plus d'informations sur les paramètres à estimer. Beaucoup de résultats sont disponibles pour la zone asymptotique : distribution des estimées, biais, variance. En revanche, le comportement des estimateur dans les zones de décrochement et a priori a été beaucoup moins étudié. Pourtant ces zones non-asymptotiques constituent au même titre que le biais ou la variance une caractéristique fondamentale d'un estimateur puisque qu'elle délimite la plage acceptable de fonctionnement optimal.<br /><br />Le but de cette thèse est, dans un premier temps, de compléter la caractérisation de la zone asymptotique (en particulier lorsque le rapport signal sur bruit est élevé et pour un nombre d'observations fini) pour les estimateurs au sens du maximum de vraisemblance dans un contexte traitement d'antenne. Dans un second temps, le but est de donner les limites fondamentales de l'EQM d'un estimateur sur ses trois plages de fonctionnement. Les outils utilisés ici sont les bornes minimales de l'EQM autres que les bornes de Cramér-Rao dont la validité n'est qu'asymptotique.<br /><br />Les résultats obtenus sont appliqués à l'analyse spectrale et à l'estimation de porteuse dans le contexte des communications numériques et fournissent de surcroît des outils intéressants pour prédire la zone de décrochement d'un récepteur.
47

Représentations des polynômes, algorithmes et bornes inférieures

Grenet, Bruno 29 November 2012 (has links) (PDF)
La complexité algorithmique est l'étude des ressources nécessaires -- le temps, la mémoire, ... -- pour résoudre un problème de manière algorithmique. Dans ce cadre, la théorie de la complexité algébrique est l'étude de la complexité algorithmique de problèmes de nature algébrique, concernant des polynômes.Dans cette thèse, nous étudions différents aspects de la complexité algébrique. D'une part, nous nous intéressons à l'expressivité des déterminants de matrices comme représentations des polynômes dans le modèle de complexité de Valiant. Nous montrons que les matrices symétriques ont la même expressivité que les matrices quelconques dès que la caractéristique du corps est différente de deux, mais que ce n'est plus le cas en caractéristique deux. Nous construisons également la représentation la plus compacte connue du permanent par un déterminant. D'autre part, nous étudions la complexité algorithmique de problèmes algébriques. Nous montrons que la détection de racines dans un système de n polynômes homogènes à n variables est NP-difficile. En lien avec la question " VP = VNP ? ", version algébrique de " P = NP ? ", nous obtenons une borne inférieure pour le calcul du permanent d'une matrice par un circuit arithmétique, et nous exhibons des liens unissant ce problème et celui du test d'identité polynomiale. Enfin nous fournissons des algorithmes efficaces pour la factorisation des polynômes lacunaires à deux variables.
48

Homogénéisation des composites linéaires : Etude des comportements apparents et effectif

Salmi, Moncef 02 July 2012 (has links) (PDF)
Les travaux effectués au cours de cette thèse portent principalement sur la construction de nouvelles bornes du comportement effectif des matériaux biphasés de type matrice-inclusions à comportement linéaire élastique. Dans un premier temps, afin d'encadrer le comportement effectif, nous présentons une nouvelle approche numérique, inspirée des travaux de Huet (J. Mech. Phys. Solids 1990 ; 38:813-41), qui repose sur le calcul des comportements apparents associés à des volumes élémentaires (VE) non-carrés construits à partir d'assemblages de cellules de Voronoï, chaque cellule contenant une inclusion entourée de matrice. De tels VE non-carrés permettent d'éviter l'application directe des CL sur les inclusions à l'origine d'une surestimation artificielle des comportements apparents. En utilisant les théorèmes énergétiques de l'élasticité linéaire et des procédures de moyennisation appropriées portant sur les comportements apparents, un nouvel encadrement du comportement effectif est obtenu. Son application au cas d'un composite biphasé, constitué d'une matrice isotrope et de fibres cylindriques parallèles et identiques distribuées aléatoirement dans le plan transverse, conduit à des bornes plus resserrées que celles obtenues par Huet. En nous appuyant sur cette nouvelle procédure numérique, nous avons ensuite réalisé une étude statistique des comportements apparents à l'aide de simulations de type Monté Carlo. Puis, à partir des tendances issues de cette étude statistique, nous avons proposé et mis en œuvre de nouveaux critères de tailles de VER.
49

Key Agreement Against Quantum Adversaries

Kalach, Kassem H. 08 1900 (has links)
Key agreement is a cryptographic scenario between two legitimate parties, who need to establish a common secret key over a public authenticated channel, and an eavesdropper who intercepts all their messages in order to learn the secret. We consider query complexity in which we count only the number of evaluations (queries) of a given black-box function, and classical communication channels. Ralph Merkle provided the first unclassified scheme for secure communications over insecure channels. When legitimate parties are willing to ask O(N) queries for some parameter N, any classical eavesdropper needs Omega(N^2) queries before being able to learn their secret, which is is optimal. However, a quantum eavesdropper can break this scheme in O(N) queries. Furthermore, it was conjectured that any scheme, in which legitimate parties are classical, could be broken in O(N) quantum queries. In this thesis, we introduce protocols à la Merkle that fall into two categories. When legitimate parties are restricted to use classical computers, we offer the first secure classical scheme. It requires Omega(N^{13/12}) queries of a quantum eavesdropper to learn the secret. We give another protocol having security of Omega(N^{7/6}) queries. Furthermore, for any k>= 2, we introduce a classical protocol in which legitimate parties establish a secret in O(N) queries while the optimal quantum eavesdropping strategy requires Theta(N^{1/2+k/{k+1}}) queries, approaching Theta(N^{3/2}) when k increases. When legitimate parties are provided with quantum computers, we present two quantum protocols improving on the best known scheme before this work. Furthermore, for any k>= 2, we give a quantum protocol in which legitimate parties establish a secret in O(N) queries while the optimal quantum eavesdropping strategy requires Theta(N^{1+{k}/{k+1}})} queries, approaching Theta(N^{2}) when k increases. / Un protocole d'échange de clés est un scénario cryptographique entre deux partis légitimes ayant besoin de se mettre d'accord sur une clé commune secrète via un canal public authentifié où tous les messages sont interceptés par un espion voulant connaître leur secret. Nous considérons un canal classique et mesurons la complexité de calcul en termes du nombre d'évaluations (requêtes) d'une fonction donnée par une boîte noire. Ralph Merkle fut le premier à proposer un schéma non classifié permettant de réaliser des échanges securisés avec des canaux non securisés. Lorsque les partis légitimes sont capables de faire O(N) requêtes pour un certain paramètre N, tout espion classique doit faire Omega(N^2) requêtes avant de pouvoir apprendre leur secret, ce qui est optimal. Cependant, un espion quantique peut briser ce schéma avec O(N) requêtes. D'ailleurs, il a été conjecturé que tout protocole, dont les partis légitimes sont classiques, pourrait être brisé avec O(N) requêtes quantiques. Dans cette thèse, nous introduisons deux catégories des protocoles à la Merkle. Lorsque les partis légitimes sont restreints à l'utilisation des ordinateurs classiques, nous offrons le premier schéma classique sûr. Il oblige tout adversaire quantique à faire Omega(N^{13/12}) requêtes avant d'apprendre le secret. Nous offrons aussi un protocole ayant une sécurité de Omega(N^{7/6}) requêtes. En outre, pour tout k >= 2, nous donnons un protocole classique pour lequel les partis légitimes établissent un secret avec O(N) requêtes alors que la stratégie optimale d'espionnage quantique nécessite Theta(N^{1/2 + k/{k +1}}) requêtes, se rapprochant de Theta(N^{3/2}) lorsque k croît. Lors les partis légitimes sont équipés d'ordinateurs quantiques, nous présentons deux protocoles supérieurs au meilleur schéma connu avant ce travail. En outre, pour tout k >= 2, nous offrons un protocole quantique pour lequel les partis légitimes établissent un secret avec O(N) requêtes alors que l'espionnage quantique optimale nécessite Theta(N^{1+{k}/{k+1}}) requêtes, se rapprochant de Theta(N^{2}) lorsque k croît.
50

Thermo-elasto-plastic uncoupling model of width variation for online application in automotive cold rolling process / Modèle thermo-elasto-plastic découplé de la variation de largeur au laminage à froid pour les applications en temps réel

Ngo, Quang Tien 30 March 2015 (has links)
Afin d'optimiser la mise aux milles au laminage à froid, la thèse consiste à développer un modèle prédictif de variation de largeur à la fois précis et rapide pour des utilisations en temps réel. Des efforts ont commencé en 1960s en développant des formules empiriques. Par la suite, la Méthode des Bornes Supérieures (MBS) est devenue la plus connue. [Oh 1975] utilisant le champ de vitesse 3D "simple" prédit bien la variation de largeur au laminage en conditions d'un tandem finisseur. [Komori 2002] a proposé une combinaison des champs fondamentaux et obtenu une structure informatique peu dépendante aux champs de vitesse. Néanmoins, seuls deux champs fondamentaux ont été introduits qui forment un sous-ensemble de la famille 3D "simple". [Serek 2008] a étudié des champs de vitesse quadratique qui inclue la famille "simple" et donne des meilleurs résultats avec un temps de calcul plus long. Le premier résultat de la thèse est un modèle 2D (MBS) avec des champs de vitesse oscillante. Ce modèle aboutit à une vitesse optimale qui oscille spatialement le long de l'emprise. Les résultats (puissance, vitesse...) sont plus proches des ceux de Lam3-Tec3 que la MBS 2D "simple". Pour une modélisation 3D, nous avons choisi la MBS avec la vitesse 3D "simple" et obtenu un très bon accord avec les expériences réalisées sur des produits étroits à Arcelor Mittal [64]. En outre, un nouveau modèle MBS est développé pour une bande bombée et des cylindres droits. Les résultats montrent que la variation de largeur diminue avec la bombée de la bande et correspondent bien à ceux de Lam3-Tec3. Cependant, la MBS admet un comportement rigide-plastique tandis qu'au laminage des bandes larges les déformations élastique et thermique ont des impacts importants sur la déformation plastique. Les modèles existant prenant en compte ces phénomènes [23,64] sont couteux en temps de calcul. Ainsi, l'idée est de décomposer la variation de la largeur de plastique en trois termes : les variations de largeur totales, élastique et thermique à travers la zone de plastique déterminés par trois nouveaux modèles simplifiés. Les deux premiers permettent d'estimer les variations de largeur élastique et plastique avant et après l'emprise. Ils donnent aussi les conditions aux limites au modèle d'emprise qui est en effet la MBS avec le champ de vitesse 3D "simple" permettant d'estimer la variation de la largeur totale. En outre, avec les puissances de déformation et de dissipation plastique de frottement données par le même modèle, la variation de largeur thermique est également obtenue. Le modèle de variation de largeur est donc appelée UBM-Slab combiné, très rapide (0,05 s) et prédit avec précision la largeur de variation par rapport à Lam3-Tec3 (<6%) / In order to save material yields in cold rolling process, the thesis aims at developing a predictive width variation model accurate and fast enough to be used online. Many efforts began in the 1960s in developing empirical formula. Afterward, the Upper Bound Method (UBM ) became more common. [Oh 1975]'s model with 3D "simple" velocity field estimates well the width variation for finishing mill rolling conditions. [Komori 2002] proposed a combination of fundamental ones to obtain a computer program depending minimally on the assumed velocity fields. However, only two fundamental fields were introduced and formed a subset of the "simple" family. [Serek 2008] studied a quadratic velocity family that includes the "simple" one and leads to better results with a higher computing time. Focusing on UBM , the first result of the thesis is a 2D model with an oscillating velocity field family. The model results to an optimum velocity that oscillates spatially throughout the roll-bite. The optimum power and the velocity field are closer to Lam3-Tec3 results than the "simple" one. For 3D modelling, we chose the 3D "simple" UBM and carried a comparison to the experiments performed at Arcelor Mittal using narrow strips [64]. A very good agreement is obtained. Further, a new UBM model is developed for a crowned strip with cylindrical work-rolls. It shows that the width variation decreases as a function of the strip crown and the results match well those of Lam3-Tec3 . However, the UBM considers only a rigid-plastic behaviour while in large strip rolling, the elastic and thermal deformations have important impacts on the plastic one. There exist some models considering these phenomena [23,64] but they are all time-consuming. Thus, the idea is to decompose the plastic width variation into three terms : total, elastic and thermal width variations through the plastic zone that are determined by three new models. The simplified roll-bite entry & exit models allow estimating the elastic and plastic width variations before and after the roll-bite. They give equally the longitudinal stresses defining the boundary conditions for the roll-bite model which is indeed the 3D "simple" UBM approximating the total width variation term. Moreover, with the plastic deformation and friction dissipation powers given by the same model, the thermal width variation term is also obtained. The width variation model, called UBM-Slab combined is very fast (0.05s) and predicts accurately the width variation in comparison with Lam3-Tec3 (<6%)

Page generated in 0.0572 seconds