• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 214
  • 135
  • 40
  • 20
  • 20
  • 20
  • 19
  • 11
  • 10
  • 10
  • 10
  • 10
  • 10
  • 10
  • 7
  • Tagged with
  • 524
  • 107
  • 88
  • 79
  • 58
  • 51
  • 47
  • 41
  • 40
  • 38
  • 37
  • 35
  • 31
  • 31
  • 29
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
221

Invariants locaux en géométrie modérées.

Comte, Georges 10 November 2010 (has links) (PDF)
Il s'agit d'une thèse d'habilitation à diriger des recherches portant sur les invariants additifs en géométrie réelle, complexe et p-adique.
222

Méthodes géométriques pour la construction des ensembles invariants. Application à la faisabilité des lois de commande prédictive

Benlaoukli, Hichem 10 December 2009 (has links) (PDF)
La thèse retrace les principes généraux des formulations explicites pour la commande prédictive et souligne la structure linéaire par morceaux de la dynamique. Les contributions principales de ce travail de thèse résident dans la construction des ensembles invariants pour les systèmes affines par morceaux (PWA). Les résultats se concentrent sur le traitement des systèmes PWA définis sur une partition polyédrale de l'espace d'état même si les principes sont applicables dans un cadre plus général. Trois constructions remarquables peuvent être mises en évidence : – la construction expansive, – la construction contractive, – la construction basée sur les graphes des transitions. Au niveau méthodologique toutes ces constructions étant basées sur la dynamique directe ou en temps inverse des ensembles de l'espace d'état, elles impliquent un traitement géométrique au moins dans la partie de comparaison avec le domaine faisable qui peut s'avérer gourmand en temps de calcul. Une solution innovante a été proposée en exploitant l'analyse par intervalles. Il est intéressant d'observer que la construction des ensembles invariants ouvre la voie au post-traitement des lois de commandes prédictives en vue de la maximisation de leur domaine de fonctionnement avec garantie de sureté. Des comparaisons sont faites entre les différentes structures MPC avec d'une part les formulations qui bénéficient du renforcement de l'invariance dès la phase de synthèse et d'autre part les formulations explicites qui bénéficient de la post analyse pour la caractérisation des domaines viables. En outre, le présent travail fait état des extensions MPC à base de ces méthodes géométriques pour le suivi de trajectoire, pour la prise en compte des incertitudes paramétriques ou d'un retard variable à l'entrée du système. Une grande partie de ces développements théoriques sont illustrés par des exemples au fur et à mesure de leur introduction. Le mémoire contient aussi l'étude d'un problème de suivi de trajectoire et de faisabilité/viabilité d'un certain profil, avec application pour la production d'électricité en conjonction avec la caractérisation d'une vallée hydraulique.
223

Non linéarité parfaite généralisée au sens des actions de groupe, contribution aux fondements de la solidité cryptographique

Poinsot, Laurent 12 September 2005 (has links) (PDF)
Les notions de fonctions parfaitement non linéaires et courbes sont particulièrement pertinentes en cryptographie puisqu'elles formalisent les résistances maximales face aux très efficaces attaques différentielle et linéaire. Cette thèse est ainsi consacrée à l'étude de ces objets cryptographiques. Nous interprétons ces notions de manière très naturelle essentiellement en substituant les translations figurant dans la définition de la non linéarité parfaite par une action de groupe quelconque. Les propriétés de ces actions telle que la fidélité ou la régularité permettent de décliner en plusieurs variantes ce nouveau concept. Nous développons de surcroît sa caractérisation duale à l'aide de la transformée de Fourier ce qui aboutit à la notion appropriée de fonction courbe. En particulier dans le cas d'une action de groupe non abélien, nous faisons usage de la théorie des représentations linéaires afin d'établir une version duale matricielle. Nous généralisons par ailleurs selon le même principe ces objets combinatoires appelés ensembles à différences qui caractérisent la non linéarité parfaite des fonctions à valeurs dans le corps fini à deux éléments. Cela nous permet d'exhiber des constructions de fonctions satisfaisant nos critères généralisés, en particulier dans ces cas où les fonctions courbes au sens classique n'existent pas.
224

La dynamique des systèmes hamiltoniens presque intégrables

BERNARD, Patrick 20 December 2004 (has links) (PDF)
Le mémoire constitue un panorama sur l'évolution des variables d'action pour les systèmes presque intégrables. C'est le problème de la diffusion d'Arnold. J'aborde la construction d'Arnold, ainsi que les méthodes variationnelles issues des travaux plus récents de John Mather. J'explique ce qu'est le large gap problem, et j'introduis la relation d'équivalence sur les variables d'action qui m'a permis d'obtenir une solution à ce problème.
225

Map Theory et Antifondation

Vallée, Thierry 21 December 2001 (has links) (PDF)
Map Theory est une extension équationnelle du lambda-calcul non-typé conçue par Klaus Grue pour être une fondation commune de l'informatique et des mathématiques. Elle permet en particulier une interprétation complète du calcul des prédicats et de ZFC+FA, où ZFC est la théorie de Zermelo-Fraenkel, et FA est l'axiome de bonne fondation usuel. Toutes les notions primitives de la logique du premier ordre et de la théorie des ensembles, valeurs de vérité, connecteurs, quantificateurs, appartenance et égalité, y sont traduites par des termes du lambda-calcul enrichi de quelques constantes. De plus, Map Theory permet de représenter les types de données inductifs et de donner un sens calculatoire immédiat à tous les constructeurs ensemblistes usuels. La version initiale de Map Theory par K. Grue ne considère cependant que les ensembles (ou classes) bien-fondée relativement à la relation d'appartenance. Dans le cadre du renouveau d'intérêt pour l'antifondation induit par les developpements récents de l'informatique théorique, nous montrons dans notre thèse qu'il est possible d'élaborer une version antifondée de Map Theory qui prenne en compte l'existence des objets non-bien-fondés, et qui permette de raisonner sur ces objets par co-induction. Ce nouveau système ouvre la possibilité d'une représentation directe des types de données co-inductifs, et de la modèlisation des phènoménes et processus circulaires. Dans une première partie, nous présenterons l'axiomatisation MTA de ce nouveau système, et nous montrerons que ZFC+AFA, où AFA est l'axiome d'Antifondation de Aczel-Forti-Honsell, y est interprétable syntaxiquement. Dans la deuxième partie, nous montrerons la consistance de MTA relativement à ZFC+SI, où SI est l'axiome exprimant l'existence d'un cardinal fortement inaccessible.
226

Régularité des cônes et d'ensembles minimaux de dimension 3 dans R4

Luu, Tien Duc 12 December 2011 (has links) (PDF)
On étudie dans cette thèse la régularité des cônes et d'ensembles de dimension 3 dans l'espace Euclidien de dimension 4.Dans la première partie, on étudie d'abord la régularité Bi-Hölderienne des cônes minimaux de dimension 3 dans l'espace Euclidien de dimension 4. Ceci nous permet ensuite de montrer qu'il existe un difféomorphisme locale entre un cône minimal de dimension 3 dans l'espace Euclidien de dimension 4 et un cône minimal de dimension 3, de type P, Y ou T, loin d'origine. La méthode est la même que pour les ensembles minimaux de dimension 2. On construit des compétiteurs et on se ramène aux situations connues des ensembles minimaux de dimension 2 dans l'espace Euclidien de dimension 3.Dans la deuxième partie, on utilise le résultat de la première partie pour donner quelques résultats de régularité Bi-Hölderienne pour les ensembles minimaux de dimension 3 dans l'espace Euclidien de dimension 4. On s'intéresse aussi aux ensembles minimaux de Mumford-Shah et on obtient un résultat de l'existence d'un point de type T.
227

La commande des systèmes dynamiques sous contraintes Interaction optimisation-géométrie-commande

Olaru, Sorin 24 May 2011 (has links) (PDF)
Dans ce mémoire d'Habilitation à Diriger les Recherches, seront présentées les recherches menées ces cinq dernières années sur des sujets liés à la commande sous contraintes, à la commande basée sur l'optimisation temps-réel et aux méthodes géométriques en Automatique. La première partie du mémoire d'écrit le parcours académique permettant de recadrer les résultats de recherche dans un parcours scientifique avec toutes ses dimensions la formation, l'enseignement, la recherche, le développement et la participation à la vie de la communauté. Dans la deuxième partie, nous retraçons le chemin de la commande optimale à la commande basée sur l'optimisation. Avec ce panorama historique nous montrerons que les recherches dans ce domaine ont toujours été partagées entre les travaux théoriques et les applications à visée industrielle. Ce panorama sera suivi d'une revue de méthodes géométriques utilisées en automatique, qui identifie une direction dans laquelle s'inscrit notre recherche. Nous insisterons sur les contributions dans le domaine avant d'établir un projet de recherche à court, moyen et long terme. La troisième partie contient une synthèse des travaux de recherche publiés récemment sur les sujets mentionnés précédemment afin d'offrir une image des directions explorées et des concepts clés qui ont guidé nos recherches dans les cinq dernières années. L'analyse des polyèdres paramétrés est présentée comme un problème de géométrie avec des implications multiples dans la commande prédictive sous contraintes dans le cas linéaire et hybride. Spécifiquement pour la commande prédictive des systèmes hybrides, des approches alternatives basées sur l'adaptation du modèle de prédiction en vue de l'exploitation des routines d'optimisation évoluées (algorithmes génétiques, etc.) ont été développées. Les outils géométriques sont utilisés aussi dans des problèmes plus éloignés de la commande prédictive comme le cas de la modélisation des systèmes affectés par un retard variable. Ici, les techni-ques géométriques permettent la description des modèles linéaires polytopiques qui peuvent être utilisés par la suite dans une procédure de synthèse de lois de commande robuste (et prédictive accessoirement). Finalement, dans un tout autre domaine, celui de la commande des systèmes multi-capteurs, on montre que les méthodes ensemblistes peuvent apporter des réponses pour les défis de détection et isolation des défauts. Quant à la commande prédictive, elle offre le cadre approprié pour la reconfiguration, l'autre aspect majeur de ce qu'on appelle communément " la conception d'un système de commande tolérant aux défauts ".
228

Etude combinatoire des ordonnés finis

Bouchet, André 13 May 1971 (has links) (PDF)
.
229

La démolition des immeubles de logements sociaux. L'urbanisme entre scènes et coulisses

Berland-Berthon, Agnès 20 December 2004 (has links) (PDF)
La démolition des immeubles de logements sociaux est présentée aujourd'hui comme un mode d'action légal et légitime de la gestion patrimoniale d'un parc social public obsolète et de la gestion urbaine des " cités de la politique de la ville ". En réponse à des demandes de démolition, tout d'abord ponctuelles et localisées, puis de plus en plus nombreuses et diversifiées, l'Etat va opposer jusqu'en 1988 à cet " impensable " de la démolition le référentiel réparateur d'une politique de réhabilitation généralisée à l'ensemble du parc social. Le développement des politiques urbaines locales conduira l'Etat à reconnaître à la démolition une première légitimité administrativement encadrée en 1996 dans le cadre des projets urbains. L'usage en sera banalisé en 2001 au nom du renouvellement urbain et de la reconnaissance des limites de la politique de la ville à réduire les phénomènes de ségrégation socio-spatiale contraires à l'idéal républicain de la " ville égalitaire ". Le temps long de la résistance de l'Etat français à transférer à l'espace public local l'arbitrage du recours à la démolition d'un patrimoine public à vocation sociale est analysé ici à l'aide des outils de la science politique, et plus particulièrement ceux de l'analyse des politiques publiques et de l'approche non-décisionnelle. Ceux-ci permettent de révéler les contradictions internes des systèmes d'action concrets constitués par les trois partenaires interdépendants de la mise en œuvre de la politique du logement social, que sont l'Etat, les collectivités locales et les bailleurs sociaux. Pensé " entre scènes et coulisses ", entre résistances et cessions aux réalités du terrain, l'aménagement de l'espace est considéré ici comme le produit contingent de stratégies d'acteurs aux intérêts divergents, dont le sujet de la démolition nous permet d'étudier les modalités de production.
230

Obtaining Accurate and Comprehensible Data Mining Models : An Evolutionary Approach

Johansson, Ulf January 2007 (has links)
When performing predictive data mining, the use of ensembles is claimed to virtually guarantee increased accuracy compared to the use of single models. Unfortunately, the problem of how to maximize ensemble accuracy is far from solved. In particular, the relationship between ensemble diversity and accuracy is not completely understood, making it hard to efficiently utilize diversity for ensemble creation. Furthermore, most high-accuracy predictive models are opaque, i.e. it is not possible for a human to follow and understand the logic behind a prediction. For some domains, this is unacceptable, since models need to be comprehensible. To obtain comprehensibility, accuracy is often sacrificed by using simpler but transparent models; a trade-off termed the accuracy vs. comprehensibility trade-off. With this trade-off in mind, several researchers have suggested rule extraction algorithms, where opaque models are transformed into comprehensible models, keeping an acceptable accuracy. In this thesis, two novel algorithms based on Genetic Programming are suggested. The first algorithm (GEMS) is used for ensemble creation, and the second (G-REX) is used for rule extraction from opaque models. The main property of GEMS is the ability to combine smaller ensembles and individual models in an almost arbitrary way. Moreover, GEMS can use base models of any kind and the optimization function is very flexible, easily permitting inclusion of, for instance, diversity measures. In the experimentation, GEMS obtained accuracies higher than both straightforward design choices and published results for Random Forests and AdaBoost. The key quality of G-REX is the inherent ability to explicitly control the accuracy vs. comprehensibility trade-off. Compared to the standard tree inducers C5.0 and CART, and some well-known rule extraction algorithms, rules extracted by G-REX are significantly more accurate and compact. Most importantly, G-REX is thoroughly evaluated and found to meet all relevant evaluation criteria for rule extraction algorithms, thus establishing G-REX as the algorithm to benchmark against.

Page generated in 0.0452 seconds