• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 689
  • 334
  • 67
  • 2
  • Tagged with
  • 1109
  • 510
  • 292
  • 197
  • 166
  • 141
  • 121
  • 110
  • 103
  • 98
  • 97
  • 97
  • 89
  • 81
  • 75
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
221

Régularisation et temps conjugués bang-bang pour des problèmes de contrôle optimal

Silva, Cristiana 11 October 2010 (has links) (PDF)
On considère le problème de contrôle optimal de temps minimal pour des systèmes affine et mono-entrée en dimension finie, avec conditions initiales et finales fixées, où le contrôle scalaire prend ses valeurs dans un intervalle fermé. Lors de l'application d'une méthode de tir pour résoudre ce problème, on peut rencontrer des obstacles numériques car la fonction de tir n'est pas lisse lorsque le contrôle est bang-bang. Pour ces systèmes, dans le cas bang-bang, un concept théorique de temps conjugué a été défini, toutefois les algorithmes de calcul direct sont difficiles à appliquer. En outre, les questions théoriques et pratiques de la théorie du temps conjugué sont bien connues dans le cas lisse, et des outils efficaces de mise en oeuvre sont disponibles. On propose une procédure de régularisation pour laquelle les solutions du problème de temps minimal dépendent d'un paramètre réel positif suffisamment petit et sont définis par des fonctions lisses en temps, ce qui facilite l'application de la méthode de tir simple. Sous des hypothèses convenables, nous prouvons un résultat de convergence forte des solutions du problème régularisé vers la solution du problème initial, lorsque le paramètre réel tend vers zéro. Le calcul des temps conjugués pour les trajectoires localement optimales du problème régularisé est standard. Nous prouvons, sous des hypothèses appropriées, la convergence du premier temps conjugué du problème régularisé vers le premier temps conjugué du problème de contrôle bang-bang initial, quand le paramètre réel tend vers zéro. Ainsi, on obtient une procédure algorithmique efficace pour calculer les temps conjugués dans le cas bang-bang.
222

Problèmes d'identification paramétrique : vers des approches multiéchelles

Puel, Guillaume 22 November 2013 (has links) (PDF)
L'objectif de ce travail est d'apporter une contribution à la résolution des problèmes d'identification paramétrique, notamment lorsque ces paramètres sont des fonctions de l'espace et/ou du temps. Dans un premier temps, nous nous intéressons au cadre de l'identification paramétrique de modèles régis par des équations différentielles ordinaires. Ceci est l'occasion de proposer une démarche de base de résolution du problème inverse, utilisant la solution d'un problème d'état adjoint. Deux exemples issus du domaine de la simulation multicorps et proposant l'utilisation de données expérimentales transitoires permettent d'illustrer le bien-fondé de cette démarche ainsi que d'exposer quelques pistes de régularisation spécifiques. Dans un deuxième temps, l'identification de champs spatiaux de paramètres est abordée. Les problèmes s'inscrivant dans ce cadre sont alors régis par des équations aux dérivées partielles, et il devient nécessaire d'avoir accès à des données expérimentales les plus riches possibles, telles que celles que peuvent offrir les techniques de mesures de champs. Pour résoudre ce type de problème inverse, nous adjoignons à la démarche présentée précédemment une recherche du champ spatial de paramètres effectuée à l'aide d'un maillage spécifique, initialement grossier, et progressivement raffiné selon des techniques d'adaptation de maillage. Ceci permet alors de développer une stratégie adaptative d'identification, dont les propriétés de régularisation facilitent la résolution du problème inverse, et qui laisse entr'apercevoir des possibilités d'extensions multiéchelles. Dans un dernier temps, nous présentons enfin une approche complètement multiéchelle, dans le cadre peu répandu de l'homogénéisation périodique en temps. Cette dernière permet d'aborder de façon efficace la simulation de l'évolution "lente" d'un système soumis à des sollicitations cycliques "rapides". Nous proposons alors sur un exemple quelques investigations autour d'une formulation du problème d'identification paramétrique adaptée à ce cadre multiéchelle.
223

Identification de l'état magnétique d'un système ferromagnétique à partir de mesures du champ proche

Legris, Michel 22 November 1996 (has links) (PDF)
Pour connaître l'état magnétique d'un objet complexe, bien souvent, la seule solution est de mesurer l'induction créée par la pièce en un nombre discret de points. La difficulté est alors de remonter à l'aimantation à partir de ces mesures. Une modélisation des * sources magnétiques est d'abord recherchée. La décomposition en harmoniques sphériques du champ mesurable ainsi que la recherche de dipôles normaux équivalents répartis sur la surface de l'objet sont étudiées. Leurs avantages et inconvénients étant très complémentaires, un nouveau modèle, synthèse des deux précédents, est proposé. Ensuite, l'utilisation d'un algorithme bayésien permet d'intégrer dans la projection de la mesure sur le modèle, les incertitudes et incohérences créées par l'imperfection de la mesure. En contrepartie, nous n'obtenons plus qu'un intervalle de confiance sur les valeurs recherchées. Enfin, une étude paramétrique analytique permet de connaître les performances du système. En particulier, le choix du type de capteurs de mesure est abordé.
224

Contrôle endogène des systêmes multi-agents pour la résolution de problèmes complexes

Lefevre, Olivier 05 October 2010 (has links) (PDF)
Ces travaux abordent la problématique du contrôle endogène dans les Systèmes Multi-Agents (SMA) pour la résolution de problèmes complexes, que nous explorons grâce au problème de partage de ressources critiques. Les problèmes dits complexes que nous abordons se caractérisent par une explosion combinatoire du nombre de solutions avec la taille des problèmes, une forte dynamique des données du problème induite par un environnement ouvert dans lequel de nombreux événements peuvent avoir lieu, une grande complexité systémique issue des interdépendances entre les nombreuses variables du problèmes et enfin une décentralisation du processus de résolution imposée par une distribution physique et fonctionnelle des variables incompatible avec une vision centralisée du problème. Un parcours complet des espaces de recherche associés à de tels problèmes est irréaliste en un temps acceptable, il est alors nécessaire d'employer des méthodes de résolution dite incomplètes. Quelque soit l'approche incomplète considérée, le parcours incomplet de l'espace de recherche requiert un contrôle afin de maximiser la probabilité de converger vers une solution satisfaisante. Nous identifions trois niveaux de contrôle du parcours de l'espace de recherche indépendamment de l'approche utilisée : un contrôle statique (définition a priori du comportement du système), un contrôle dynamique (évoluant en cours de résolution selon des mécanismes préétablis) et un contrôle adaptatif (évoluant dynamiquement en cours de résolution). Nous montrons qu'un contrôle endogène de l'activité du système, c.-à-d. un contrôle adaptatif issu de l'activité même des agents, est nécessaire au guidage du parcours de l'espace de recherche dans le contexte de résolution de problèmes complexes. Ces travaux ayant été réalisés dans un contexte de collaboration industrielle, ils s'appuient sur une approche développée au cours de précédents travaux : CESNA (Complex Exchanges between Stigmergic Negotiating Agents). CESNA est une approche multi-agents auto-organisationnelle exploitant des agents situés dans un environnement matérialisant le problème et exploité par un processus de résolution basé sur une négociation stigmergique entre les agents. Le cas applicatif utilisé par l'approche CESNA et permettant d'illustrer ces travaux est le problème de partage de ressources critiques, caractérisé par un ensemble restreint de ressources exploitées par un grand nombre de consommateurs. Nos contributions sont de deux types : nous avons dans un premier temps proposé des évolutions de la représentation du problème exploitée par l'approche initiale (CESNA) afin d'en supprimer les limitations interdisant un passage à l'échelle, et dans un second temps, nous avons défini un nouveau modèle (MANA : Multi-level bAlancing Negotiating Agents) exploitant cette nouvelle représentation à l'aide d'un nouveau processus de résolution basé sur des mécanismes endogènes de contrôle de l'activité du système. Ces mécanismes reposent sur la matérialisation des effets microscopiques du phénomène macroscopique à orienter (le parcours de l'espace de recherche) afin de le rendre perceptible localement par les agents. Nos mesures montrent que ce nouveau modèle permet le passage à l'échelle (la résolution de problèmes industriels de grande taille) et une amélioration significative des performances de résolution par rapport à l'approche initiale montrant ainsi l'efficacité du guidage permis par les mécanismes utilisés.
225

Modèles stochastiques de mesures archéomagnétiques / Stochastic modeling of archeomagnetic measurements

Hellio, Gabrielle 29 January 2015 (has links)
Cette thèse porte sur la construction de modèles stochastiques, régionaux et globaux du champ magnétique sur les quatre derniers millénaires à l'aide de mesures archéomagnétiques. Ces données présentent une répartition spatiale et temporelle très inhomogène, et sont caractérisées par de fortes incertitudes sur la mesure et sur la date. La reconstruction du champ constitue alors un problème inverse mal posé. Afin de déterminer la solution la plus adaptée, une information a priori sur le modèle doit être choisie. Elle consiste généralement en une régularisation arbitraire du champ magnétique (lissage en temps et en espace). Contrairement aux études précédentes, nous utilisons les statistiques temporelles du champ magnétique, dérivées des données d'observatoires, satellitaires et paléomagnétiques pour définir l'information a priori via des fonctions d'auto-covariances. Ces statistiques sont confirmées par des résultats issus de simulations numériques. Cette méthode bayésienne permet de s'affranchir de l'utilisation de fonctions supports arbitraires comme les splines pour l'interpolation temporelle. Le résultat final consiste en un ensemble de réalisations possibles du champ magnétique dont la dispersion caractérise l'incertitude sur le modèle. Afin de prendre en compte les erreurs de datation, nous développons par ailleurs une méthode basée sur l'utilisation de Markov Chain Monte Carlo (MCMC). Elle nous permet d'explorer de manière efficace l'espace des dates possibles et ainsi de sélectionner les modèles les plus probables. Cette méthode est une amélioration de la méthode de bootstrap classique, qui donne le même poids à des tirages aléatoires de dates présentant des probabilités très variables. Les ensembles de réalisations sélectionnés par la méthode MCMC aboutissent à la construction d'une densité de probabilités en lieu et place d'une courbe unique. La méthode bayésienne combinée à la méthode Markov Chain Monte Carlo nous a permis de construire des courbes régionales présentant des variations plus rapides que celles obtenues par d'autres études. Les courbes représentées sous forme de densités de probabilités ne sont pas nécessairement gaussiennes, et la méthode permet d'affiner l'estimation de l'âge de chacune des observations. La méthode bayésienne a été utilisée pour la construction de modèles globaux pour lesquels le dipôle axial présente des variations plus rapides que celui obtenu par de précédentes études. D'autre part, le champ magnétique obtenu pour les époques les plus récentes est raisonnablement similaire à celui construit à partir de mesures directes (satellites, observatoires, historiques) malgré des données beaucoup moins nombreuses et une répartition beaucoup moins homogène. Les modèles issus de cette étude offrent une alternative aux modèles existants régularisés, et pourront servir dans un objectif d'assimilation de données avec des modèles de la dynamique dans le noyau terrestre. / The aim of this thesis is to build stochastic models of the magnetic field for the last four millenia from archeomagnetic measurements. The sparse repartition of these data in space and time, and their associated large measurement and dating errors lead to an ill-posed problem. To determine the best solution, one needs to choose some prior information which consists usually on arbitrary regularizations in space and time. Instead, we use the temporal statistics of the geomagnetic field available from satellites, observatories and paleomagnetic measurements, and validated by numerical simulations, to define our prior information via auto-covariance functions. This bayesian method allows to get rid of arbitrary support functions, like splines, usually necessary to interpolate the model in time. The result consists in an ensemble of several possible realizations of the magnetic field. The ensemble dispersion represents the model uncertainties. We find that the methodology can be adapted to account for the age uncertainties and we use Markov Chain Monte Carlo to explore the possible dates of observations. This method improves the bootstrap method which gives the same weight to every draws of dates presenting very disparate probabilities. Each ensemble of realizations is then constructed from each selected model and the result is presented as a probability density function. The bayesian method together with the Markov Chain Monte Carlo provides regional time series with rapid variations compared to previous studies. We find that the possible values of geomagnetic field elements are not necessarily normally distributed. Another output of the model is better age estimates of archeological artefacts. The bayesian method has been used to build global models for which the axial dipole presents more rapid variations than for previous studies. Moreover, the obtained magnetic field displays reasonably similar behavior than models obtained from direct measurements (satellites, observatories, historical), despite very few data and sparser repartition. Models obtained from this study offer an alternative to published regularized models and can be used in a purpose of data assimilation together with dynamical models in the Earth's core.
226

Target identification using electroreception / Identification d'une cible par l'électro-localisation

Tsou, Chun-Hsiang 22 December 2017 (has links)
L’électro-localisation est le nom donné aux capacités sensorielles de certains poissons électriques, vivant en eaux troubles, capables de détecter les perturbations électrostatiques dues à la présence d’objets dans leurs voisinages. Cette aptitude à interpréter un signal électrique pour se repérer dans l’espace ouvre l’importance perspectives, notamment dans le domaine de la robotique brio-inspiré. Mathématiquement, l’électrolocalisation est proche de la tomographie d’impédance électrique : il s’agit donc d’un problème inverse non linéaire, notoirement mal posé. Nous proposons dans cette thèse d’étudier des méthodes de reconstruction qui permettraient d’obtenir de manière robuste certaines caractéristiques de la forme des obstacles, plutôt que l’ensemble des détails de leurs géométries. Il s’agit donc d’étudier la stabilité de la partie observable des obstacles par rapport à des erreurs dans les mesures. / Electrolocation is the name given to the sensor ability for certain electric fish robots, which are able to detect electrostatic perturbations caused to the presence of some objects in their neighborhood. This ability to interpret an electrical signal to locate itself in space opens important perspectives, including in the field of biologically inspired robotics. Mathematically, electrolocation is linked to the electric impedance tomography: so it’s about a non-linear inverse problem, particularly ill-posed problem. We will, in this Phd, study some methods of reconstruction, which could be obtain robustly some characteristic of the obstacle’s shape, rather all of their geometry details. So, it’s about to study the stability between the observable part of the obstacles and the errors of measurements.
227

Chirurgie de Dehn et la conjecture propriété P

Ayotte-Sauvé, Étienne January 2005 (has links)
No description available.
228

Méthodologie d'interprétation en électromagnétisme aéroporté / Methodology for airborne electromagnetic imaging

Guillemoteau, Julien 08 March 2012 (has links)
Ce travail de thèse apporte des éléments méthodologiques pour l'interprétation rapide de données électromagnétiques transitoires (TEM) aéroportées. Dans un premier temps, nous nous sommes intéressés au problème de l'inversion 1D qui est, à ce jour, un traitement standard. Nous nous sommes ensuite focalisés sur le problème de l'inversion 2D rapide. En nous basant sur les résultats de modélisations numériques, nous proposons un modèle empirique de sensibilité pour effectuer une inversion 2D rapide. Les tests effectués sur des données synthétiques et réelles s'avèrent très prometteurs. Ensuite, nous étudions analytiquement l'effet de la topographie. Pour un demi-espace homogène incliné, nous montrons que la direction des courants induits dans le sous-sol dépend de l'angle de l'interface air/sol. Nous proposons alors une méthode pour prendre en compte cet effet. Enfin, nous testons nos méthodes de traitement sur des données VTEM acquises dans le bassin de Franceville au Gabon. / This PhD work provides methodological tools for the fast interpretation of airborne transient electromagnetic data (ATEM). As our first step, we focused on the problem of 1D ground imaging, which is currently a standard treatment. Then, we focused on the fast 2D imaging problem. We proposed an empirical sensitivity function that allows fast 2D inversion. The results of the 2D empirical inversion when applied on both synthetic and real data sets are very promising. In the third part, we analyzed the effect of topography on the airborne EM data. For an inclined homogeneous half-space, we show that the direction of the ground induced current is parallel to the surface air/ground. Then, we proposed a method to take into account this effect. Finally, the tools developed during this PhD have been applied to a real VTEM data set acquired over the basin of Franceville, in Gabon.
229

Le raisonnement comme compétence sociale : une comparaison expérimentale avec les théories intellectualistes / Reasoning as a social competence : an experimental comparison with the intellectualist theories

Trouche, Emmanuel 15 September 2016 (has links)
La majorité des recherches en sciences cognitives suppose que la fonction du raisonnement humain est d'aider l'individu à avoir de meilleures croyances et à prendre de meilleures décisions, en particulier grâce à des mécanismes mentaux d'inférences logiques. En 2011, Dan Sperber et Hugo Mercier ont proposé une vision alternative du raisonnement humain. La fonction du raisonnement serait argumentative : le raisonnement serait ce qui permet aux individus de produire et d'évaluer des arguments en contextes dialogiques. Cette thèse a d'une part pour objectif de proposer une comparaison théorique entre les théories standards du raisonnement et la théorie argumentative du raisonnement. D'autre part, elle apporte un soutien empirique a la théorie argumentative à travers différents paradigmes expérimentaux (i.e., résolution de problème individuelle, production et évaluation d'arguments individuelles, résolution de problème et échange d'arguments en groupe). Cette thèse défend non seulement la valeur explicative de la théorie argumentative du raisonnement, mais caractérise également les mécanismes cognitifs du raisonnement humain, de part leurs fonctions, leurs biais, et les contextes qui les déclenchent / Most research in cognitive science assumes that the function of human reasoning is to help individual to improve their beliefs and make better decisions, in particular through mental mechanisms of logical inference. In 2011, Dan Sperber and Hugo Mercier put forward an alternative view of human reasoning. The function of reasoning would be argumentative: reasoning would be what enables individuals to produce and evaluate arguments in dialogical contexts. This PhD thesis aims at proposing a theoretical comparison between standard theories of reasoning and the argumentative theory of reasoning. Furthermore, it provides empirical support for the latter by using different experimental paradigms (i.e., individual problem solving, production and evaluation of arguments in solitary contexts, problem solving and arguments exchange in group). This thesis not only defends the explanatory value of the argumentative theory but also characterizes the cognitive mechanisms of human reasoning by their functions, their biases, and their triggering contexts
230

Interaction lumière-matière dans le régime à N-corps des circuits quantiques supraconducteurs / Probing light-matter interaction in the many-body regime of superconducting quantum circuits

Puertas, Javier 29 June 2018 (has links)
Comprendre l'interaction lumière-matière est toujours un sujet d'actualité malgré des décennies de recherche intense. Grâce au large couplage lumière-matière présent dans les circuits quantiques supraconducteurs, il est maintenant possible d'effectuer des expériences où la dynamique d'environnements contenant beaucoup de degrés de liberté, devient pertinente. Ainsi, relier la physique à N-corps, généralement réservée à la matières condensée, et l’optique quantique est à portée de main.Dans ce travail, nous présentons un système totalement accordable in-situ pour étudier l'interaction lumière-matière à N-corps (N grand) dans différents régimes de couplage. Le circuit est constitué d'un bit quantique de type transmon (“la matière”) couplé capacitivement à une chaîne de 4700 jonctions Josephson en géométrie squid. Cette chaîne supporte de nombreux modes électromagnétiques ou modes plasma (“la lumière”). Grâce à la grande inductance cinétique des jonctions Josephson, la chaîne présente une impédance caractéristique élevée ce qui augmente significativement le couplage qubit-modes. Les squids dans le transmon et dans la chaîne nous permettent de modifier la force de ce couplage en appliquant un flux magnétique.Avec ce sytème, nous avons les trois ingrédients requis pour explorer la physique à N-corps: un environnement avec une grande densité de modes électromagnétiques, un couplage lumière-matière ultra-fort, et une non linéarité comparable aux autres échelles d'énergie pertinentes. De plus, nous présentons un traitement de l'effet des fluctuations du vide de ce large nombre de degrées de liberté. Ce qui nous permet d'obtenir un modèle quantitatif et sans paramètre libre de ce système complexe. Finalement, à partir du décalage de phase induit par le transmon sur les modes de la chaîne, le transmon phase shift, nous quantifions l’hybridation du qubit transmon avec plusieurs modes de la chaîne (jusqu'à 10 modes) et obtenons la fréquence de résonance du transmon, ainsi que sa largeur, confirmant que nous sommes dans le régime de couplage ultra-fort.Ce travail démontre que les circuits quantiques sont un outil puissant pour explorer l'optique quantique à N-corps de manière totalement contrôlée. Combiner des métamatériaux supraconducteurs et des qubits devrait permettre de mettre en évidence des effets à N-corps qualitatifs, comme le décalage de Lamb géant, d’observer des états non-classiques de la lumière ou la production de particules ou encore de simuler des problèmes d’impuretés quantiques (par exemple le modèle de Kondo ou celui de Sine-Gordon) et des transitions de phase quantiques dissipatives. / Understanding the way light and matter interact remains a central topic in modern physics despite decades of intensive research. Owing to the large light-matter interaction in superconducting circuits, it is now realistic to think about experiments where the dynamics of environments containing many degrees of freedom becomes relevant. It suggests that bridging many-body physics, usually devoted to condensed matter, and quantum optics is within reach.In this work we present a fully tunable system for studying light-matter interaction with many bodies at different coupling regimes. The circuit consists of a transmon qubit (“the matter”) capacitively coupled to an array of 4700 Josephson junctions in a squid geometry, sustaining many electromagnetic or plasma modes (“the light”). Thanks to the large kinetic inductance of Josephson junctions, the array shows a high characteristic impedance that enhances the qubit-modes coupling. The squids in the transmon and in the array allow us to tune the strength of this coupling via an external magnetic flux.We observe the three required ingredients to explore many-body physics: an environment with a high density of electromagnetic modes, the ultra-strong light-matter coupling regime and a non-linearity comparable to the other relevant energy scales. Moreover, we present a method to treat the effect of the vacuum fluctuations of all these degrees of freedom. Thus we provide a quantitative and parameter-free model of this large quantum system. Finally, from the phase shift induced by the transmon on the modes of the array, the transmon phase shift, we quantify the hybridization of the transmon qubit with several modes in the array (up to 10) and obtain the transmon resonance frequency and its width, demonstrating that we are in the ultra-strong coupling regime.This work demonstrates that quantum circuits are a very powerful platform to explore many-body quantum optics in a fully controlled way. Combining superconducting metamaterials and qubits could allow us to observe qualitative many-body effects such as giant lambshift, non-classical states of light and particle productions or to simulate quantum impurity problems (such as the Kondo model or the sine-Gordon model) and dissipative quantum phase transitions.

Page generated in 0.0644 seconds