• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 62
  • 24
  • 5
  • 2
  • Tagged with
  • 89
  • 35
  • 22
  • 19
  • 14
  • 12
  • 12
  • 10
  • 10
  • 9
  • 8
  • 8
  • 8
  • 8
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
81

Étude multi-échelle de la température de surface des cours d’eau par imagerie infrarouge thermique : exemples dans le bassin du Rhône / Multi-scale study of river surface temperature using thermal infrared remote sensing : examples in the Rhône basin (South East France)

Wawrzyniak, Vincent 12 December 2012 (has links)
Dans un contexte de changement climatique, la compréhension du régime thermique des cours d’eau est un enjeu important. En mesurant le rayonnement dans le spectre électromagnétique de l’infrarouge thermique (IRT : 0,4-14µm), la télédétection IRT offre la possibilité d’obtenir une cartographie de la température de surface à différentes échelles spatiales. L’approche multi-échelle est ainsi le fil directeur de ce travail.Dans le premier temps, nous utilisons des images satellites Landsat ETM+ pour caractériser les structures thermiques longitudinales et temporelles d’un grand continuum fluvial : le Rhône français (500 km). Une méthode automatique supprimant les pixels contaminés par les entités exondées, est développée, améliorant ainsi la précision des données. Les images nous permettent de comprendre les effets thermiques des affluents et des centrales nucléaires. L’Isère est la principale source d’eau froide, alors que les centrales nucléaires du Bugey, de Saint-Alban et de Tricastin réchauffent le fleuve. Nous mettons en évidence des anomalies thermiques au niveau des aménagements hydroélectriques. Par rapport aux canaux, les Rhône court-circuités (RCC) sont plus sensibles aux conditions extérieures du fait de leur géométrie et de leurs conditions hydrauliques.Dans un second temps, les travaux se focalisent sur un tronçon plus court (50 km) : l’Ain dans sa basse vallée où quatre campagnes IRT aéroportées sont réalisées. Nous développons une méthode statistique permettant de calculer l’incertitude de mesure associée à la construction des profils longitudinaux de température de l’eau. Les artefacts des vraies tendances longitudinales sont ainsi différenciés. Pour comprendre ces tendances, un modèle 1D (thermo-hydraulique) est mis en place sur 21 kilomètres. Il considère les flux de chaleur à l’interface eau-air et les propriétés géométriques ainsi qu’hydrauliques de la rivière. Les arrivées phréatiques associées aux bras morts et aux suintements latéraux sont identifiées sur les images thermiques et intégrées au modèle. Ces arrivées phréatiques peuvent refroidir l’Ain de 0,6°C en été lorsqu’elles représentent 15,7% du débit total.Une échelle plus fine est explorée enfin. Le travail porte cette fois sur neuf tronçons en tresses (1 km) pour lesquels des images IRT à très haute résolution spatiale sont acquises. En caractérisant les distributions spatiales de la température, nous identifions deux types de tronçons. Le premier montre une très faible variabilité thermique spatiale tout au long de la journée. Les cours d’eau de ce type ont bien souvent un régime hydrologique proglaciaire avec des débits estivaux élevés, ce qui tend à homogénéiser la température. Le second type présente une hétérogénéité thermique élevée. La température des chenaux courants varie avec la température de l'air. En revanche, la température des chenaux alimentés par des eaux souterraines est relativement constante au cours de la journée. Nous proposons une méthode ne nécessitant pas d’images IRT pour identifier les tronçons montrant une variabilité thermique élevée.À travers ce travail, nous montrons qu’il est nécessaire de coupler les approches spatiales et temporelles pour comprendre la température des cours d’eau. Longtemps, les mesures ont été effectuées avec des thermomètres. L’aspect spatial a ainsi souvent été ignoré. La télédétection IRT a permit de mieux appréhender les structures spatiales de température. Toutefois, pour comprendre ces dernières il est indispensable de considérer les changements temporels de température. Il est également nécessaire d’intégrer une approche plus physique permettant de simuler différentes situations pour évaluer l’importance des différents facteurs affectant la température. / In a context of global warming, understanding the thermal regime of rivers is a key issue. By measuring the radiation in the electromagnetic spectrum of thermal infrared (TIR: 0.4-14µm), TIR remote sensing offers the possibility of obtaining surface temperature maps at multiple scales. The multi-scale approach is thus the guiding principle of this work.First we use satellite thermal infrared images from Landsat ETM+ to investigate longitudinal and temporal variations in the thermal patterns of a large river continuum, the French Rhône (500 km). An automated water extraction technique is developed to remove pixels contaminated by terrestrial surfaces. This method improves the accuracy of our data. The images allow us to understand the thermal effects of tributaries and nuclear power plants: the Isère is the main source of cold water while the Bugey, Saint-Alban and Tricastin nuclear power plants warm the river. We show temperature differences within the largest hydroelectric bypass facilities between the bypass section and the canal. The factors responsible for these differences are the length and minimum flow of the bypass section as well as tributaries coming into this reach.Second, we focus on a shorter river (50 km): the lower Ain in France where four airborne TIR surveys are performed. Based on a statistical analysis of temperature differences between overlapping images we calculate the measurement uncertainty associated with TIR derived profiles. This uncertainty allows for the discrimination between artifacts and real longitudinal thermal trends. To understand these trends, we use a 1D determinist model which predicts water temperature at an hourly time step along a 21 km reach. The model considers heat fluxes at the water-air interface as well as the geometrical and hydraulic characteristics of the river. Based on TIR images, groundwater inputs associated with backwaters and lateral seepages are identified. They are inserted into the temperature model. These groundwater inputs can mitigate high water temperatures during the summer by cooling the river up to -0.6°C when they represent 15.7% of the total discharge.A finer scale is finally explored. The work focuses on nine braided reaches located in the French Alps (1 km) where very high spatial resolution TIR images are acquired. By characterizing the spatial distributions of water temperature, we identify two types of reaches. The first type shows a very low thermal spatial variability throughout the day. Rivers of this type often have a proglacial hydrological regime with high summer flows, which tends to homogenize the temperature. The second type exhibits a higher thermal variability with changes during the day. The temperature of flowing channels changes during the daytime according to the air temperature. In contrast, the temperature of groundwater-fed channels exhibits smaller changes which creates thermal variability over space and time. We propose a method which does not require TIR images in order to identify reaches showing high thermal variability.Through this work, we show that it is essential to combine both spatial and temporal approaches to understand river temperature. Thermometers have been used for many years. Thus, the spatial aspect has often been ignored. TIR remote sensing has allowed a better characterization of spatial thermal patterns. However, to understand these patters it is necessary to consider temporal changes of water temperature. It is also necessary to integrate a more physical approach in order to simulate different scenarios and to assess the importance of the different factors affecting water temperature.
82

Elliptic curve cryptography algorithms resistant against power analysis attacks on resource constrained devices / Algorithmes cryptographiques à base de courbes elliptiques résistant aux attaques par analyse de consommation

Houssain, Hilal 21 December 2012 (has links)
Les systèmes de cryptographie à base de courbe elliptique (ECC) ont été adoptés comme des systèmes standardisés de cryptographie à clé publique (PKC) par l'IEEE, ANSI, NIST, SEC et WTLS. En comparaison avec la PKC traditionnelle, comme RSA et ElGamal, l'ECC offre le même niveau de sécurité avec des clés de plus petites tailles. Cela signifie des calculs plus rapides et une consommation d'énergie plus faible ainsi que des économies de mémoire et de bande passante. Par conséquent, ECC est devenue une technologie indispensable, plus populaire et considérée comme particulièrement adaptée à l’implémentation sur les dispositifs à ressources restreintes tels que les réseaux de capteurs sans fil (WSN). Le problème majeur avec les noeuds de capteurs chez les WSN, dès qu'il s'agit d’opérations cryptographiques, est les limitations de leurs ressources en termes de puissance, d'espace et de temps de réponse, ce qui limite la capacité du capteur à gérer les calculs supplémentaires nécessaires aux opérations cryptographiques. En outre, les mises en oeuvre actuelles de l’ECC sur WSN sont particulièrement vulnérables aux attaques par canaux auxiliaires (SCA), en particulier aux attaques par analyse de consommation (PAA), en raison de l'absence de la sécurité physique par blindage, leur déploiement dans les régions éloignées et le fait qu’elles soient laissées sans surveillance. Ainsi, les concepteurs de crypto-processeurs ECC sur WSN s'efforcent d'introduire des algorithmes et des architectures qui ne sont pas seulement résistants PAA, mais également efficaces sans aucun supplément en termes de temps, puissance et espace. Cette thèse présente plusieurs contributions dans le domaine des cryptoprocesseurs ECC conscientisés aux PAA, pour les dispositifs à ressources limitées comme le WSN. Premièrement, nous proposons deux architectures robustes et efficaces pour les ECC conscientisées au PAA. Ces architectures sont basées sur des algorithmes innovants qui assurent le fonctionnement de base des ECC et qui prévoient une sécurisation de l’ECC contre les PAA simples (SPA) sur les dispositifs à ressources limitées tels que les WSN. Deuxièmement, nous proposons deux architectures additionnelles qui prévoient une sécurisation des ECC contre les PAA différentiels (DPA). Troisièmement, un total de huit architectures qui incluent, en plus des quatre architectures citées ci-dessus pour SPA et DPA, deux autres architectures dérivées de l’architecture DPA conscientisée, ainsi que deux architectures PAA conscientisées. Les huit architectures proposées sont synthétisées en utilisant la technologie des réseaux de portes programmables in situ (FPGA). Quatrièmement, les huit architectures sont analysées et évaluées, et leurs performances comparées. En plus, une comparaison plus avancée effectuée sur le niveau de la complexité du coût (temps, puissance, et espace), fournit un cadre pour les concepteurs d'architecture pour sélectionner la conception la plus appropriée. Nos résultats montrent un avantage significatif de nos architectures proposées par rapport à la complexité du coût, en comparaison à d'autres solutions proposées récemment dans le domaine de la recherche. / Elliptic Curve Cryptosystems (ECC) have been adopted as a standardized Public Key Cryptosystems (PKC) by IEEE, ANSI, NIST, SEC and WTLS. In comparison to traditional PKC like RSA and ElGamal, ECC offer equivalent security with smaller key sizes, in less computation time, with lower power consumption, as well as memory and bandwidth savings. Therefore, ECC have become a vital technology, more popular and considered to be particularly suitable for implementation on resource constrained devices such as the Wireless Sensor Networks (WSN). Major problem with the sensor nodes in WSN as soon as it comes to cryptographic operations is their extreme constrained resources in terms of power, space, and time delay, which limit the sensor capability to handle the additional computations required by cryptographic operations. Moreover, the current ECC implementations in WSN are particularly vulnerable to Side Channel Analysis (SCA) attacks; in particularly to the Power Analysis Attacks (PAA), due to the lack of secure physical shielding, their deployment in remote regions and it is left unattended. Thus designers of ECC cryptoprocessors on WSN strive to introduce algorithms and architectures that are not only PAA resistant, but also efficient with no any extra cost in terms of power, time delay, and area. The contributions of this thesis to the domain of PAA aware elliptic curve cryptoprocessor for resource constrained devices are numerous. Firstly, we propose two robust and high efficient PAA aware elliptic curve cryptoprocessors architectures based on innovative algorithms for ECC core operation and envisioned at securing the elliptic curve cryptoprocessors against Simple Power Analysis (SPA) attacks on resource constrained devices such as the WSN. Secondly, we propose two additional architectures that are envisioned at securing the elliptic curve cryptoprocessors against Differential Power Analysis (DPA) attacks. Thirdly, a total of eight architectures which includes, in addition to the two SPA aware with the other two DPA awareproposed architectures, two more architectures derived from our DPA aware proposed once, along with two other similar PAA aware architectures. The eight proposed architectures are synthesized using Field Programmable Gate Array (FPGA) technology. Fourthly, the eight proposed architectures are analyzed and evaluated by comparing their performance results. In addition, a more advanced comparison, which is done on the cost complexity level (Area, Delay, and Power), provides a framework for the architecture designers to select the appropriate design. Our results show a significant advantage of our proposed architectures for cost complexity in comparison to the other latest proposed in the research field.
83

Numerical approach by kinetic methods of transport phenomena in heterogeneous media / Approche numérique, par des méthodes cinétiques, des phénomènes de transport dans les milieux hétérogènes

Jobic, Yann 30 September 2016 (has links)
Les phénomènes de transport en milieux poreux sont étudiés depuis près de deux siècles, cependant les travaux concernant les milieux fortement poreux sont encore relativement peu nombreux. Les modèles couramment utilisés pour les poreux classiques (lits de grains par exemple) sont peu applicables pour les milieux fortement poreux (les mousses par exemple), un certain nombre d’études ont été entreprises pour combler ce manque. Néanmoins, les résultats expérimentaux et numériques caractérisant les pertes de charge dans les mousses sont fortement dispersés. Du fait des progrès de l’imagerie 3D, une tendance émergente est la détermination des paramètres des lois d’écoulement à partir de simulations directes sur des géométries reconstruites. Nous présentons ici l’utilisation d’une nouvelle approche cinétique pour résoudre localement les équations de Navier-Stokes et déterminer les propriétés d’écoulement (perméabilité, dispersion, ...). / A novel kinetic scheme satisfying an entropy condition is developed, tested and implemented for the simulation of practical problems. The construction of this new entropic scheme is presented. A classical hyperbolic system is approximated by a discrete velocity vector kinetic scheme (with the simplified BGK collisional operator), but applied to an inviscid compressible gas dynamics system with a small Mach number parameter, according to the approach of Carfora and Natalini (2008). The numerical viscosity is controlled, and tends to the physical viscosity of the Navier-Stokes system. The proposed numerical scheme is analyzed and formulated as an explicit finite volume flux vector splitting (FVS) scheme that is very easy to implement. It is close in spirit to Lattice Boltzmann schemes, but it has the advantage to satisfy a discrete entropy inequality under a CFL condition and a subcharacteristic stability condition involving a cell Reynolds number. The new scheme is proved to be second-order accurate in space. We show the efficiency of the method in terms of accuracy and robustness on a variety of classical benchmark tests. Some physical problems have been studied in order to show the usefulness of both schemes. The LB code was successfully used to determine the longitudinal dispersion of metallic foams, with the use of a novel indicator. The entropic code was used to determine the permeability tensor of various porous media, from the Fontainebleau sandstone (low porosity) to a redwood tree sample (high porosity). These results are pretty accurate. Finally, the entropic framework is applied to the advection-diffusion equation as a passive scalar.
84

Domaines extrémaux pour la première valeur propre de l’opérateur de Laplace-Beltrami

Sicbaldi, Pieralberto 08 December 2009 (has links)
Dans tout ce qui suit, nous considérons une variété riemannienne compacte de dimension au moins égale à 2. A tout domaine (suffisamment régulier) , on peut associer la première valeur propre ?Ù de l’opérateur de Laplace-Beltrami avec condition de Dirichlet au bord. Nous dirons qu’un domaine est extrémal (sous entendu, pour la première valeur propre de l’opérateur de Laplace-Beltrami) si est un point critique de la fonctionnelle Ù? ?O sous une contrainte de volume V ol(Ù) = c0. Autrement dit, est extrémal si, pour toute famille régulière {Ot}te (-t0,t0) de domaines de volume constant, telle que Ù 0 = Ù, la dérivée de la fonction t ? ?Ot en 0 est nulle. Rappelons que les domaines extrémaux sont caractérisés par le fait que la fonction propre, associée à la première valeur propre sur le domaine avec condition de Dirichlet au bord, a une donnée de Neumann constante au bord. Ce résultat a été démontré par A. El Soufi et S. Ilias en 2007. Les domaines extrémaux sont donc des domaines sur lesquels peut être résolu un problème elliptique surdéterminé. L’objectif principal de cette thèse est la construction de domaines extrémaux pour la première valeur propre de l’opérateur de Laplace-Beltrami avec condition de Dirichlet au bord. Nous donnons des résultats d’existence de domaines extrémaux dans le cas de petits volumes ou bien dans le cas de volumes proches du volume de la variété. Nos résultats permettent ainsi de donner de nouveaux exemples non triviaux de domaines extrémaux. Le premier résultat que nous avons obtenu affirme que si une variété admet un point critique non dégénéré de la courbure scalaire, alors pour tout volume petit il existe un domaine extrémal qui peut être construit en perturbant une boule géodésique centrée en ce point critique non dégénéré de la courbure scalaire. La méthode que nous utilisons pour construire ces domaines extrémaux revient à étudier l’opérateur (non linéaire) qui à un domaine associe la donnée de Neumann de la première fonction propre de l’opérateur de Laplace-Beltrami sur le domaine. Il s’agit d’un opérateur (hautement non linéaire), nonlocal, elliptique d’ordre 1. Dans Rn × R/Z, le domaine cylindrique Br × R/Z, o`u Br est la boule de rayon r > 0 dans Rn, est un domaine extrémal. En étudiant le linéarisé de l’opérateur elliptique du premier ordre défini par le problème précédent et en utilisant un résultat de bifurcation, nous avons démontré l’existence de domaines extrémaux nontriviaux dans Rn × R/Z. Ces nouveaux domaines extrémaux sont proches de domaines cylindriques Br × R/Z. S’ils sont invariants par rotation autour de l’axe vertical, ces domaines ne sont plus invariants par translations verticales. Ce deuxi`eme r´esultat donne un contre-exemple à une conjecture de Berestycki, Caffarelli et Nirenberg énoncée en 1997. Pour de grands volumes la construction de domaines extrémaux est techniquement plus difficile et fait apparaître des phénomènes nouveaux. Dans ce cadre, nous avons dû distinguer deux cas selon que la première fonction propre Ø0 de l’opérateur de Laplace-Beltrami sur la variété est constante ou non. Les résultats que nous avons obtenus sont les suivants : 1. Si Ø0 a des points critiques non dégénérés (donc en particulier n’est pas constante), alors pour tout volume assez proche du volume de la variété, il existe un domaine extrémal obtenu en perturbant le complément d’une boule géodésique centrée en un des points critiques non dégénérés de Ø0. 2. Si Ø0 est constante et la variété admet des points critiques non dégénérés de la courbure scalaire, alors pour tout volume assez proche du volume de la variété il existe un domaine extrémal obtenu en perturbant le complément d’une boule géodésique centrée en un des points critiques non dégénérés de la courbure scalaire / In what follows, we will consider a compact Riemannian manifold whose dimension is at least 2. Let Ù be a (smooth enough) domain and ?O the first eigenvalue of the Laplace-Beltrami operator on Ù with 0 Dirichlet boundary condition. We say that Ù is extremal (for the first eigenvalue of the Laplace-Beltrami operator) if is a critical point for the functional Ù? ?O with respect to variations of the domain which preserve its volume. In other words, Ù is extremal if, for all smooth family of domains { Ù t}te(-t0,t0) whose volume is equal to a constant c0, and Ù 0 = Ù, the derivative of the function t ? ?Ot computed at t = 0 is equal to 0. We recall that an extremal domain is characterized by the fact that the eigenfunction associated to the first eigenvalue of the Laplace-Beltrami operator over the domain with 0 Dirichlet boundary condition, has constant Neumann data at the boundary. This result has been proved by A. El Soufi and S. Ilias in 2007. Extremal domains are then domains over which can be solved an elliptic overdeterminated problem. The main aim of this thesis is the construction of extremal domains for the first eigenvalue of the Laplace-Beltrami operator with 0 Dirichlet boundary condition. We give some existence results of extremal domains in the cases of small volume or volume closed to the volume of the manifold. Our results allow also to construct some new nontrivial exemples of extremal domains. The first result we obtained states that if the manifold has a nondegenerate critical point of the scalar curvature, then, given a fixed volume small enough, there exists an extremal domain that can be constructed by perturbation of a geodesic ball centered in that nondegenerated critical point of the scalar curvature. The methode used is based on the study of the operator that to a given domain associes the Neumann data of the first eigenfunction of the Laplace-Beltrami operator over the domain. It is a highly nonlinear, non local, elliptic first order operator. In Rn × R/Z, the circular-cylinder-type domain Br × R/Z, where Br is the ball of radius r > 0 in Rn, is an extremal domain. By studying the linearized of the elliptic first order operator defined in the previous problem, and using some bifurcation results, we prove the existence of nontrivial extremal domains in Rn × R/Z. Such extremal domains are closed to the circular-cylinder-type domains Br × R/Z. If they are invariant by rotation with respect to the vertical axe, they are not invariant by vertical translations. This second result gives a counterexemple to a conjecture of Berestycki, Caffarelli and Nirenberg stated in 1997. For big volumes the construction of extremal domains is technically more difficult and shows some new phenomena. In this context, we had to distinguish two cases, according to the fact that the first eigenfunction Ø0 of the Laplace-Beltrami operator over the manifold is constant or not. The results obtained are the following : 1. If Ø0 has a nondegenerated critical point (in particular it is not constant), then, given a fixed volume closed to the volume of the manifold, there exists an extremal domain obtained by perturbation of the complement of a geodesic ball centered in a nondegenerated critical point of Ø0. 2. If Ø0 is constant and the manifold has some nondegenerate critical points of the scalar curvature, then, for a given fixed volume closed to the volume of the manifold, there exists an extremal domain obtained by perturbation of the complement of a geodesic ball centered in a nondegenerate critical point of the scalar curvature
85

La spontanéité en français parlé : caractérisation de l'élan énonciatif à travers différents types de corpus / Spontaneity in spoken french : caracterization of enunciative impulse in different corpora

Stabarin, Isabelle 25 November 2019 (has links)
Qu’est-ce que la spontanéité en langue ? Comment investit-elle les différents types de discours oraux ? Avec quelles limites ? Nous cherchons à mettre au jour les aspects formels (marqueurs) de la spontanéité à partir de corpus de différents types. Nous partons de l’hypothèse selon laquelle un locuteur a tendance à produire des énoncés syntaxiquement plus complexes s’il parle spontanément que s’il surveille son énonciation, et que cette complexité linguistique se manifeste par une réduction syntaxique. La réduction des énoncés ou des formes qui le constituent, alliée à d’autres critères tels que leur caractère prédicatif, et le rôle de l’intonation pour leur complétude, s’observe effectivement dans des énoncés où l’élan de la spontanéité est patent. Cet élan est scalaire, il varie même au sein d’un tour de parole, comme le montrent les auto-ajustements. Sa variation chez un même locuteur se manifeste par des variations linguistiques intrapersonnelles.Ces variations corrélées (élan/langue) sont observables grâce au corpus spécifique que nous avons constitué : au cours d’interactions informelles, un procédé de sollicitation freine l’élan du locuteur, et celui-ci est amené à reformuler son énoncé avec plus d’attention à la forme. Les équivalences sémantiques produites dans ce contexte sont confrontées et mettent au jour l’effet de la scalarité de la spontanéité sur la grammaire des énoncés. Il se confirme que la réduction est bien un marqueur de spontanéité. Mais surtout, cette réduction investit tous les niveaux de la langue. Cette concomitance d’éléments réduits est non seulement compatible avec l’élan de la spontanéité mais elle le nourrit. / What is spontaneity in language? What role does it play in different types of oral discourse, and which constraints is it subject to? This study sets out to identify formal markers of spontaneity in different corpora. We hypothesize that a speaker tends to produce more complex syntactic statements when speaking spontaneously than when monitoring his /her spoken discourse, and that this linguistic complexity is manifested in syntactic reduction. The reduction of the statements or their component forms, combined with other criteria such as their predictive nature, and the role of intonation in their completeness, is indeed observed in statements where the impulse of spontaneity is very evident. This impulse varies, even within a single speaking turn, as can be seen in self-adjustments. Impulse variation in a single speaker is manifested by intrapersonal linguistic variations.These correlated variations (impulse and language) can be observed thanks to the specific corpus compiled for this study, which permits the comparison of semantic equivalences, revealing the effect of the degree of spontaneity on the grammar of statements. The study confirms that reduction is indeed a marker of spontaneity. But reduction affects all levels of language. This concomitance of reduced elements is both compatible with and also fosters the impulse of spontaneity.
86

Classification de systèmes intégrables en coordonnées cylindriques en présence de champs magnétiques

Fournier, Félix 08 1900 (has links)
No description available.
87

Intégrabilité et superintégrabilité de deuxième ordre dans l'espace Euclidien tridimensionel

Abdul-Reda, Hassan 02 1900 (has links)
L'article "A systematic search for nonrelativistic systems with dynamical symetries, Part I" publié il y a à peu près 50 ans a commencé une classification de ce qui est maintenant appelé les systèmes superintégrables. Il était dévoué aux systèmes dans l'espace Euclidien ayant plus d'intégrales de mouvement que de degrés de liberté. Les intégrales étaient toutes supposées de second ordre en quantité de mouvement. Dans ce mémoire, sont présentés de nouveaux résultats sur la superintégrabilité de second ordre qui sont pertinents à l'étude de la superintégrabilité d'ordre supérieur et de la superintégrabilité de systèmes ayant des potentiels vecteurs ou des particules avec spin. / The article "A systematic search for nonrelativistic systems with dynamical symetries, Part I" published about 50 years ago started the classification of what is now called superintegrable systems. It was devoted to systems in Euclidean space with more integrals of motion than degrees of freedom. The integrals were all assumed to be second order polynomials in the particle momentum. Here we present some further results on second order superintegrability that are relevant for studies of higher order superintegrability and for superintegrability for systems with vector potentials or for particles with spin.
88

Essai de géographie systématique : les paysages du Nord-Ouest de la Côte d'Ivoire

Filleron, Jean-Charles 23 June 1995 (has links) (PDF)
Cette thèse privilégie dans l'analyse de l'espace géographique la pluie et la rivière, le relief et la roche, la végétation, la surface du sol et le sol... mais l'on ne s'étonnera pas d'y rencontrer des champs et des jachères, des villages et des vergers. Elle a l'ambition de participer au développement d'une géographie centrée sur l'organisation d'un espace matériel produit conjointement par la nature et l'homme. C'est dans l'étude des changements de dimensions, dans « l'analyse scalaire », que se trouve l'essentiel de son explication scientifique et c'est à cette recherche que l'auteur s'est attaché... <br />La méthode d'analyse des milieux et des paysages est celle de l'« École d'Abidjan » dont Jean-Charles Filleron a été l'un des fondateurs. Trente mois ont été consacrés à la description de 826 relevés de la végétation, de la surface du sol et du sol sur le terrain et plus de 2500 photos aériennes ont été analysées du double point de vue de la forme et du milieu. Les traitements statistiques multivariés, ACP, AFC et classifications ont permis la réalisation d'une systématique des milieux et paysages aux différentes échelles scalaires.<br />Le champ d'application est le Nord-Ouest de la Côte d'Ivoire, vaste territoire de 49000 km2 dont l'essentiel est dévolu aux savanes plus ou moins boisées couvrant plateaux cuirassés et inselbergs. Sur ce territoire faiblement peuplé, l'auteur met en évidence le rôle des sociétés rurales... et de la nature du substrat rocheux... dans la diversité des milieux et des paysages et renouvelle le discours écologique sur les milieux tropicaux.
89

Sur des méthodes préservant les structures d'une classe de matrices structurées / On structure-preserving methods of a class of structured matrices

Ben Kahla, Haithem 14 December 2017 (has links)
Les méthodes d'algèbres linéaire classiques, pour le calcul de valeurs et vecteurs propres d'une matrice, ou des approximations de rangs inférieurs (low-rank approximations) d'une solution, etc..., ne tiennent pas compte des structures de matrices. Ces dernières sont généralement détruites durant le procédé du calcul. Des méthodes alternatives préservant ces structures font l'objet d'un intérêt important par la communauté. Cette thèse constitue une contribution dans ce domaine. La décomposition SR peut être calculé via l'algorithme de Gram-Schmidt symplectique. Comme dans le cas classique, une perte d'orthogonalité peut se produire. Pour y remédier, nous avons proposé deux algorithmes RSGSi et RMSGSi qui consistent à ré-orthogonaliser deux fois les vecteurs à calculer. La perte de la J-orthogonalité s'est améliorée de manière très significative. L'étude directe de la propagation des erreurs d'arrondis dans les algorithmes de Gram-Schmidt symplectique est très difficile à effectuer. Nous avons réussi à contourner cette difficulté et donner des majorations pour la perte de la J-orthogonalité et de l'erreur de factorisation. Une autre façon de calculer la décomposition SR est basée sur les transformations de Householder symplectique. Un choix optimal a abouti à l'algorithme SROSH. Cependant, ce dernier peut être sujet à une instabilité numérique. Nous avons proposé une version modifiée nouvelle SRMSH, qui a l'avantage d'être aussi stable que possible. Une étude approfondie a été faite, présentant les différentes versions : SRMSH et SRMSH2. Dans le but de construire un algorithme SR, d'une complexité d'ordre O(n³) où 2n est la taille de la matrice, une réduction (appropriée) de la matrice à une forme condensée (J(Hessenberg forme) via des similarités adéquates, est cruciale. Cette réduction peut être effectuée via l'algorithme JHESS. Nous avons montré qu'il est possible de réduire une matrice sous la forme J-Hessenberg, en se basant exclusivement sur les transformations de Householder symplectiques. Le nouvel algorithme, appelé JHSJ, est basé sur une adaptation de l'algorithme SRSH. Nous avons réussi à proposer deux nouvelles variantes, aussi stables que possible : JHMSH et JHMSH2. Nous avons constaté que ces algorithmes se comportent d'une manière similaire à l'algorithme JHESS. Une caractéristique importante de tous ces algorithmes est qu'ils peuvent rencontrer un breakdown fatal ou un "near breakdown" rendant impossible la suite des calculs, ou débouchant sur une instabilité numérique, privant le résultat final de toute signification. Ce phénomène n'a pas d'équivalent dans le cas Euclidien. Nous avons réussi à élaborer une stratégie très efficace pour "guérir" le breakdown fatal et traîter le near breakdown. Les nouveaux algorithmes intégrant cette stratégie sont désignés par MJHESS, MJHSH, JHM²SH et JHM²SH2. Ces stratégies ont été ensuite intégrées dans la version implicite de l'algorithme SR lui permettant de surmonter les difficultés rencontrées lors du fatal breakdown ou du near breakdown. Rappelons que, sans ces stratégies, l'algorithme SR s'arrête. Finalement, et dans un autre cadre de matrices structurées, nous avons présenté un algorithme robuste via FFT et la matrice de Hankel, basé sur le calcul approché de plus grand diviseur commun (PGCD) de deux polynômes, pour résoudre le problème de la déconvolution d'images. Plus précisément, nous avons conçu un algorithme pour le calcul du PGCD de deux polynômes bivariés. La nouvelle approche est basée sur un algorithme rapide, de complexité quadratique O(n²), pour le calcul du PGCD des polynômes unidimensionnels. La complexité de notre algorithme est O(n²log(n)) où la taille des images floues est n x n. Les résultats expérimentaux avec des images synthétiquement floues illustrent l'efficacité de notre approche. / The classical linear algebra methods, for calculating eigenvalues and eigenvectors of a matrix, or lower-rank approximations of a solution, etc....do not consider the structures of matrices. Such structures are usually destroyed in the numerical process. Alternative structure-preserving methods are the subject of an important interest mattering to the community. This thesis establishes a contribution in this field. The SR decomposition is usually implemented via the symplectic Gram-Schmidt algorithm. As in the classical case, a loss of orthogonality can occur. To remedy this, we have proposed two algorithms RSGSi and RMSGSi, where the reorthogonalization of a current set of vectors against the previously computed set is performed twice. The loss of J-orthogonality has significantly improved. A direct rounding error analysis of symplectic Gram-Schmidt algorithm is very hard to accomplish. We managed to get around this difficulty and give the error bounds on the loss of the J-orthogonality and on the factorization. Another way to implement the SR decomposition is based on symplectic Householder transformations. An optimal choice of free parameters provided an optimal version of the algorithm SROSH. However, the latter may be subject to numerical instability. We have proposed a new modified version SRMSH, which has the advantage of being numerically more stable. By a detailes study, we are led to two new variants numerically more stables : SRMSH and SRMSH2. In order to build a SR algorithm of complexity O(n³), where 2n is the size of the matrix, a reduction to the condensed matrix form (upper J-Hessenberg form) via adequate similarities is crucial. This reduction may be handled via the algorithm JHESS. We have shown that it is possible to perform a reduction of a general matrix, to an upper J-Hessenberg form, based only on the use of symplectic Householder transformations. The new algorithm, which will be called JHSH algorithm, is based on an adaptation of SRSH algorithm. We are led to two news variants algorithms JHMSH and JHMSH2 which are significantly more stable numerically. We found that these algortihms behave quite similarly to JHESS algorithm. The main drawback of all these algorithms (JHESS, JHMSH, JHMSH2) is that they may encounter fatal breakdowns or may suffer from a severe form of near-breakdowns, causing a brutal stop of the computations, the algorithm breaks down, or leading to a serious numerical instability. This phenomenon has no equivalent in the Euclidean case. We sketch out a very efficient strategy for curing fatal breakdowns and treating near breakdowns. Thus, the new algorithms incorporating this modification will be referred to as MJHESS, MJHSH, JHM²SH and JHM²SH2. These strategies were then incorporated into the implicit version of the SR algorithm to overcome the difficulties encountered by the fatal breakdown or near-breakdown. We recall that without these strategies, the SR algorithms breaks. Finally ans in another framework of structured matrices, we presented a robust algorithm via FFT and a Hankel matrix, based on computing approximate greatest common divisors (GCD) of polynomials, for solving the problem pf blind image deconvolution. Specifically, we designe a specialized algorithm for computing the GCD of bivariate polynomials. The new algorithm is based on the fast GCD algorithm for univariate polynomials , of quadratic complexity O(n²) flops. The complexitiy of our algorithm is O(n²log(n)) where the size of blurred images is n x n. The experimental results with synthetically burred images are included to illustrate the effectiveness of our approach

Page generated in 0.0979 seconds