181 |
Efficient sequential learning in structured and constrained environments / Apprentissage séquentiel efficace dans des environnements structurés avec contraintesCalandriello, Daniele 18 December 2017 (has links)
L'avantage principal des méthodes d'apprentissage non-paramétriques réside dans le fait que la nombre de degrés de libertés du modèle appris s'adapte automatiquement au nombre d'échantillons. Ces méthodes sont cependant limitées par le "fléau de la kernelisation": apprendre le modèle requière dans un premier temps de construire une matrice de similitude entre tous les échantillons. La complexité est alors quadratique en temps et espace, ce qui s'avère rapidement trop coûteux pour les jeux de données de grande dimension. Cependant, la dimension "effective" d'un jeu de donnée est bien souvent beaucoup plus petite que le nombre d'échantillons lui-même. Il est alors possible de substituer le jeu de donnée réel par un jeu de données de taille réduite (appelé "dictionnaire") composé exclusivement d'échantillons informatifs. Malheureusement, les méthodes avec garanties théoriques utilisant des dictionnaires comme "Ridge Leverage Score" (RLS) ont aussi une complexité quadratique. Dans cette thèse nous présentons une nouvelle méthode d'échantillonage RLS qui met à jour le dictionnaire séquentiellement en ne comparant chaque nouvel échantillon qu'avec le dictionnaire actuel, et non avec l'ensemble des échantillons passés. Nous montrons que la taille de tous les dictionnaires ainsi construits est de l'ordre de la dimension effective du jeu de données final, garantissant ainsi une complexité en temps et espace à chaque étape indépendante du nombre total d'échantillons. Cette méthode présente l’avantage de pouvoir être parallélisée. Enfin, nous montrons que de nombreux problèmes d'apprentissage non-paramétriques peuvent être résolus de manière approchée grâce à notre méthode. / The main advantage of non-parametric models is that the accuracy of the model (degrees of freedom) adapts to the number of samples. The main drawback is the so-called "curse of kernelization": to learn the model we must first compute a similarity matrix among all samples, which requires quadratic space and time and is unfeasible for large datasets. Nonetheless the underlying effective dimension (effective d.o.f.) of the dataset is often much smaller than its size, and we can replace the dataset with a subset (dictionary) of highly informative samples. Unfortunately, fast data-oblivious selection methods (e.g., uniform sampling) almost always discard useful information, while data-adaptive methods that provably construct an accurate dictionary, such as ridge leverage score (RLS) sampling, have a quadratic time/space cost. In this thesis we introduce a new single-pass streaming RLS sampling approach that sequentially construct the dictionary, where each step compares a new sample only with the current intermediate dictionary and not all past samples. We prove that the size of all intermediate dictionaries scales only with the effective dimension of the dataset, and therefore guarantee a per-step time and space complexity independent from the number of samples. This reduces the overall time required to construct provably accurate dictionaries from quadratic to near-linear, or even logarithmic when parallelized. Finally, for many non-parametric learning problems (e.g., K-PCA, graph SSL, online kernel learning) we we show that we can can use the generated dictionaries to compute approximate solutions in near-linear that are both provably accurate and empirically competitive.
|
182 |
Numerical and Experimental Study of Heat Pipes Used in Solar Applications / Étude numérique, par la méthode de Boltzmann sur réseau, et expérimentale des caloducs utilisés dans les applications solairesGrissa, Kods 18 December 2018 (has links)
En raison de la tendance positives pour le développement durable, les systèmes solaires(capteurs solaires, concentrateur solaire, etc.) Intègrent (et demandent d'intégrer encore plus)intensivement les résidences et les industries. Dans ce contexte, les systèmes diphasiques comme le caloduc semblent être très efficaces en raison de leurs capacités élevées de transport de chaleur et de leur fonctionnement passif appliqués aux capteurs. Compte-tenu de la complexité des caloducs à structure poreuse dans ce type d'application, la plupart des systèmes existants sur le marché utilisent des thermosiphons. Ainsi, le besoin croissant de solutions de contrôle thermique fiables et plus efficaces croit rapidement pour de tels systèmes.Ce travail de thèse porte sur la caractérisation des performances des caloducs à structure poreuse utilisés dans les applications solaires. Une étude numérique a été réalisée pour modéliser et simuler le comportement d'un caloduc typique à l'aide de la méthode Lattice Boltzmann. Une étude expérimentale a également été réalisée pour caractériser les performances de trois prototypes testes dans différentes conditions (température du condenseur, puissance introduite et angle d'inclinaison). Les effets induits par plusieurs paramètres incluant le taux de remplissage, le fluide de travail et la symétrie de la puissance appliquée sur les performances de ces dispositifs ont également été étudiés. En particulier, l'asymétrie du chauffage induit un assèchement plus précoce, toutes choses étant égales par ailleurs. L'inclinaison optimale est également déterminée là où est équilibrée la chaleur solaire maximale disponible et reçue par le caloduc et l'écoulement de liquide assisté par gravité à l'intérieur de ce dispositif. / Owing to the trend to development sustainability, solar systems (solar collector, solar concentrator, etc.) Are integrating (and asked to integrate even more) intensively residences and industries. In this context, two-phase systems like heat pipe seem highly effective because of their high heat transport capabilities and their passive operation in collectors’ technology. In view of the complexity of the heat pipes with a porous structure in this kind of application,most of the existing systems on the market use thermosyphons. Thus, the growing need of reliable and more efficient thermal control solutions is increasing for such systems. This thesis work focuses on the performance characterization of heat pipes with porous structure used in solar applications. A numerical study has been performed to model and simulate the behavior of a typical heat pipe using the Lattice Boltzmann method. An experimental study has also been done to characterize the performance of three prototypes tested under different conditions (condenser temperature, heat input and inclination angle). The effects induced by several parameters including the filling rate, working fluid and symmetry of the applied heat on the performance of these devices has also been investigated. In particular, heating asymmetry is found to induce dry-out earlier, all other things being equal. Optimal inclination is also determined where is balanced the maximum solar heat available and received by the heat pipe and the gravity-assisted liquid flow inside that device.
|
183 |
Les origines de la méthode psychanalytique : une étude d'histoire conceptuelle / The origins of the psychoanalytic method : a study in conceptual historyPadovan, Caio 16 June 2018 (has links)
Afin de contribuer d’un point de vue épistémologique au débat actuel sur la recherche en psychanalyse, nous avons cherché à établir dans notre thèse une histoire conceptuelle des origines de la méthode psychanalytique, une méthode clinique d’investigation et de traitement développée à Vienne entre 1886 et 1896 par le neuropathologiste Sigmund Freud. Ce travail se divise en trois grandes parties. Dans la première, intitulée « les antécédents », nous proposons d’identifier au sein de la neurologie et de la psychiatrie de langue française et allemande les conditions de possibilités empiriques de l’émergence de la méthode psychanalytique. Dans la deuxième, intitulée « les précédents », l’objectif est de reconnaître à l’intérieur de cette même tradition un certain nombre de pratiques apparentées à la psychanalyse, des pratiques considérées ici comme concurrentes de la méthode de Freud. Finalement, dans la troisième et dernière partie, intitulée « les origines », nous avons essayé de comprendre la manière dont la psychanalyse s’est effectivement établie en tant que méthode clinique d’investigation et de traitement dans son contexte particulier d’émergence. À la fin de ce parcours, nous avons pu constater l’existence de trois éléments qui sont à la base de la méthode freudienne et qui se trouvent dans la continuité de ses antécédents et précédents : 1) une notion non-dualiste de psychisme ancrée dans le postulat du parallélisme psycho-physique ; 2) un modèle nosologique fondé sur une hypothèse constitutionnelle non-congénitale ; et 3) une conception dynamique des rapports psychophysiologiques entre les représentations et les affects. Enfin, nous avons conclu que, bien que la psychanalyse de Freud possède une spécificité vis-à-vis d’autres pratiques psychologiques qui lui sont contemporaines, celle-ci ne peut être considérée comme un événement historique coupé de son contexte scientifique, ni comme quelque chose d’absolument exceptionnel par rapport à d’autres savoirs sur l’être humain. / Abstract In attempting to contribute from an epistemological point of view to the current debate on psychoanalytic research, we have sought in our thesis to establish a conceptual history of the origins of the psychoanalytic method, a clinical method of investigation and treatment developed in Vienna between 1886 and 1896 by neuropathologist Sigmund Freud. This work is divided into three main parts. In the first, entitled “the antecedents”, we propose to identify within the neurology and psychiatry of French and German languages the empirical conditions of the emergence of the psychoanalytic method. In the second, entitled “the precedents”, the objective is to recognize within this same tradition a certain number of practices related to psychoanalysis, practices considered here as concurrent of Freud's method. Finally, in the third and last part, entitled “the origins”, we have tried to understand how psychoanalysis has actually established itself as a clinical method of investigation and treatment in its particular context of emergence. At the end of this itinerary, we were able to recognize the existence of three elements which are at the base of the Freudian method and which are in the continuity of its antecedents and precedents: 1) a non-dualistic notion of psyche anchored in the postulate of psycho-physical parallelism; 2) a nosological model based on a non-congenital constitutional hypothesis; and 3) a dynamic conception of the psychophysiological relationships between representations and affects. Finally, we conclude that although Freud's psychoanalysis possesses a specificity regarding other psychological and contemporary practices, it cannot be considered as a historical event disconnected from its scientific context, nor as something absolutely exceptional concerning other knowledge about the human being.
|
184 |
Material thermal conductivity measurement by the 3-omega method : application to polymers characterization using inkjet printing technology / Mesure de la conductivité thermique des matériaux par la méthode 3-omega : application pour la caractérisation de polymères utilisant la technologie d’impression jet d’encreAl-Khudary, Nadine 17 December 2014 (has links)
Dans le domaine de l'électronique souple, les substrats flexibles à base de polymères sont de plus en plus utilisés. Si dans les prochaines années, les structures de propagation mises en œuvre sur ce type de substrat véhiculent une puissance, alors la connaissance de la conductivité thermique de ces matériaux est essentielle. Dans ce travail, nous mesurons la conductivité thermique de matériaux de type polymère en utilisant la méthode 3 omégas. Des mesures ont été effectuées sur du polydiméthylsiloxane (PDMS). Un procédé technologique particulier est utilisé pour la fabrication des échantillons de PDMS. De ce fait, les conducteurs métalliques sont encapsulés dans le polymère et non en surface de ce dernier. Mais cela est sans conséquence sur les valeurs de conductivité thermique mesurées. Les procédés photolithographiques utilisés traditionnellement pour réaliser les lignes métalliques sont coûteux et longs. Par conséquent, nous proposons pour ce type de matériaux une méthode alternative pour la réalisation des lignes conductrices grâce à la technologie d'impression par jet d'encre. Les conductivités thermiques du polyimide et polyétheréthercétone ont été mesurées en utilisant la méthode 3omega combinée à la technologie d'impression par jet d'encre.Des simulations numériques basées sur la méthode des éléments finis ont été développées au cours de la thèse. Les mesures expérimentales obtenues sont comparées aux résultats obtenus par une solution analytique et par notre modélisation numérique.Ainsi durant cette thèse nous montrons avec succès la possibilité d'utiliser la technologie d'impression jet d'encre pour mesurer la conductivité thermique d'un substrat souple. / The characterization of polymers is gaining a great attention as they are one of the main constituents of future flexible or organic electronics. Given the fact that thermal management is an important issue in the frame work of flexible electronics, the knowledge of the thermal conductivity of polymer materials is needed. In this work, we propose the measurement of polymer material thermal conductivity using the three omega method. This method requires heating a metallic line conductor placed on the surface of the material under test by an alternating current source. The first measurements were done on polydimethyl siloxane (PDMS) polymer material for which a special procedure that consists in embedding the metallic line conductors near the surface has been applied.In addition to the well-known limitations of photolithography process which are the cost and the process duration, a particular concern lies in the fabrication of the metallic conductors by such process which might be destructive in case of polymer materials. Consequently, we propose an alternative method for this kind of materials based on inkjet printing technology. The thermal conductivities of polyimide and polyetherether ketone have been successfully measured using the three omega method combined with inkjet printing technology for sample preparation. Numerical simulations using finite element method (FEM) are also performed. Finally, experimental measurements are compared to Cahill’s analytical solution and FEM modelling. The overall results demonstrate that the inkjet printing technology is a good candidate for the characterization of flexible materials in terms of thermal conductivity.
|
185 |
Propriétés optiques et chimiques des cendres volcaniques : mesures de laboratoire et applications à la télédétection spatiale / Chemical and optical properties of volcanic ashes : laboratory measurements and remote sensing applicationsDeguine, Alexandre 20 December 2018 (has links)
Lors d'une éruption volcanique, une énorme quantité d'aérosols est émise dans l'atmosphère. En absorbant et en diffusant le rayonnement solaire, les cendres volcaniques influencent le bilan radiatif terrestre. Les aérosols peuvent être détectés par télédétection en utilisant par exemple des spectromètres embarqués sur des satellites. Ces instruments enregistrent le signal d'extinction d'une colonne atmosphérique mélangeant les apports de gaz et d'aérosols. À partir de ces observations, l'objectif principal est d'estimer la composition chimique, la taille et la concentration des particules. Dans le but de restituer ces paramètres, il est essentiel de déterminer l'indice complexe de réfraction m. Cependant, celui-ci est mal connu et reste l’une des principales sources d’incertitude. De ce fait, une nouvelle méthodologie a été appliquée afin de mesurer les spectres d'extinction de divers aérosols. Le système mécanique est utilisé pour générer un nuage de cendres volcaniques. Des spectromètres enregistrent les spectres d’extinction de l’UV-visible à l’infrarouge et la distribution en taille. La combinaison de données expérimentales et d'un processus itératif est utilisée afin de récupérer les constantes optiques n et k conduisant à l'indice de réfraction complexe m. Cette méthodologie a été appliquée à cinq échantillons de cendres volcaniques prélevés au Chili et en Islande. De plus, une analyse chimique a été réalisée pour chaque échantillon en utilisant la Fluorescence par rayons X (FRX) afin de déterminer le lien entre les propriétés optiques et chimiques. Enfin, les résultats obtenus grâce à la méthodologie sont utilisés pour l'inversion des cas d'étude d'IASI. / During a volcanic eruption, a huge amount of aerosols are emitted into the. By absorbing and scattering solar radiation, volcanic ashes influence strongly the Earth radiative budget. These particles may also affect human health and may perturb or interrupt air traffic. Aerosols can be detected by remote sensing using for example spectrometers embarked on satellites. These instruments record the extinction signal of an atmospheric column mixing gas and aerosols contributions. From these observations, the main objective is to estimate the chemical composition, the size and the concentration of particles. With the aim of estimating these parameters, the key is to determine the complex refractive index m. However, the complex refractive index is badly known and stay one of the main source of uncertainty. For this purpose, a new methodology has been applied in order to measure the extinction spectra of various sampling aerosols. Mechanical system is used to generate a cloud of volcanic. Then aerosols are directed through two spectrometers and a particle sizer recording respectively the extinction spectra from UV-visible to Infrared and the size distribution. A combination of experimental data and an iterative process is used in order to retrieve the optical constants n and k leading to the complex refractive index m. This methodology has been applied for six volcanic ashes samples collected from Chile, Iceland and Italy. Moreover, a chemical analysis has been performed for each sample using X-ray fluorescence in order to determine the link between chemical and optical properties. Results obtained through the methodology are used for the inversion of study cases from IASI.
|
186 |
Caractérisation diélectrique et thermique de films biopolymères pour l’électronique flexible haute fréquence / Dielectric and thermal characterizations of biopolymer films for high frequency flexible electronicsBoussatour, Ghizlane 12 April 2019 (has links)
Les matériaux biopolymères sont l’objet d’un engouement très fort pour des applications très variées dans de nombreux domaines d’activités où ils remplacent de plus en plus les polymères pétrosourcés. Compte tenu de leurs propriétés, parmi lesquelles la biocompatibilité, la biodégradabilité, la flexibilité et la légèreté, ils suscitent un intérêt croissant dans le domaine de l’électronique. Néanmoins, leur possible intégration dans l’électronique haute fréquence passe par l’étude de propriétés importantes telles que la conductivité thermique et la permittivité diélectrique complexe. Dans ce travail nous nous intéressons à deux biopolymères en particulier, l’acide poly lactique (PLA) et le palmitate de cellulose (CP). L’extraction des propriétés de ces matériaux est réalisée au travers de la mise en œuvre de deux méthodes. La méthode 3ω pour la détermination de la conductivité thermique et la méthode dite des deux lignes pour la détermination de la permittivité diélectrique complexe. Cette dernière est mesurée sur une bande de fréquences allant de 0,5 à 67 GHz. Ces deux techniques de caractérisation requièrent la réalisation de lignes métalliques en surface des films biopolymères qui compte tenu de leur nature supportent mal les procédés de photolithographie. Aussi, des procédés alternatifs ont été développés pour répondre à ce challenge technologique. Ce travail expérimental est accompagné d’études de modélisation sur les deux volets, estimations de la conductivité thermique et de la permittivité diélectrique complexe des matériaux investigués. La confrontation des modèles proposés, analytiques et numériques, aux données expérimentales montre une bonne compréhension du problème de caractérisation de ces biopolymères. / Biopolymer materials attract significant attention in many fields where they tend to replace petrosourced polymers. Thanks to their properties, such as biocompatibility, biodegradability, flexibility and lightness, biopolmyers are also increasingly used in many electronic applications. Nevertheless, their possible integration into high-frequency electronics requires the study of important properties such as thermal conductivity and dielectric complex permittivity. In this work we are interested in two biopolymers in particular, poly lactic acid (PLA) and cellulose palmitate (CP). The extraction of the properties of these materials is carried out through the implementation of two methods. The means selected are the 3ω method for the thermal conductivity and the two-line method for the dielectric complex permittivity. This latter is measured in the frequency band 0.5 - 67 GHz. These two characterization techniques require the realization of metal lines on the surface of the biopolymer films. Since biopolymers are not compatible with classical photolithography method, an alternative processes have been developed to meet this technological challenge. This experimental work is accompanied by modeling studies on both aspects, estimates of the thermal conductivity and the complex dielectric permittivity of the investigated materials. The comparison of the proposed analytical and numerical models with the experimental data shows a good understanding of the problem of characterization of these biopolymers.
|
187 |
Quantification de la contribution des cultures de pois (Pisum sativum L.) au pool azoté du solMahieu, Stéphanie 10 July 2008 (has links) (PDF)
La difficulté d'estimer avec fiabilité la contribution des cultures de légumineuses au pool azoté du sol est un frein à l'accroissement de l'utilisation de ces cultures en tant qu'alternative aux engrais azotés chimiques. D'une part, il est difficile de prévoir la quantité d'azote (N) fixé en fonction des conditions de culture. D'autre part, il existe une grande incertitude sur la quantité d'azote provenant des parties souterraines et principalement de l'N rhizodéposé. Dans ce contexte, le premier objectif de mon travail de thèse était d'adapter et d'affiner une méthode de marquage utilisant le tracer 15N pour mesurer la quantité d'N rhizodéposé par une culture de pois. Deux méthodes « split-root » et « cotton-wick » ainsi que plusieurs conditions de marquage ont été testées. Les effets de la disponibilité en azote du sol, d'un stress hydrique et des sources d'azote sur ce processus ont également été étudiés chez différentes variétés et lignées isogéniques de pois. L'estimation de la rhizodéposition est influencée par la fréquence de marquage et la concentration de la solution de marquage. Cependant, des résultats fiables ont été obtenus avec les deux méthodes de marquage lorsque les plantes étaient soumises à un marquage continu avec une solution diluée d'urée. Pour des raisons pratiques, la méthode « cotton-wick » a été adaptée pour les expérimentations en conditions de plein champ. La proportion d'azote allouée aux parties souterraines n'était influencée ni par un stress hydrique, ni par la disponibilité en azote du sol ou les sources d'azote. L'N rhizodéposé représentait 90% de l'azote total des parties souterraines. De ce fait, l'azote des parties souterraines devrait être intégré dans le calcul du bilan N après une culture de légumineuse ainsi que pour la prédiction des économies en N pour les cultures suivantes dans les systèmes de cultures basés sur les légumineuses.
|
188 |
Datation de sites acheuléens et moustériens du Midi méditerranéen par la méthode de Résonance de Spin ElectroniqueFalguères, Christophe 03 December 1986 (has links) (PDF)
Depuis une quarantaine d'années le développement des Sciences Physiques a permis à la Préhistoire d'aujourd'hui d'élargir son champ d'investigation. En effet, la physique nucléaire a fourni des méthodes de datation absolue qui sont venues s'ajouter aux méthodes plus traditionnelles que sont la paléontologie humaine, la typologie ou encore la sédimentologie.<br /><br /> Dans ce travail, nous avons choisi d'utiliser la méthode de la Résonance de Spin électronique pour dater des sites acheuléens et moustériens du midi méditerranéen et ce pour plusieurs raisons.<br /><br /> La première est que c'est une méthode nouvelle.<br /><br /> La deuxième est qu'elle couvre une période qui s'étend pratiquement sur tout le Quaternaire et nous nous sommes attachés à vérifier que la méthode ESR pouvait fournir des repères chronologiques pour des périodes que les autres méthodes de datation absolue ne permettent pas ou rarement de dater.<br /><br /> En effet, la méthode du C14 a permis d'établir une chronologie détaillée pour les sites du Paléolithique supérieur. Mais compte tenu de la période relativement courte de cet élément, T = 5730 ans, il est difficile d'effectuer des datations allant au-delà de 35-40 000 ans.<br /><br /> Les méthodes de datation utilisant les déséquilibres des familles de l'uranium (Th-230/U-234, Pa-231/U-235), permettent de dater jusqu'à 300 000 et 150 000 ans respectivement.<br /><br /> Certains sites plus anciens de l'Afrique de l'Est notamment ont été datés par la méthode K/Ai grâce aux cendres volcaniques qu'ils contiennent. Il est également possible d'utiliser la méthode des traces de fission pour des sites anciens. Malheureusement, la rareté des cendres volcaniques et des minéraux formés à haute température comme le zircon constitue un obstacle à l'utilisation de ces méthodes.<br /><br /> Donc, pour dater des sites plus anciens que 300 000 ans, il fallait développer de nouvelles méthodes. C'est le cas de la TL et de l'ESR, qui reposent sur le même principe comme nous allons le voir.<br /> La TL s'avère assez précise pour dater des céramiques, roches volcaniques ou des silex brûlés.<br /><br /> Quant à la méthode ESR, elle s'applique à plusieurs minéraux comme le quartz, l'aragonite mais essentiellement à la calcite issue des planchers stalagmitiques qui sont nombreux dans les sites du Midi-méditerranéen.<br /><br /> Ce travail se compose de 2 parties.<br /><br /> La première est consacrée à la méthode ESR/<br /><br /> La deuxième concerne l'application de la méthode à la datation de sites préhistoriques.
|
189 |
Ingéniérie des exigences pour les systèmes d'information décisionnels : concepts, modèles et processus - la méthode CADWEGam El Golli, Inès 01 October 2008 (has links) (PDF)
La Business Intelligence (BI) se définit comme l'ensemble des technologies permettant de traiter, valoriser et présenter les données à des fins de compréhension et de décision. Elle donne aux dirigeants une visibilité sur la performance de leur entreprise afin d'améliorer la capacité de celle-ci à réagir plus rapidement que ses concurrents face à de nouvelles opportunités ou aux risques du marché. La BI s'appuie sur un système d'information spécifique appelé Système d'Information Décisionnel (SID), par opposition aux systèmes d'informations transactionnels. Les SID comportent plusieurs composants qui se résumaient autrefois en un entrepôt de données. Un entrepôt de données est une collection de données intégrées et historisées qui sont utilisées pour la prise de décisions stratégiques au moyen de techniques de traitement analytiques. La majeure partie des outils existants pour le développement des entrepôts de données se focalise sur la structure de stockage des données. L'intérêt est principalement porté à la définition de modèles « en étoile » ou « en flocons », d'intégrer des données provenant de sources hétérogènes, plus que de s'interroger sur les exigences des experts métiers. Considérer les exigences des experts métiers permettrait de développer des SID offrant une meilleure fiabilité dans la prise de décision. Par ailleurs, peu d'approches dirigées par les exigences sont proposées pour la conception des SID. Dans une approche d'ingénierie des exigences pour les SID, le principal but n'est pas de savoir « où » les données doivent être stockées mais « comment » elles devraient être structurées et « pourquoi » elles sont nécessaires. Le « pourquoi » n'est souvent pas connu et encore moins rattaché au « quoi ». Pourtant la prise en compte du « pourquoi » permettrait de justifier le choix des informations opérationnelles ‘justes nécessaires', modélisées et utilisées pour l'aide à la décision. En conséquence, la principale question de recherche à laquelle s'intéresse cette thèse est « comment spécifier les exigences des décideurs pour un système d'information décisionnel qui fournit l'information la plus adéquate». L'élément central de contribution de cette thèse est une méthode d'IE adaptée à un environnement décisionnel. Cette méthode comporte des modèles de produits et un processus qui guide la découverte des exigences et la conception du SID. Ce travail de recherche a également contribué à la définition d'une problématique qui touche directement les exigences du monde industriel et complète les recherches de la communauté scientifique, sa validation et sa résolution par la proposition d'une démarche méthodologique et un ensemble de quatre méta-modèles, quatre modèles et deux modèles complémentaires. La méthode proposée est nommé CADWE (Computer Aided Data Warehouse Engineering). Cette méthode exploite différentes sources pour découvrir les exigences d'un SID : les buts stratégiques de l'organisation, les objectifs stratégiques et tactiques des décideurs, les données des SI opérationnels existants et une base de composants réutilisables intentionnels et opérationnels. A partir de l'ensemble de ces ressources, le processus génère les schémas multidimensionnels du système cible. L'ensemble des éléments cités est le produit de l'implantation du SID. Le processus de la méthode CADWE se décompose en quatre phases qui ont pour but de (1) identifier les buts stratégiques, (2) exprimer les objectifs, (3) découvrir les exigences informationnelles et (4) définir le schéma multidimensionnel. Ce processus fait apparaitre que différents types d'exigences, rattachées à un SID, peuvent être recensées. Les exigences du SID peuvent être de quatre types : Les exigences stratégiques reliées à la stratégie de l'organisation, les exigences tactiques reliées à une perspective, les exigences opérationnalisables reliées à l'information recherchée et les exigences système reliées au système à concevoir. Ces quatre types d'exigences sont répertoriés en deux niveaux : Le niveau intentionnel et le niveau opérationnel. Enfin, la méthode proposée est illustrée au moyen d'une étude de cas industrielle.
|
190 |
Méthode de Galerkin discontinue pour un modèle stratigraphiqueTaakili, Abdelaziz 02 July 2008 (has links) (PDF)
Dans cette thèse, nous nous intéressons à un problème mathématique issu de la modélisation de taux d'érosion maximale dans la stratigraphie géologique. Une contrainte globale sur $\partial_t u$, la dérivée par rapport au temps de la solution, est la principale caractéristique de ce modèle. Ce qui nous amène à considérer une équation non linéaire pseudo-parabolique avec un coefficient de diffusion qui est une fonction non-linéaire de $\partial_t u$. En outre, le problème dégénère de telle sorte de tenir compte implicitement de la contrainte. Nous présentons un résultat de l'existence d'une solution au problème continu. Ensuite, une méthode DgFem (discontinuous Galerkin finite element method) pour son approximation numérique est développée. Notre objectif est d'utiliser les propriétéess d'approximation constante par morceaux pour tenir compte implicitement de la contrainte.
|
Page generated in 0.0529 seconds